Big Data bezeichnet zusammengefasst Datenmengen aus unterschiedlichsten Quellen, die zu groß oder komplex sind, um sie mit klassischen Methoden der Datenverarbeitung auszuwerten.
Microsoft hat den Datenprozessor-Hersteller Fungible übernommen. Ziel ist es offenbar, die hauseigenen, für den Betrieb der Azure-Cloud verwendeten Rechenzentren in Sachen Netzwerk- und Speicherleistung zu verbessern.
>>
Damit Entscheider in einem sich stetig wandelnden Markt kompetent agieren können, müssen ihnen überall sicher und schnell Daten(-Analysen) zur Verfügung stehen. Denn diese bilden die Basis für erfolgreiche Unternehmensentscheidungen. Es braucht daher eine „Data First“-Strategie.
>>
Qlik AutoML soll sich besonders für die 90 Prozent der Anwendungsfälle eignen, die kein tiefes Fachwissen professioneller Data Scientists benötigen.
>>
Dänische und Schwedische Forscher haben einen neuen Geschwindigkeitsrekord bei der Datenübertragung aufgestellt. Dank photonischer Chips gelang ihnen eine Übertragungsrate von 1,84 Petabit pro Sekunde.
>>
Die auf der Data-Lakehouse-Architektur basierende Cloudlösung CDP One von Cloudera soll Unternehmen befähigen, aus ihren Daten einfacher und schneller wertvolle Erkenntnisse zu gewinnen. Die neue SaaS kommt am 27. September auf den Markt.
>>
ClearScape Analytics nutzt KI/ML für rund 50 neue analytische Funktionen, die als Teil von Teradata VantageCloud und dem neuen Teradata VantageCloud Lake verfügbar sind.
>>
Wenn Nutzende die Kontrolle über ihre digitale Identität und ihre Daten behalten, sind sie offener für neue Online-Services. Möglich wird dies durch Lösungen für eine Self-Sovereign Identity (SSI).
>>