pds-it
['Blogbeitrag','nein']
Microsoft Technology
Microsoft Technology

Microsofts Maia- und Cobalt-Chips: Die Hintergründe

von
der skill it Redaktion für dich
Veröffentlicht am
21.2.2024

Microsoft hat mit den beiden Maia 100 sowie Cobalt 100 getauften Chips seit kurzem eine Eigenentwicklung im Bereich der künstlichen Intelligenz und des maschinellen Lernens im Portfolio, die in den ersten Monaten des Jahres 2024 erstmals zum Einsatz kommen werden. Der von Microsoft entworfene Maia dient der Optimierung der Leistung großer KI-Modelle. Der Hauptzweck des Maia Chips liegt in der Steigerung der Effizienz und Leistung von AI-Berechnungen, wobei insbesondere umfangreiche Rechenmodelle im Fokus stehen. Die Entwicklung von Maia ist eine Reaktion auf die wachsenden Anforderungen von KI-Anwendungen, die erhebliche Rechenleistung erfordern.

Im Gegensatz zu herkömmlichen, universell einsetzbaren Hardwarekomponenten ist das Design des Maia Chips maßgeschneidert für Aufgaben im maschinellen Lernen, wie zum Beispiel Matrixmultiplikation, die eine der Grundlagen der neuronalen Netzwerkberechnungen darstellt. In der Computergrafik dient die Matrixmultiplikation der Transformationen von Rotation, Skalierung und Translation von Objekten. Dieser Vorgang ist besonders wichtig für neuronale Netzwerke und Deep Learning. Hierbei werden Matrizen genutzt, um Gewichte und Inputs von Neuronen zu repräsentieren, und die Multiplikation dieser Matrizen ist ein zentraler Bestandteil des Prozesses, der es einem Netzwerk ermöglicht, aus Daten zu lernen und Vorhersagen zu treffen.

Maia 100: Funktionsweise und Fähigkeiten

Der Maia Chip zeichnet sich durch seine Effizienz in KI-Aufgaben wie der Verarbeitung natürlicher Sprache und der Bilderkennung aus, wobei die Architektur für die schnelle Ausführung von Deep-Learning-Algorithmen optimiert wurde. In Zeiten steigender Energiepreise ist die Energieeffizienz des Maia Chips eines der wichtigsten Kriterien bei seiner Entwicklung gewesen. Unterm Strich führt Maia Berechnungen effizienter aus als die bisher allgemein übliche Hardware, was den Energieverbrauch erheblich reduziert, was vor allem für große Rechenzentren von entscheidender Bedeutung ist. Darüber hinaus ist der Chip so konzipiert, dass er nahtlos in Microsofts Azure-Cloud-Infrastruktur integriert werden kann. Microsofts KI-Dienste wie Azure, Bing, Microsoft 365 und auch der Azure OpenAI-Service können die verbesserte Rechenleistung also nutzen, ohne dass signifikante architektonische Änderungen erforderlich sind.

Ein Schlüsselelement des Maia 100, der in enger Zusammenarbeit mit OpenAI enstand, ist die Unterstützung von sub-8-Bit-Datentypen, was das Training und die Inferenz von Modellen beschleunigt. Bei der Entwicklung des Prozessors kamen die tiefgreifenden Einblicke in die Arbeitsweise von OpenAIs Arbeitslasten zugute, die speziell für große Sprachmodelle zugeschnitten sind. Zudem ist der Maia 100 ein vollständig flüssigkeitsgekühlter Serverprozessor, was wiederum eine höhere Serverdichte ermöglicht. Parallel wurden spezielle Server-Racks und Flüssigkühler entwickelt, die eine möglichst nahtlose Integration in Microsofts bestehende Datenzentrumsinfrastruktur erlauben.

Details zum Cobalt 100

Die Cobalt 100 CPU von Microsoft wiederum ist ein energieeffizienter 128-Core-Chip, der auf einer Arm Neoverse CSS-Architektur basiert. Diese wiederum ist optimiert für Effizienz und Leistung in Cloud-nativen Angeboten und wird neue virtuelle Maschinen für Kunden im laufenden Jahr und natürlich darüber antreiben. Bei der Wahl der Arm-Technologie stand die Optimierung der „Leistung pro Watt“ in den Datenzentren im Vordergrund.

Im Gegensatz zum Maia 100, der als KI-Beschleuniger mit Schwerpunkt auf KI-Workloads entwickelt wurde, ist die Cobalt 100 eine vielseitigere CPU, die für ein breiteres Spektrum an Cloud-basierten Diensten und Anwendungen konzipiert ist. Während der Maia 100 also speziell auf KI-bezogene Aufgaben wie das Training und die Inferenz von Modellen ausgerichtet ist, dient die Cobalt 100 eher der Unterstützung einer Vielzahl von Cloud-nativen Diensten.

Microsoft hält einige der spezifischen technischen Details von Maia 100 und Cobalt 100 derzeit noch unter Verschluss, Ergebnisse von Benchmarking-Test-Suites wie MLCommons/MLPerf wurden für den Maia 100 bislang nicht veröffentlicht. Deshalb lässt sich über die Leistungsfähigkeit der neuen Chips und über den Vergleich mit Produkten der Konkurrenz derzeit noch nicht viel sagen. Allerdings sind die beiden Chips anders als der bei Amazon noch in der Entwicklung stehende Trainium 2, der sich auf generative AI sowie Machine Learning-Learning fokussiert, Nvidias neuem H200 AI-GPU-Chip oder Googles kürzlich gelaunchtem TPU v5e explizit maßgeschneidert für die optimale Zusammenarbeit mit Microsofts Portfolio von KI-Tools und Diensten. Durch die Konzentration auf spezialisierte Hardware für KI hat sich Microsoft mit dem Maia 100 und dem Cobalt 100 aber in jedem Fall zunächst einmal prominent in der Wettbewerbslandschaft von Cloud Computing- und KI-Hardware positioniert. Für weitere Einblicke und detaillierte Vergleiche braucht es dann aber spezifische Leistungsbenchmarks und Fallstudien.

Develop Generative AI Solutions with Azure Open AI Services

Mit diesem in diesem an Software-Developer und Data-Scientists gerichteten Kurs "Develop Generative AI Solutions with Azure Open AI Services" bekommst Du einen Einstieg in das Thema generative KI und damit in einen sich sehr schnell entwickelnden Bereich der künstlichen Intelligenz. Du lernst, wie Du Azure OpenAI nutzen kannst, um Lösungen mit KI-Modellen innerhalb von Azure zu erstellen und erfährst, wie Du Azure-OpenAI-Service-Lösungen erstellst.

Trainings zum Thema
No items found.
Trainings zum Thema
No items found.