Das als „Olympus“ betitelte Large Language Model (LLM) von Amazon ist ein weiterer Schritt des Großkonzerns, mit ChatGPT zu konkurrieren. Vor einigen Wochen investierte Amazon bereits mehrere Milliarden US-Dollar in den KI-Entwickler Anthropic, um deren ChatGPT-Konkurrenz „Claude 2“ exklusiv für AWS-Anwendungen verwenden zu können. Das Rennen um die Vorherrschaft im Bereich der künstlichen Intelligenz bleibt spannend.
Was ist Olympus?
Amazon Olympus ist ein Large Language Model (LLM). Wie beispielsweise ChatGPT, wird Olympus Fragen beantworten und Texte erstellen. Allerdings wächst der Markt rund um künstliche Intelligenz schnell und Amazon wird einige Vorteile parat haben müssen, um gegen die bereits etablierte Konkurrenz zu bestehen.
Wobei AWS kaum eine Wahl hat. Microsoft hat sich die Verwendung am derzeit bekanntesten LLM ChatGPT durch Investitionen in den Entwickler OpenAI gesichert. Google nutzt mit PaLM 2 ein eigens entwickeltes Large Language Model. Um mit den Konkurrenten Schritt zu halten, ist Amazon sozusagen gezwungen, selbst aktiv zu werden.
Hier kommt Olympus ins Spiel, das logischerweise exklusiv für Amazon beziehungsweise deren Kundschaft verfügbar sein wird. Die Vermutung liegt nahe, dass Olympus in Amazon Web Services (AWS) eingegliedert wird und dort die meisten – wenn nicht sogar alle – Anwendungen unterstützt.
Aber was kann Olympus, das andere Large Language Models nicht können?
So will sich Olympus von der Konkurrenz abheben
Der derzeitige Platzhirsch auf dem Markt ist eindeutig GPT-4 von OpenAI. Das LLM wurde mit 1,76 Billionen Parametern trainiert. Das Vorgänger-Modell GPT-3 hatte im Vergleich gerade mal schmächtige 175 Millionen Parameter aufzuweisen – was immer noch unglaublich viel ist und einer Trainingszeit von umgerechnet 355 Jahren entspricht.
Amazon Olympus will das natürlich überbieten und soll mit 2 Billionen Parametern trainiert werden. Damit wäre es das derzeit größte LLM. Die Vorteile liegen auf der Hand: Mehr Trainingsdaten sorgen für detailliertere und menschlichere Antworten. In der Theorie sollten auch falsche Informationen zumindest geringer ausfallen.
Das Team, das Olympus entwickelt und trainiert, hat bereits Erfahrung. In der Vergangenheit trainierte Amazon schon kleinere LLMs wie die generative KI „Titan“, die ebenfalls in AWS integriert ist. Die Zusammenarbeit mit KI-Entwickler Anthropic und AI21 Labs dürfte ebenfalls hilfreich sein, um ein LLM zu entwickeln, das sich dem Wettbewerb stellt. Wann Olympus erscheint, ist aber noch nicht bekannt. Bisher hat Amazon nach eigenen Aussagen noch kein festes Zeitfenster dafür vorgesehen.
Vermutlich werden wir im Jahr 2024 noch einiges von Olympus hören und vielleicht schon mit einer Veröffentlichung rechnen können. Bis dahin nutzen wir weiter die Anwendungen in AWS, wie sie derzeit verfügbar sind.
Anwendungen in AWS professionell nutzen mit skill it
KI ist auch jetzt schon ein wichtiges Thema beim Umgang mit Amazon Web Services. In unserem Seminar AWS Technical Essentials lernst du die wichtigsten Grundlagen für den technischen Umgang mit den Anwendungen in AWS. Hast du bereits Erfahrung mit AWS und willst deine Fähigkeiten verbessern? Dann ist unser dreitägiger Kurs Advanced Architecting on AWS bestens geeignet, um neue Anwendungen und Möglichkeiten kennenzulernen. Diesen Kurs gibt es übrigens auch als eintägige Variante mit einem kleinen Wettbewerb unter den Teilnehmenden im Advanced Architecting on AWS – JAM Day.