AWS Bits: Generative AI mit Amazon SageMaker

AWS Bits: Amazon SageMaker – Generative AI auf AWS

Avatar von Amina Wittmann

Künstliche Intelligenz (KI) und ML stehen schon seit 20 Jahren im Fokus von Amazon: unter anderem sind die Empfehlungen im E-Commerce durch ML getrieben. Auch Alexa liegen über 30 unterschiedliche ML-Systeme zugrunde. Mit Amazon SageMaker bietet Amazon nun ein Tool, mit dem Entwickler ML-Modelle mit vollständig verwalteter Infrastruktur und Workflows entwickeln, trainieren und implementieren können.

Generative AI

Generative KI ist eine Art von KI, die darauf abzielt, neue und originäre Daten zu erzeugen, die von einem Menschen stammen könnten; im Gegensatz zu herkömmlichen Formen der KI, die menschliche Entscheidungen lediglich imitieren oder vorhersagen soll. Zugrunde liegen Foundation-Modelle (FM), die mit riesigen Datenmengen vortrainiert sind.

Um es Kunden zu erleichtern, schnell generative KI zu integrieren, wurden nun mit Amazon Bedrock und Amazon Titan Models zwei neue Services angekündigt, die genau das ermöglichen sollen.

Amazon Bedrock & Amazon Titan Models

Bedrock bietet einen einfachen Weg, auf generativer KI basierende Applikationen zu bauen und zu skalieren, sowie auf eine Reihe von FM zuzugreifen – darunter Amazon Titan FMs, die aus zwei neuen LLMs bestehen. Die Modelle können Text in natürlicher Sprache auf einer Reihe von Sprachen generieren, Konversationen sowie Textverarbeitungs-Aufgaben ausführen. Das eine Modell ist für Aufgaben wie Zusammenfassung, Textgenerierung, Klassifizierung, etc. verantwortlich. Das Zweite übersetzt Texteingaben in numerische Repräsentationen (sog. Embeddings), die die semantische Bedeutung des Texts enthalten. Während dieses LLM keinen Text generiert, ist es nützlich für Personalisierung und Suche, da kontextuellere Antworten entstehen als durch bloßes Abgleichen von Worten. 

Eine der wichtigsten Funktionen von Bedrock ist die Möglichkeit, schnell und einfach ein Modell anzupassen. Es muss lediglich auf wenige Beispiele in Amazon S3 verwiesen werden und der Service kann, ohne große Datenmengen annotieren zu müssen, eine Feinabstimmung vornehmen.

Aktuell befindet sich Bedrock im Status limited preview.

Amazon EC2 Trn1n und Inf2

Gleichzeitig wurde die Verfügbarkeit von Amazon EC2 Trn1n- und Inf2-Instanzen als die kosteneffektivste Cloud-Infrastruktur für generative KI angekündigt.

Trn1n-Instanzen (basierend auf AWS Trainium) bieten 1600 Gbps Netzwerk-Bandbreite und sind designed, eine 20-prozentig höhere Leistung als Trn1 für große, netzwerkintensive Modelle zu liefern. Inf2-Instanzen (basierend auf AWS Inferentia2) sind für groß angelegte generative KI-Anwendungen optimiert und können bis zu vier mal höheren Durchsatz sowie bis zu zehn mal niedrigere Latenz als die vorherige Generation Inferentia-basierter Instanzen vorweisen.

Außerdem wurde die allgemeine Verfügbarkeit von Amazon CodeWhisperer verkündet. CodeWhisperer unterstützt Entwickelnde durch die Generierung von Code-Vorschlägen, basierend auf dem Input des Entwicklers in natürlicher Sprache und vorherigem Code in der IDE. Das Tool ist für zahlreiche Programmiersprachen verfügbar und es kann über verschiedene IDEs darauf zugegriffen werden. 

Weitere News aus dem AWS-Universum


Avatar von Amina Wittmann

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert


Für das Handling unseres Newsletters nutzen wir den Dienst HubSpot. Mehr Informationen, insbesondere auch zu Deinem Widerrufsrecht, kannst Du jederzeit unserer Datenschutzerklärung entnehmen.