Datenarchitekturen als Fundament für AI-gestützte Systeme

Datenarchitekturen als Fundament für AI-gestützte Systeme

Avatar von Michele Catalano

Die Nutzung von Daten durch moderne AI-Systeme – insbesondere Large Language Models (LLMs) und darauf basierende Agenten – stellt spezifische Anforderungen an Datenarchitekturen. Im Gegensatz zum Training von LLMs liegt der Fokus hier auf der effizienten Bereitstellung und Nutzung von Daten durch AI-Agenten in Produktivumgebungen.

Genau um dieses Thema soll es in diesem Beitrag gehen.

Ein Herz für Lesende?

Dieser Beitrag ist etwas länger geworden. Um schneller zu dein einzelnen Abschnitten zu kommen, haben wir als Test eine Floating Navigation auf der linken Seite eingebaut. Verrate uns gerne, ob sie hilfreich ist und du das bei längeren Artikeln gerne öfter sehen wollen würdest.

Datenzugriff für LLM-Agenten

… am Beispiel von SQL- und Vektordatenbanken-Tools.

Zwei zentrale Technologien haben sich für die Art und Weise, wie LLM-Agenten auf Unternehmensdaten zugreifen, etabliert. Diese werden zunehmend in Unternehmensumgebungen implementiert, um die Fähigkeiten von AI-Systemen zu erweitern und gleichzeitig Datensicherheit und Governance zu gewährleisten.

#1

SQL-Agenten & -Tools

LLM-Agenten können über spezialisierte SQL-Schnittstellen direkt mit relationalen Datenbanken interagieren. Diese SQL-Agenten übersetzen natürlichsprachliche Anfragen in präzise SQL-Abfragen und ermöglichen so den Zugriff auf strukturierte Unternehmensdaten.

Funktionsweise im Detail

Der Prozess beginnt mit der Schemaanalyse, bei der der LLM-Agent Zugriff auf Metadaten wie Tabellenschemas, Beziehungen zwischen Tabellen und Geschäftsdefinitionen erhält. Im nächsten Schritt erfolgt die Anfrageverarbeitung, wobei der Agent die natürlichsprachliche Nutzeranfrage analysiert und die relevanten Entitäten und Beziehungen identifiziert. Darauf aufbauend generiert der Agent eine syntaktisch korrekte SQL-Abfrage basierend auf seinem Verständnis der Anfrage und des Schemas. Vor der Ausführung durchläuft die generierte Abfrage eine Validierungs- und Optimierungsphase, in der sie auf Sicherheitsrisiken geprüft und für optimale Performance angepasst wird.

Nach erfolgreicher Validierung wird die Abfrage an die Datenbank gesendet und ausgeführt. Abschließend werden die zurückgelieferten Daten in natürlicher Sprache aufbereitet und kontextualisiert, um dem Nutzer eine verständliche Antwort zu liefern.

Vorteile

SQL-Agenten ermöglichen präzise Abfragen auf strukturierte Daten mit hoher Genauigkeit, die typischerweise über 95 Prozent bei klar definierten Schemas liegt. Ein wesentlicher Vorteil ist die nahtlose Nutzung bestehender Datenbank-Infrastruktur ohne die Notwendigkeit einer Datenreplikation, was Speicherplatz und Synchronisationsaufwand spart.

Durch die Integration in bestehende Sicherheitsframeworks wird die Einhaltung von Zugriffsrechten und Governance-Richtlinien gewährleistet, was besonders in regulierten Branchen von großer Bedeutung ist. Die Nachvollziehbarkeit wird durch die Protokollierung der generierten SQL-Abfragen sichergestellt, wodurch Entscheidungsprozesse transparent und überprüfbar bleiben. Zudem bieten SQL-Agenten die Möglichkeit zur Kombination mit Business Intelligence-Tools für visuelle Darstellungen, was die Datenanalyse und -präsentation weiter verbessert.

AI Success Story

Müller automatisiert Retail-Prozesse mit AI

Schnellerer Markteintritt, optimierte Workflows und deutlich reduzierter Personalaufwand.

Herausforderungen

Eine zentrale Herausforderung bei SQL-Agenten ist die Notwendigkeit einer detaillierten Kenntnis des Datenbankschemas, was bei komplexen Datenmodellen mit Hunderten von Tabellen und komplexen Beziehungen schwierig zu realisieren sein kann. Sicherheitsbedenken bestehen hinsichtlich des Risikos von SQL-Injections und unbeabsichtigten Datenlecks bei unzureichender Validierung der generierten Abfragen.

Technisch anspruchsvoll ist zudem die Komplexität bei der Übersetzung verschachtelter oder mehrdeutiger Anfragen, die selbst für erfahrene Datenbankexperten herausfordernd sein können. Hinzu kommen Schwierigkeiten bei der Interpretation von Fachbegriffen und domänenspezifischer Terminologie, die nicht im Trainingsmaterial des LLM enthalten sind und daher spezielle Anpassungen oder Finetuning erfordern.

Implementierungsbeispiele

Am Markt haben sich bereits mehrere leistungsfähige Lösungen etabliert. Microsoft SQL Server mit Azure OpenAI Service bietet eine direkte Integration von LLM-Fähigkeiten in die Datenbankumgebung mit natürlichsprachlichen Abfragen, was besonders für Unternehmen im Microsoft-Ökosystem attraktiv ist.

LangChain SQL-Agents stellt ein flexibles Framework für die Entwicklung von SQL-Agenten mit verschiedenen LLM-Backends bereit und ermöglicht so eine anbieterunabhängige Implementierung.

Für Unternehmen, die bereits auf Data-Lakehouse-Architekturen setzen, bietet der Databricks SQL AI Assistant eine integrierte Lösung für SQL-Generierung und -Optimierung, die nahtlos in bestehende Datenworkflows integriert werden kann.

Die Technologie entwickelt sich rasch weiter. Selbstkorrigierende SQL-Agenten repräsentieren einen bedeutenden Fortschritt, da neuere Implementierungen aus fehlgeschlagenen Abfragen lernen und ihre SQL-Generierung iterativ verbessern können, was die Zuverlässigkeit und Erfolgsrate erhöht.

Im Bereich der Multi-Datenbank-Unterstützung können fortschrittliche Agenten inzwischen über verschiedene Datenbanksysteme hinweg arbeiten und sogar föderierte Abfragen erstellen, was heterogene Datenlandschaften besser unterstützt.

Zudem bieten moderne SQL-Agenten zunehmend natürlichsprachliche Erklärungen, indem sie nicht nur Abfragen generieren, sondern auch deren Logik und Funktionsweise in verständlicher Form erläutern können, was die Transparenz und das Vertrauen in die generierten Ergebnisse stärkt.

#2

Vektordatenbanken für semantische Suche

Vektordatenbanken haben sich als Schlüsseltechnologie für Retrieval-Augmented Generation (RAG) etabliert, bei der LLMs mit kontextspezifischen Informationen angereichert werden, um präzisere und faktisch korrektere Antworten zu liefern.

Funktionsweise im Detail

Der Prozess bei Vektordatenbanken beginnt mit der Dokumentenaufbereitung, bei der unstrukturierte Dokumente in sinnvolle Abschnitte (Chunks) aufgeteilt werden, typischerweise mit Überlappungen, um die Kontextkontinuität zu gewährleisten.

Im zweiten Schritt erfolgt die Embedding-Generierung, wobei diese Chunks durch neuronale Netzwerke in hochdimensionale Vektoren (typischerweise 768-4096 Dimensionen) umgewandelt werden. Dabei liegen semantisch ähnliche Inhalte im Vektorraum nahe beieinander. Anschließend werden die Vektoren zusammen mit Metadaten wie Quelle, Zeitstempel und Kategorien in spezialisierten Vektordatenbanken indexiert, die eine effiziente Ähnlichkeitssuche ermöglichen.

Bei der Abfrageverarbeitung wird die Nutzeranfrage ebenfalls in einen Vektor umgewandelt, und die ähnlichsten Dokumente werden mittels Algorithmen wie Approximate Nearest Neighbor (ANN) identifiziert. In der Phase der Kontextanreicherung werden die relevantesten Dokumente dem LLM als zusätzlicher Kontext bereitgestellt, um die Antwortgenerierung zu unterstützen. Abschließend kann die Antwort durch Quellenrückverfolgung mit Referenzen zu den Quelldokumenten angereichert werden, um Nachvollziehbarkeit zu gewährleisten.

Vorteile

Vektordatenbanken bieten gegenüber traditionellen Suchmethoden erhebliche Vorteile. Sie ermöglichen eine semantische statt rein Keyword-basierte Suche, was die Auffindbarkeit relevanter Informationen deutlich verbessert und auch kontextuelle Zusammenhänge erfasst, die bei einfachen Textabgleichen verloren gehen würden.

Ein zentraler Vorteil ist die Reduktion von Halluzinationen durch die Bereitstellung faktischer Informationen aus vertrauenswürdigen Quellen, wobei in typischen Unternehmensszenarien eine deutliche Reduktion beobachtet wird. Technisch überzeugen Vektordatenbanken durch ihre Fähigkeit, effizient auf Millionen oder sogar Milliarden von Dokumenten zu skalieren, was durch optimierte Indexstrukturen ermöglicht wird.

Besonders wertvoll für Unternehmen ist die Möglichkeit, proprietäre oder vertrauliche Informationen zu nutzen, die nicht im Trainingsdatensatz des LLM enthalten sind, wodurch unternehmensspezifisches Wissen sicher eingebunden werden kann. Zudem unterstützen moderne Vektordatenbanken multilinguale Suche und Cross-Language Information Retrieval, was in internationalen Unternehmensumgebungen von großem Wert ist.

Leistungskennzahlen

Die Performance moderner Vektordatenbanken ist beeindruckend. Sie erreichen Latenzzeiten von unter 10 ms bei Millionen von Vektoren, was Echtzeitanwendungen auch bei großen Datenmengen ermöglicht.

Studien zeigen, dass die Genauigkeit von LLM-Antworten bei domänenspezifischen Fragen verbessert wird, was die Zuverlässigkeit und Nützlichkeit der Systeme erheblich steigert. Technologische Fortschritte in der Vektorkompression ermöglichen eine Speichereffizienz, die den Speicherbedarf massiv reduzieren kann – bei nur minimalen Präzisionsverlusten. Bei verteilten Implementierungen werden Durchsatzraten von mehreren tausend Abfragen pro Sekunde erreicht, was selbst bei hoher Last eine stabile Performance gewährleistet.

Führende Vektordatenbank-Lösungen

Der Markt für Vektordatenbanken hat sich in den letzten Jahren dynamisch entwickelt. Pinecone hat sich als Cloud-native Vektordatenbank mit hoher Skalierbarkeit und einfachem API etabliert und wird häufig für unternehmenskritische Anwendungen eingesetzt. Weaviate bietet als Open-Source-Vektordatenbank eine GraphQL-Schnittstelle und Hybrid-Suchfunktionen, was besonders für Entwickler mit GraphQL-Erfahrung attraktiv ist. Qdrant setzt seinen Fokus auf Hochleistungs-Vektorsuche mit umfangreichen Filterungsmöglichkeiten und eignet sich besonders für Anwendungen mit komplexen Filteranforderungen.Für sehr große Datensätze bietet Milvus eine verteilte Vektordatenbank mit Sharding-Unterstützung, die horizontal skaliert werden kann. Chroma positioniert sich als leichtgewichtige Lösung für Entwickler mit einfacher Integration in Python-Workflows und niedrigen Einstiegshürden.

Für Unternehmen, die bereits stark auf relationale Datenbanken setzen, bietet PostgreSQL mit der pgvector-Erweiterung die Möglichkeit, bestehende Datenbanken um Vektorsuchfunktionen zu erweitern.

Die Technologie entwickelt sich rasant weiter. Ein wichtiger Trend ist die hybride Suche, die Vektorähnlichkeit mit klassischen Filterkriterien und Volltextsuche kombiniert, um die Stärken verschiedener Suchparadigmen zu vereinen. Sparse-Dense-Retrieval integriert Keyword-basierte und semantische Suchansätze für höhere Präzision und adressiert damit Schwächen rein dichter Vektorrepräsentationen. Adaptive Retrieval-Systeme passen ihre Suchstrategie dynamisch basierend auf der Art der Anfrage an, was die Relevanz der Ergebnisse weiter verbessert.

Ein zukunftsweisender Trend sind multimodale Vektordatenbanken, die Unterstützung für Text-, Bild-, Audio- und Videovektoren in einem einheitlichen System bieten und damit ganzheitliche Informationssuche ermöglichen. Im Bereich der RAG-Optimierung werden fortschrittliche Techniken wie hypothesenbasiertes RAG, rekursives Retrieval und kontextbewusstes Re-Ranking entwickelt, die die Qualität und Relevanz der bereitgestellten Kontextinformationen weiter steigern.

Integration beider Ansätze

Die Kombination von SQL-Agenten und Vektordatenbanken ermöglicht besonders leistungsfähige LLM-Anwendungen, die das Beste aus beiden Welten vereinen. Moderne hybride Abfragesysteme können intelligent entscheiden, ob eine Anfrage strukturierte Daten (SQL), unstrukturierte Informationen (Vektorsuche) oder eine Kombination aus beiden benötigt, und die entsprechenden Abfragemechanismen orchestrieren.

Besonders wertvoll ist die Möglichkeit zur kontextualisierten Datenanalyse, bei der strukturierte Daten aus SQL-Abfragen mit Hintergrundinformationen aus Vektordatenbanken angereichert werden können, um tiefere Einblicke und ein umfassenderes Verständnis zu ermöglichen.

Für Unternehmen in regulierten Branchen bietet die Integration beider Ansätze eine durchgängige Nachvollziehbarkeit durch lückenlose Dokumentation der Informationsquellen, was Compliance-Anforderungen erfüllt und Vertrauen in die generierten Ergebnisse schafft.

Datenarchitekturen in Bezug auf LLM-Datenzugriff

Die verschiedenen Datenarchitekturmodelle bieten unterschiedliche Vorteile für den Datenzugriff durch LLM-Agenten:

Data Warehouse

Data Warehouses eignen sich mit ihrer strukturierten, relationalen Natur hervorragend für SQL-Agenten. Die klaren Schemas und optimierten Abfragestrukturen ermöglichen präzise und performante Abfragen. Dagegen sind diese Datenstrukturen nicht wirklich für Vektordatenbanken nutzbar. Deswegen werden keine Vektordatenbank-Agenten hier eingesetzt.

Limitierungen

Die begrenzte Flexibilität bei unstrukturierten Daten schränkt die Anwendbarkeit für kontextreiche Anfragen ein. Zudem können die starren Schemas die Adaptionsfähigkeit von LLM-Agenten an neue Datenquellen behindern. Es stehen keine Daten zur Verfügung, um Vektordatenbanken aufzubauen.

Fazit

Bei Data Warehouses sind die vorhandenen Daten meist zu strukturiert und starr, um flexible LLM-Agentenlösungen aufzubauen. Man kann sie meist nur zum Aufbau von Agentensystemen zur Beantwortung von Datenanfragen nutzen, z. B. für Informationen zu Kunden, Lagerbestand, Preise, statistische Daten usw.

Data Lake

Data Lakes eignen sich hervorragend als Quelle für Vektordatenbanken, da sie große Mengen unstrukturierter Daten (Dokumente, E-Mails, Protokolle) speichern können. Andererseits ist es unmöglich einen SQL-Agenten einzusetzen, da es eben keine relationale Datenstruktur für SQL-Abfragen gibt.

Limitierungen

Die oft mangelnde Datenqualität in Data Lakes kann zu Problemen bei der Relevanz der bereitgestellten Informationen führen. Ohne zusätzliche Qualitätssicherungsmaßnahmen können LLM-Agenten irrelevante oder veraltete Informationen erhalten.

Fazit

Bei Data Lakes sind die vorhandenen Daten meist zu unstrukturiert und flexibel, wodurch LLM-Agentenlösungen nicht garantiert immer die gleiche Antwort geben. Zudem sind Beziehungen der unterschiedlichen Datensätze nicht wirklich gut abbildbar (keine relationalen Daten).

Data Lakehouse

Data Lakehouses vereinen die Vorteile strukturierter SQL-Abfragen und unstrukturierter Vektordatenbank-Suche in einer Plattform. Dabei bietet die robuste Metadatenschicht in Lakehouse-Architekturen eine Nachvollziehbarkeit und Kontextualisierung von LLM-Antworten, indem sie Datenherkunft, Aktualität und Beziehungen dokumentiert. Des Weiteren unterstützen moderne Lakehouse-Architekturen Streaming-Datenverarbeitung, was für LLM-Anwendungen mit Echtzeit-Anforderungen wie Chatbots oder Empfehlungssysteme essenziell ist. Die Latenz zwischen Dateneingabe und LLM-Reaktion kann auf Millisekunden reduziert werden.

Limitierungen

Es gibt im Prinzip keine Limitierungen in Bezug auf LLM-Nutzung.

Fazit

Data Lakehouse kann man als optimale Plattform für zentralen LLM-Datenzugriff sehen.

Data Mesh

Die domänenorientierte Struktur des Data Mesh unterstützt die Entwicklung spezialisierter LLM-Agenten, die auf spezifische Geschäftsbereiche zugeschnitten sind. Data Mesh ermöglicht eine föderierte Zugriffsschicht für LLM-Agenten, bei der Daten über verschiedene Domänen hinweg abgefragt werden können, ohne sie zentralisieren zu müssen. Der föderierte Governance-Ansatz des Data Mesh bietet Flexibilität für unterschiedliche LLM-Anwendungsfälle bei gleichzeitiger Einhaltung übergreifender Standards.

Limitierungen

Es kann zu einer komplexeren LLM-Agenten-Struktur kommen, wenn man die domänenspezifischen LLM-Agenten miteinander verbinden will, um eine domänenübergreifende Lösung aufzubauen.

Fazit

Mit Data Mesh kann man eine verteilte LLM-Agentenlandschaft aufbauen. Auf die verteilten Agenten kann eine übergeordnete Agentenarchitektur aufgebaut werden, die entsprechend die domänenspezifischen Agenten nutzt.

Implementierungsmuster für LLM-Datenzugriff

Nachdem wir uns die Datenarchitekturen angesehen haben, werfen wir nun einen Blick auf die Implementierung. Schliesslich wollen wir sicherstellen, dass unsere LLM auch auf die Daten zugreifen kann.

SQL-Agent-Pattern

Dieses Muster ermöglicht LLM-Agenten, strukturierte Daten über SQL-Schnittstellen abzufragen.

Der Prozess beginnt mit der Schema-Analyse, bei der der Agent Zugriff auf Datenbankschemas, Beziehungen und Geschäftsdefinitionen erhält. Im nächsten Schritt erfolgt die Query-Generierung, bei der natürlichsprachliche Anfragen in SQL-Abfragen übersetzt werden. Anschließend findet eine Validierung statt, bei der die generierten Abfragen auf Sicherheit und Effizienz geprüft werden. Nach erfolgreicher Prüfung erfolgt die Ausführung der Abfrage, wobei die Ergebnisse zurückgeliefert werden. Abschließend werden im Rahmen der Interpretation die Ergebnisse in natürlicher Sprache zusammengefasst.

Technische Anforderungen

Zu den technischen Anforderungen gehören Zugriffsrechte-Management für Datenbanken, SQL-Injection-Prävention, Abfrage-Optimierung für komplexe Anfragen sowie Caching häufiger Abfragen für bessere Performance.

RAG-Pattern mit Vektordatenbanken

Dieses Muster ermöglicht LLM-Agenten, auf unstrukturierte Daten über Vektordatenbanken zuzugreifen.

Der Prozess beginnt mit der Datenaufbereitung, bei der Dokumente in sinnvolle Chunks aufgeteilt werden. Darauf folgt die Embedding-Generierung, wobei diese Chunks in Vektoren umgewandelt werden (z.B. mit OpenAI, Cohere oder offenen Modellen). Anschließend erfolgt die Vektordatenbank-Indexierung, bei der die Vektoren mit Metadaten in einer Vektordatenbank gespeichert werden. Bei einer Anfrage wird im Rahmen der Ähnlichkeitssuche nach semantisch ähnlichen Dokumenten gesucht. Schließlich findet die Kontextanreicherung statt, wobei relevante Dokumente dem LLM als Kontext bereitgestellt werden.

Technische Anforderungen

Die technischen Anforderungen umfassen eine skalierbare Vektordatenbank (z.B. Pinecone, Weaviate, Qdrant, Milvus), effiziente Chunking-Strategien für optimale Kontextgröße, Metadatenfilterung für präzisere Ergebnisse sowie regelmäßige Aktualisierung der Indizes für Aktualität.

Hybrides Abfragemuster

Dieses fortgeschrittene Muster kombiniert SQL- und Vektordatenbank-Zugriffe.

Der Prozess beginnt mit der Anfrage-Klassifizierung, bei der der Agent entscheidet, ob eine Anfrage strukturierte Daten, unstrukturierte Informationen oder beides benötigt. Bei Bedarf erfolgt dann eine Parallele Abfrage, wobei sowohl SQL-Datenbanken als auch Vektordatenbanken abgefragt werden. Anschließend findet die Ergebnisintegration statt, wobei die Ergebnisse beider Quellen kombiniert und kontextualisiert werden. Abschließend wird im Rahmen der Kohärenten Antwort eine einheitliche Antwort aus den verschiedenen Datenquellen generiert.

Technische Anforderungen

Die technischen Anforderungen beinhalten eine Orchestrierungsschicht für parallele Abfragen, Strategien zur Konfliktlösung bei widersprüchlichen Informationen sowie Latenzoptimierung für Echtzeitantworten.

Architekturspezifische Vorteile

Data Warehouses ermöglichen präzise SQL-Abfragen auf hochwertige Gold-Daten, bieten zuverlässige Berichterstattung und Dashboards über LLM-Interfaces und verfügen über klare Datenstrukturen, die die Erstellung von SQL-Abfragen erleichtern.

Data Lakes dienen als ideale Quelle für umfangreiche Vektordatenbanken mit unstrukturierten Daten, ermöglichen die Speicherung und Analyse von Chatverläufen für Verbesserungen und bieten Flexibilität für multimodale Datenquellen (Text, Bild, Audio).

Data Lakehouses bieten eine nahtlose Integration von SQL-Abfragen und Vektorsuche, schaffen eine optimale Balance zwischen strukturierten und unstrukturierten Daten und unterstützen sowohl Echtzeit-Datenzugriff als auch Batch-Verarbeitung in einer Plattform.

Data Mesh ermöglicht domänenspezifische LLM-Agenten mit Zugriff auf relevante Datenprodukte, fördert dezentrale Innovation bei Datenzugriffsmustern und schafft klare Verantwortlichkeiten für Datenqualität und -aktualität.

Interesse an Datenarchitekturen?

In unserem Webinar Data Management & Integration gehen wir unter anderem auf dieseThemen ein:

  • Beispiele aus der Praxis
  • Alles rund um Datenintegration
  • … und natürlich: Datenarchitekturen

Zukunftsperspektiven

Die Integration von Datenarchitekturen und LLM-Agenten wird sich – natürlich – weiterentwickeln. Das sind die Punkte, die aus meiner Sicht die spannendsten Perspektiven sind:

Multimodale Datenzugriffsschichten

Zukünftige Architekturen werden nahtlos strukturierte, unstrukturierte und multimodale Daten (Text, Bild, Audio, Video, Sensordaten) für LLM-Agenten zugänglich machen.

Kollaborative Agenten-Ökosysteme

Spezialisierte LLM-Agenten werden über Domänengrenzen hinweg zusammenarbeiten, unterstützt durch Datenarchitekturen, die sichere und effiziente Informationsaustausche ermöglichen.

Selbstoptimierende Datenzugriffsschichten

AI-Systeme werden zunehmend ihre eigenen Datenzugriffsmuster optimieren, indem sie Nutzungsmuster analysieren und Abfragen, Indizes und Caching-Strategien automatisch anpassen.

Echtzeit-Datensynchronisation

Die Latenz zwischen Datenerfassung und -verfügbarkeit für LLM-Agenten wird weiter reduziert, was nahezu Echtzeit-Antworten auf Basis aktuellster Daten ermöglicht.

Weitere hybride Agenten-Ansätze

Neben den bereits diskutierten SQL- und Vektordatenbank-basierten Agenten haben sich weitere leistungsfähige hybride Ansätze entwickelt, die LLM-Agents mit zusätzlichen Fähigkeiten ausstatten.

REST/GraphQL-basierte Agenten

REST/GraphQL-basierte Agenten erweitern die Datenzugriffsmöglichkeiten von LLM-Agenten auf moderne API-Schnittstellen. Der Prozess beginnt mit der API-Schemaanalyse, bei der der Agent Zugriff auf OpenAPI-Spezifikationen (REST) oder GraphQL-Schemas erhält, die die verfügbaren Endpunkte, Parameter und Datenstrukturen definieren. Anschließend erfolgt im Rahmen der Anfrageverarbeitung die Analyse der natürlichsprachlichen Nutzeranfrage und die Identifikation relevanter API-Endpunkte oder GraphQL-Queries. Darauf aufbauend generiert der Agent syntaktisch korrekte API-Anfragen mit passenden Parametern und Authentifizierungsdaten. Nach Ausführung der Anfrage werden die zurückgelieferten Daten (typischerweise im JSON-Format) vom Agenten interpretiert, strukturiert und in natürlicher Sprache aufbereitet.

REST/GraphQL-Agenten bieten signifikante Vorteile gegenüber reinen SQL- oder Vektordatenbank-Agenten. Sie ermöglichen den Zugriff auf dynamische Daten und Funktionen über moderne API-Schnittstellen, was den Anwendungsbereich deutlich erweitert. Durch die klare Schnittstellen-Definition mit OpenAPI oder GraphQL-Schemas wird die Generierung präziser Anfragen mit Erfolgsraten von über 90 Prozent bei gut dokumentierten APIs ermöglicht.

Ein wesentlicher Vorteil ist die nahtlose Integration mit bestehenden Microservices und API-Ökosystemen ohne zusätzliche Datenreplikation. Zudem bieten API-Gateways eine zentrale Stelle für Authentifizierung, Autorisierung und Ratenbegrenzung, was die Implementierung robuster Sicherheitsmaßnahmen vereinfacht.

Bei adaptiven API-Agenten können moderne Implementierungen ihr Verhalten basierend auf API-Antworten anpassen und bei Fehlern oder unerwarteten Ergebnissen alternative Strategien einsetzen. Multi-API-Orchestrierung ermöglicht fortschrittlichen Agenten, komplexe Workflows über verschiedene APIs hinweg zu orchestrieren, um umfassende Aufgaben zu lösen. Zudem fokussieren sich neuere Entwicklungen auf Echtzeit-API-Entdeckung, bei der Agenten aktiv nach neuen oder aktualisierten API-Endpunkten suchen und ihre Fähigkeiten entsprechend erweitern können.

Kombinationen von Graph-RAG und Vector-RAG

Die Kombination von Graph-RAG (Retrieval Augmented Generation mit Graphdatenbanken) und Vector-RAG (mit Vektordatenbanken) schafft besonders leistungsfähige Abrufsysteme. Bei diesem hybriden Ansatz beginnt der Prozess mit der parallelen Informationsextraktion aus beiden Quellen:

Der Graph-Retriever nutzt die Graphstruktur, um Entitäten, Beziehungen und Pfade zu identifizieren, während der Vektor-Retriever semantisch ähnliche Dokumente und Passagen findet. Im nächsten Schritt erfolgt die Relevanzgewichtung, bei der die Ergebnisse beider Retriever basierend auf Faktoren wie Kontextrelevanz, Autorität und Aktualität gewichtet werden. Anschließend werden die Ergebnisse im Rahmen der Informationsfusion zu einem kohärenten Kontext zusammengeführt, der sowohl die strukturierten Beziehungen aus dem Graphen als auch die detaillierten Informationen aus den Textpassagen enthält. Abschließend nutzt das LLM diesen erweiterten Kontext für die Antwortgenerierung.

Hybride Graph-Vector-RAG-Systeme bieten zahlreiche Vorteile. Sie verbessern die Faktengenauigkeit durch strukturierte Faktenvalidierung aus Graphen kombiniert mit kontextuellen Details aus Vektordatenbanken, was Halluzinationen deutlich reduzieren kann. Die erweiterte Kontextualisierung durch Graphbeziehungen fördert ein tieferes Verständnis komplexer Zusammenhänge, während die Multihop-Reasoning-Fähigkeiten es ermöglichen, Schlussfolgerungen über mehrere Fakten und Beziehungen hinweg zu ziehen.

Technisch überzeugen diese Systeme durch adaptive Retrieval-Strategien, die dynamisch zwischen Graph- und Vektorsuche basierend auf der Art der Anfrage wechseln können, sowie durch verbesserte Erklärbarkeit durch die explizite Darstellung der Beziehungen im Graphen.

Die Implementierung erfordert sowohl eine Graphdatenbank (z. B. Neo4j, Amazon Neptune, TigerGraph) als auch eine Vektordatenbank. Zudem werden spezielle Algorithmen für die Informationsfusion benötigt, einschließlich gewichteter Ranking-Methoden und Relevanz-Scoring. Die Integration mit bestehenden Wissensrepräsentationen und Ontologien sowie die Implementierung von Relevanz-Feedback-Mechanismen sind weitere wichtige Anforderungen.

Light-RAG Ansätze

Light-RAG optimiert den RAG-Prozess für Ressourceneffizienz und Geschwindigkeit. Die Methode beginnt mit der selektiven Chunking-Strategie, bei der Dokumente intelligent in unterschiedlich große Chunks aufgeteilt werden, wobei semantisch zusammenhängende Informationen berücksichtigt werden. Im nächsten Schritt werden komprimierte Embeddings mit geringerer Dimensionalität erzeugt, was den Speicherbedarf und die Verarbeitungszeit signifikant reduziert. Die progressive Retrieval-Strategie verwendet zunächst schnelle, aber weniger präzise Methoden zur Vorauswahl von Kandidaten, gefolgt von genaueren Methoden für die endgültige Auswahl. Bei der adaptiven Kontextlänge wird die Menge der an das LLM gesendeten Informationen dynamisch basierend auf der Komplexität der Anfrage angepasst. Abschließend erfolgt eine effiziente Antwortgenerierung, bei der kleinere, optimierte Modelle für bestimmte Anwendungsfälle verwendet werden.

Light-RAG bietet erhebliche Vorteile in Bezug auf Ressourceneffizienz und Performance. Die reduzierte Latenz durch optimierte Retrieval-Pfade und komprimierte Embeddings ermöglicht Antwortzeiten von unter 100ms bei Standard-Hardware, während die geringeren Hardwareanforderungen den Einsatz auf Edge-Geräten oder ressourcenbeschränkten Umgebungen ermöglichen. Durch die dynamische Anpassung der Kontextlänge wird der Token-Verbrauch optimiert, was eine spürbare Kostenreduktion bei kommerziellen LLM-APIs bewirken kann. Beeindruckend ist, dass trotz der Optimierungen kaum Qualitätseinbußen zu verzeichnen sind, mit typischerweise sehr geringem Genauigkeitsverlust im Vergleich zu vollständigen RAG-Implementierungen.

Aktuelle Entwicklungen

Neue Ansätze zur quantisierten Embedding-Verarbeitung reduzieren den Speicherbedarf durch 8-Bit oder sogar 4-Bit Quantisierung statt 32-Bit Floating-Point-Berechnungen, bei minimalen Präzisionsverlusten. Hybride Online-Offline-Strategien nutzen vorberechnete Indizes für häufige Anfragen und dynamisches Retrieval nur für neue oder seltene Anfragen. Zudem fokussieren sich aktuelle Entwicklungen auf kontextsensitive Optimierungen, bei denen der RAG-Prozess abhängig vom Anfragetyp, Nutzerkontext und verfügbaren Ressourcen dynamisch angepasst wird.

Die richtige Datenarchitektur als Schlüssel zum Erfolg von LLM-Agenten

Die Integration von LLM-Agenten in Unternehmensumgebungen stellt einen Paradigmenwechsel im Umgang mit Unternehmensdaten dar. Wie wir gesehen haben, bieten verschiedene Datenarchitekturen unterschiedliche Vor- und Nachteile für den AI-gestützten Datenzugriff.

Data Warehouses glänzen mit präzisen SQL-Abfragen auf hochwertige strukturierte Daten, während Data Lakes als reichhaltige Quellen für Vektordatenbanken dienen. Data Lakehouses vereinen diese Welten und ermöglichen eine nahtlose Integration von SQL-Abfragen und semantischer Suche. Data Mesh-Architekturen wiederum fördern domänenspezifische LLM-Agenten mit klaren Verantwortlichkeiten für Datenqualität.

Die Wahl der optimalen Architektur hängt letztlich von den spezifischen Anforderungen des Unternehmens ab: Benötigt man primär präzise Antworten auf strukturierte Datenanfragen? Steht die semantische Erschließung unstrukturierter Dokumente im Vordergrund? Oder benötigt man eine hybride Lösung, die beides kann?

Eines ist klar: Die Zukunft gehört integrierten Ansätzen, die strukturierte und unstrukturierte Daten nahtlos verbinden. Hybride Abfragemuster, multimodale Datenzugriffsschichten und selbstoptimierende Systeme werden zum Standard werden. Unternehmen sollten daher ihre Datenarchitekturen nicht nur für heutige Anforderungen optimieren, sondern auch für die zunehmende Integration von AI-Agenten vorbereiten.

Die entscheidende Frage lautet nicht mehr nur, wie Daten gespeichert und verwaltet werden, sondern wie sie intelligent zugänglich gemacht werden können – für Menschen und AI-Systeme gleichermaßen. Unternehmen, die diese Herausforderung meistern, werden einen entscheidenden Wettbewerbsvorteil in der datengetriebenen Wirtschaft der Zukunft haben.

Goodies von Mayflower

Keine Sorge – Hilfe ist nah! Melde Dich unverbindlich bei uns und wir schauen uns gemeinsam an, ob und wie wir Dich unterstützen können.

Unsere Data-Webinar-Reihe

Avatar von Michele Catalano

Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Für das Handling unseres Newsletters nutzen wir den Dienst HubSpot. Mehr Informationen, insbesondere auch zu Deinem Widerrufsrecht, kannst Du jederzeit unserer Datenschutzerklärung entnehmen.

Das Thema trifft genau Deine Herausforderung?

Genau Dein Ding?

Keine Sorge, Hilfe ist nah! Melde Dich unverbindlich bei uns und wir schauen uns gemeinsam an, ob und wie wir Dich unterstützen können.