Zum Inhalt

Fortsetzung WisNat

Fortsetzung Wissenszugriff in natürlicher Sprache

Programm / Ausschreibung IWI, IWI, Basisprogramm Ausschreibung 2023 Status abgeschlossen
Projektstart 01.06.2023 Projektende 31.05.2024
Zeitraum 2023 - 2024 Projektlaufzeit 12 Monate
Keywords

Projektbeschreibung

Mit fortschreitender Digitalisierung verlagert sich die Kommunikation zwischen Unternehmen und Kunden zunehmend in Richtung Conversational AI. In diesem Zusammenhang hat sich das WisNat-Projekt zwei bedeutenden Herausforderungen gestellt:

* Wie lässt sich teilweise fragmentiertes Unternehmenswissen effektiv in einen Knowledge Graph übertragen, der als grundlegende Wissensquelle für Conversational AI dient?
* Wie lässt sich der teilweise manuelle Einrichtungsprozess der Conversational AI Platform vollständig automatisieren, indem die semantischen Beschreibungen im Knowledge Graph genutzt werden?

Aufbauend auf den Erfolgen des WisNat-Projekts und unter Berücksichtigung der jüngsten Fortschritte und der wachsenden Beliebtheit großer Sprachmodelle wie ChatGPT von OpenAI, zielt das laufende WisNat-Projekt auf folgendes ab:

* Verbesserung der Wissensgenerierung für die Integration in den Knowledge Graph durch die Entwicklung von Wissensextraktionstechniken mithilfe von LLMs.
* Erweiterung der Antwortfunktionen von Chatbots, indem mithilfe von LLMs die Beantwortung von Fragen über strukturierte Daten entworfen und implementiert werden.
* Verbesserung des Verständnisses natürlicher Sprache (NLU) durch den Einsatz von LLMs zur Klassifizierung von Absichten und zur Vorverarbeitung von Benutzereingaben.

Durch die Nutzung von LLMs und die Einbeziehung dieser Ziele in das Projekt ist das Projekt "Fortsetzung WisNat" bestrebt, die Fähigkeiten der Konversations-KI weiter voranzutreiben und das gesamte Benutzererlebnis zu verbessern.

Endberichtkurzfassung

The Fortsetzung WisNat project resulted in two significant achievements:


Developing methods to extract knowledge from unstructured text using large language models (LLMs);
Creating techniques for answering complex questions by integrating LLMs with knowledge graphs.


The first major outcome was achieved on two levels of complexity. Initially, knowledge extraction was performed using an intermediate JSON representation with a predefined structure. Later, various prompting techniques, including zero-shot, one-shot, and few-shot, were used to directly generate RDF data from textual descriptions. These two methods demonstrated varying levels of recall and precision.

The second major outcome was the enhancement of question answering by leveraging the synergies between LLMs and knowledge graphs. This led to the innovative RAG/KG approach, where questions are directed to knowledge graphs or document (vector) stores based on their nature. This method significantly reduces hallucinations by using knowledge graphs as the primary source for answerable questions and consulting LLMs for parts of questions that require document-based answers. Consequently, the need for post-validation via knowledge graphs is eliminated, as answers predominantly come from the knowledge graph initially.