Durch den Einsatz großer Sprachmodelle können Hierarchien in Wissensgraphen automatisch generiert und erweitert werden, um das Verständnis und die Strukturierung der Daten zu verbessern.
Ein einzelnes Modell (ULTRAQUERY) kann logische Abfragen auf beliebigen Wissensgraphen mit neuen Entitäten und Relationen in der Nullstellenlogik beantworten.
Unser Framework ExEA kann Erklärungen für die Ergebnisse von auf Einbettungen basierender Entitätsausrichtung generieren und diese Ergebnisse reparieren.
Effiziente Methode zur Vorhersage fehlender Entitäten in hyper-relationalen Fakten mit nur wenigen Unterstützungsinstanzen durch Erfassung meta-relationaler Informationen.
Ein neuartiges Programm-basiertes Verfahren (Prog-TQA) zur Beantwortung von Fragen mit zeitlicher Absicht über Zeitliche Wissensgraphen, das die Fähigkeiten von Großen Sprachmodellen zur In-Kontext-Generierung von Programmen und eine effektive Selbstverbesserungsstrategie nutzt, um das Verständnis komplexer zeitlicher Fragen zu verbessern.
Durch ein neuartiges, frage-bewusstes Graph-Convolutional-Network-basiertes Modell (QAGCN) können Mehrbeziehungsfragen über Wissensgraphen effizient und effektiv durch implizites Einzelschrittschlussfolgern beantwortet werden.
Regeln und Graphneuronale Netze können effizient kombiniert werden, um die Leistung bei der induktiven Vervollständigung von Wissensgraphen zu verbessern.
Ein Prompt-basierter Rahmen, der bestehende Methoden zur Abfrageeinbettung nutzt und die Einbettung von neuen Entitäten durch kontextuelle Informationsaggregation adressiert. Zusätzlich wird ein Abfrage-Prompt eingeführt, um relevante Informationen für die Abfrage ganzheitlich zu erfassen.
Wir untersuchen das Problem der Entitätsausrichtung mit unmarkierten hängenden Fällen, bei dem es Entitäten in dem Quell- oder Zielgraphen gibt, die keine Gegenstücke im jeweils anderen haben, und diese Entitäten bleiben unmarkiert. Um dieses Problem zu lösen, schlagen wir einen neuartigen GNN-basierten Rahmen für die Erkennung hängender Entitäten und die Entitätsausrichtung vor.
Durch Stichprobennahme und Verbalisierung komplexer logischer Abfragen aus einem Wissensgraphen für Alltagsverstand können leistungsfähige Sprachmodelle für komplexes Schlussfolgern trainiert werden, ohne aufwendige manuelle Annotationen.