Diese Studie vergleicht die Leistung verschiedener patentspezifischer Embedding-Modelle, einschließlich statischer und kontextueller Worteinbettungen, bei der Berechnung der Patentähnlichkeit. Die Ergebnisse zeigen, dass das domänenadaptierte Sentence Transformer-Modell (Patent SBERT-adapt-ub) die beste Leistung erbringt, aber auch, dass die Leistung großer statischer Modelle mit umfangreicher Trainingsphase vergleichbar sein kann.
Eine effiziente Methode zur Inferenz der Ähnlichkeit von Patentphrasen, die globale Kontextinformationen durch Retrievalgraphen nutzt, um die Leistung gegenüber herkömmlichen Ansätzen zu verbessern.