Umfassende Analyse der selbstüberwachten Vortrainingsstrategien für Graph-Grundlagenmodelle aus wissensbasierter Perspektive
Diese Studie bietet eine umfassende Analyse der selbstüberwachten Vortrainingsstrategien für verschiedene Arten von Graph-Grundlagenmodellen, wie Graph-Neuronalnetze, Graph-Transformer und auf großen Sprachmodellen basierende Graph-Modelle, aus einer wissensbasierten Perspektive.