In diesem Artikel werden die von rinna Co., Ltd. veröffentlichten vortrainierten Modelle für die japanische Sprache vorgestellt. Dazu gehören Sprachmodelle wie GPT und HuBERT, Bild-Text-Modelle wie CLIP und Stable Diffusion sowie Spracherkennungsmodelle.
Die Experimente zeigen, dass die auf Japanisch spezialisierten Modelle in japanischen Aufgaben eine hohe Leistung erzielen können. Im Gegensatz zu allgemeinen mehrsprachigen Modellen können die japanischen Modelle die kulturelle Identität besser widerspiegeln.
Durch die Bereitstellung dieser Modelle können Nutzer frei auf KI-Systeme zugreifen, die mit den japanischen kulturellen Werten übereinstimmen und die Identität der japanischen Kultur wahren. Dies trägt zur Demokratisierung der KI bei und ermöglicht es, dass KI nicht nur auf englischsprachige Perspektiven ausgerichtet ist.
Die Autoren planen, weiterhin vortrainierte Modelle zu veröffentlichen, um den technologischen Fortschritt zu unterstützen.
Til et andet sprog
fra kildeindhold
arxiv.org
Vigtigste indsigter udtrukket fra
by Kei Sawada,T... kl. arxiv.org 04-03-2024
https://arxiv.org/pdf/2404.01657.pdfDybere Forespørgsler