Anzeige
Anzeige
MIT Technology Review Listicle
Verpasse keine News mehr!

Entwicklung eigener KI: Wo steht Japan bei lokalen Sprachmodellen?

Japan bringt sich hinter China und den USA als KI-Macht in Stellung. Ein entscheidender Teil der Strategie sind lokale Sprachmodelle. Wichtig dabei ist unter anderem der Fokus auf die eigene Sprache.

Von Martin Kölling
4 Min.
Artikel merken
Anzeige
Anzeige

(Bild: Shutterstock/Owlie Productions)

Europäische Länder haben begonnen, die Entwicklung lokaler Large Language Models (LLM) zu fördern. Die wachsende Sorge um Datensouveränität und Abhängigkeit von US-amerikanischen Anbietern dieser Form Künstlicher Intelligenz (KI) verstärkt die Dringlichkeit noch. Japan ist da schon deutlich weiter.

Anzeige
Anzeige

In den vergangenen Jahren wurden rund ein Dutzend lokale KI-Modelle entwickelt, die meisten von japanischen Konzernen. Denn die Regierung und Wirtschaft versuchen schon länger, die Abhängigkeit von den USA zu senken und die digitale Denkleistung in Japan zu fördern.

Das jüngste Beispiel ist das wachsende Engagement des japanischen Technologieinvestors Softbank im Heimatland. Bisher hat Gründer Masayoshi Son hunderte von Milliarden US-Dollar vor allem im Ausland investiert. Jetzt, da KI kurz davorsteht, in den Firmenalltag Einzug zu halten, entwickelt er mit seinem Partner OpenAI nicht nur gemeinsam KI-Agenten für Japan, sondern baut auch Datenzentren auf. Andere Konzerne investieren ebenfalls, wie vier lokale LLM-Projekte zeigen.

Anzeige
Anzeige

1. Softbank Intuitions: Digitale Infrastruktur für ganz Japan

Wie das Engagement von Son verdeutlicht, sieht Softbank KI als Kernstück der zukünftigen digitalen Infrastruktur Japans. Neben seiner Partnerschaft mit OpenAI, die gerade durch eine erneute Investition Softbanks von 30 Milliarden US-Dollar ausgebaut wurde, entwickelt Softbank selbst ein LLM.

Zuständig ist die Tochtergesellschaft SB Intuitions. Deren Chef Hironobu Tamba erklärt, dass Modelle mit verschiedenen Größen entwickelt werden. Seiner Meinung nach ist es wegen der besonderen Struktur der japanischen Sprache notwendig, das Modell zu 80 bis 90 Prozent auf japanischen Quellen zu trainieren, damit die KI den japanischen Kontext voll und ganz verstehen kann.

Anzeige
Anzeige

Für viele Anwendungen seien ausländische KI-Modelle ausreichend, meint Tamba. „Wenn es sich um etwas handelt, das spezieller oder stärker in der japanischen Kultur verwurzelt ist, ist es am besten, ein japanisches Modell zu verwenden.“

Darüber hinaus baut das Unternehmen zwei leistungsstarke GPU-Cluster. Damit will Softbank nicht nur die Datensouveränität sichern, sondern auch die sogenannte Latenzzeit verkürzen. Diese Reaktionsgeschwindigkeit der KI sei ein Problem, meint Tamba. „Aber Daten und KI-Modelle, die wir in Japan kontrollieren und aufbewahren, werden schneller sein als solche, die im Ausland sind.“ Auch einen wichtigen Anwender hat das eigene LLM: Softbank Corp., das japanische Mobilnetz von Softbank.

Anzeige
Anzeige

2. NTTs Tsuzumi: Schlank für die Edge

Softbank ist nicht der einzige Konzern mit Telekommunikationserbe, der ein LLM entwickelt. Der ehemals staatliche Riese NTT geht mit seinem LLM „Tsuzumi“ einen anderen Weg und setzt auf Effizienz statt schierer Größe.

Das Modell ist in zwei Varianten erhältlich: eine ultra-leichtgewichtige Version mit nur 600 Millionen Parametern und eine leichtgewichtige Version mit 7 Milliarden Parametern. Zum Vergleich: Claude 3.5 von OpenAI-Rivalen Anthropic hat 174 Milliarden Parameter.

Damit will NTT nicht nur die Trainings- und Betriebskosten auf einen Bruchteil der globalen Spitzenmodelle senken. Sie sollen auch flexibler eingesetzt werden können, um sie für Unternehmen attraktiver zu machen. So können die Modelle wahlweise in einer öffentlichen Cloud oder vor Ort im Unternehmen eingerichtet werden.

Anzeige
Anzeige

Die Zielgruppe sind unter anderem Banken und lokale Behörden, die besonders hohen Wert auf Datensicherheit legen. Darüber hinaus entwickelt NTT auch Anwendungen wie einen KI-Moderator für Teamsitzungen, um die Gespräche effizienter zu leiten und die Generierung neuer Ideen zu fördern.

3. Elyza: Die universitäre Antwort von Japans KI-Vorreiter Yutaka Matsuo

Yutaka Matsuo von der Universität Tokio ist der führende KI-Professor in Japan und beschäftigt sich bereits seit 2019 mit der Entwicklung von LLMs. Neben seinem Labor leitet er auch den KI-Rat der Regierung und ist Verwaltungsratsmitglied bei Softbank. Sein Labor ist auch bei der Entwicklung von LLMs beteiligt, kommerziell in der Form des Startups Elyza.

Nach der Entwicklung von zwei kleineren Modellen verfolgt das Unternehmen nun einen hybriden Ansatz für sein 70-Milliarden-Parameter-Modell. Anstatt ein vollständig eigenständiges Modell zu entwickeln, bauen die Japaner auf Metas Llama-2-Architektur auf und optimieren diese speziell für die japanische Sprache.

Anzeige
Anzeige

Nach einer strategischen Investition des Telekommunikationskonzern KDDI in Höhe von über zehn Milliarden Yen (ca. 60 Millionen Euro) im März 2024 hat Elyza nun auch Zugang zu erheblichen Rechenressourcen.

Das Elyza-Modell zeichnet sich durch seine Fähigkeit zur präzisen morphologischen Analyse der japanischen Sprache aus, einschließlich der korrekten Handhabung von Keigo (Höflichkeitssprache).

4. Fugaku-LLM: Der Supercomputer-Champion

Das neueste Projekt im japanischen KI-Arsenal ist das im Mai 2024 vorgestellte Fugaku-LLM. Entwickelt von einem Forschungsteam des Tokyo Institute of Technology, dem Technikkonzern Fujitsu und weiteren Partnern, nutzt es den mächtigsten Supercomputer Japans: Fugaku von Fujitsu.

Anzeige
Anzeige

Auch dieses Modell nutzt einen Datensatz, der zu 60 Prozent aus japanischen Texten besteht. Anders als bei vielen anderen Modellen handelt es sich um sorgfältig ausgewähltes Lehrmaterial für die KI, um die Ergebnisse zu verbessern.

Bemerkenswerter ist aber ein anderer Ansatz: Andere LLMs nutzen Grafikprozessoren zum Rechnen, das Fugaku-LLM kommt ohne sie aus und setzt auf die Prozessoren des Supercomputers.

In Zeiten globaler GPU-Knappheit aufgrund des KI-Wettrüstens könnte dies einen alternativen Entwicklungspfad aufzeigen. Fujitsu hat sogar einen speziellen KI-Chip namens Monaka entwickelt, der Chips mit zwei-Nanometern kleinen Knoten nutzt. Diese neueste Chiptechnik gilt als Meilenstein für die KI-Entwicklung, sei es bei Computer- oder Grafikprozessoren. Denn sie verspricht mehr Rechenleistung und deutlich geringeren Strombedarf.

Anzeige
Anzeige

Allein diese vier Projekte verdeutlichen, dass Japan sich als eigenständiger Akteur in der globalen KI-Landschaft positioniert. Ob das Land damit auch seine Abhängigkeit von den US-Anbietern reduzieren oder gar Weltmarktanteile im Ausland gewinnen kann, muss sich noch zeigen.

Mit diesen Tools könnt ihr auch lokal eine KI betreiben

Lokale KI: Mit diesen 6 Tools kein Problem Quelle: Midjourny / t3n

 

 

Fast fertig!

Bitte klicke auf den Link in der Bestätigungsmail, um deine Anmeldung abzuschließen.

Du willst noch weitere Infos zum Newsletter? Jetzt mehr erfahren

Anzeige
Anzeige
Kommentare

Community-Richtlinien

Bitte schalte deinen Adblocker für t3n.de aus!
Hallo und herzlich willkommen bei t3n!

Bitte schalte deinen Adblocker für t3n.de aus, um diesen Artikel zu lesen.

Wir sind ein unabhängiger Publisher mit einem Team von mehr als 75 fantastischen Menschen, aber ohne riesigen Konzern im Rücken. Banner und ähnliche Werbemittel sind für unsere Finanzierung sehr wichtig.

Schon jetzt und im Namen der gesamten t3n-Crew: vielen Dank für deine Unterstützung! 🙌

Deine t3n-Crew

Anleitung zur Deaktivierung
Artikel merken

Bitte melde dich an, um diesen Artikel in deiner persönlichen Merkliste auf t3n zu speichern.

Jetzt registrieren und merken

Du hast schon einen t3n-Account? Hier anmelden

oder
Auf Mastodon teilen

Gib die URL deiner Mastodon-Instanz ein, um den Artikel zu teilen.

Community-Richtlinien

Wir freuen uns über kontroverse Diskussionen, die gerne auch mal hitzig geführt werden dürfen. Beleidigende, grob anstößige, rassistische und strafrechtlich relevante Äußerungen und Beiträge tolerieren wir nicht. Bitte achte darauf, dass du keine Texte veröffentlichst, für die du keine ausdrückliche Erlaubnis des Urhebers hast. Ebenfalls nicht erlaubt ist der Missbrauch der Webangebote unter t3n.de als Werbeplattform. Die Nennung von Produktnamen, Herstellern, Dienstleistern und Websites ist nur dann zulässig, wenn damit nicht vorrangig der Zweck der Werbung verfolgt wird. Wir behalten uns vor, Beiträge, die diese Regeln verletzen, zu löschen und Accounts zeitweilig oder auf Dauer zu sperren.

Trotz all dieser notwendigen Regeln: Diskutiere kontrovers, sage anderen deine Meinung, trage mit weiterführenden Informationen zum Wissensaustausch bei, aber bleibe dabei fair und respektiere die Meinung anderer. Wir wünschen Dir viel Spaß mit den Webangeboten von t3n und freuen uns auf spannende Beiträge.

Dein t3n-Team

Kommentar abgeben

Melde dich an, um Kommentare schreiben und mit anderen Leser:innen und unseren Autor:innen diskutieren zu können.

Anmelden und kommentieren

Du hast noch keinen t3n-Account? Hier registrieren

Anzeige
Anzeige