Chinesische Open-Source-KI-Modelle erreichen inzwischen Leistungsfähigkeiten und eine Verbreitung, die sie fast mit führenden US-amerikanischen Modellen gleichziehen lässt. Das geht aus einem Bericht des DigiChina Projects an der Stanford University hervor, der unlängst veröffentlicht wurde.
Die Autoren, die am Center for International Security and Cooperation sowie am Institute for Human-Centered Artificial Intelligence tätig sind, sehen chinesische Modelle nicht nur auf Augenhöhe, sondern in einigen Bereichen bereits im Vorteil gegenüber ihren US-Pendants.
Stärkere Offenheit in China
Der Bericht betont, dass chinesische Entwickler im Gegensatz zu US-Technologiekonzernen wie OpenAI oder Google DeepMind stärker auf Offenheit setzen und die sogenannten „Weights“ (also die gelernten Parameter) ihrer Modelle veröffentlichen.
Dadurch können Wissenschaftler und Unternehmen weltweit diese Modelle frei nutzen, anpassen und weiterentwickeln. Die US-Konkurrenz hingegen behält ihre leistungsfähigsten Modelle meist unter Verschluss und verfolgt geschlossene Entwicklungsansätze.
Weltweite Bedeutung offener Systeme wächst
Laut den Stanford-Experten ist die Nutzung chinesischer Open-Source-Modelle im globalen Wettbewerb inzwischen kaum aufzuhalten. Führende Vergleichstests (sogenannte Benchmarks) zeigen, dass die chinesischen Modelle Ergebnisse auf nahezu gleichem Niveau wie die besten internationalen Systeme erzielen.
Mit anderen Worten: Sie gehören inzwischen zu den leistungsstärksten weltweit und tragen entscheidend zur Weiterentwicklung offener KI-Technologien bei. Nur im direkten Vergleich mit den modernsten, nicht öffentlich zugänglichen US-Spitzenmodellen besteht noch ein kleiner Rückstand.
Aufruf zum Austausch
Der Bericht ruft US-Unternehmen und Forschungseinrichtungen ausdrücklich dazu auf, den Austausch mit chinesischen KI-Laboren, Forschern und politischen Entscheidungsträgern nicht zu meiden.
Angesichts wachsender Herausforderungen im Bereich KI-Sicherheit und Governance sei eine „selektive Zusammenarbeit“ sinnvoll. Besonders im akademischen Umfeld gebe es großes Potenzial für Kooperationen, um Risiken, Kontrollmechanismen und den verantwortungsvollen Umgang mit offenen KI-Systemen besser zu verstehen.
