
Offene Frontier-Forschung
Die Bewegung, KI-Forschung offen und kollaborativ zu halten
Die Krise
Die offene Frontier-KI-Forschung in westlichen Demokratien steht vor einer existenziellen Bedrohung. Die Kluft zwischen den Ressourcen, die akademischen Forschern zur Verfügung stehen, und geschlossenen Unternehmenslaboren ist von 2x (vor einem Jahrzehnt) auf 10-1000x heute gewachsen. Große KI-Labore, die früher offen publizierten – Google, OpenAI, DeepMind – haben ihre Türen schrittweise geschlossen.
Währenddessen hat sich China als Führungskraft bei offenen KI-Beiträgen herauskristallisiert, mit Unternehmen wie DeepSeek und Alibaba, die detaillierte technische Papers veröffentlichen und wettbewerbsfähige Open-Weight-Modelle herausbringen.
Warum offene Forschung wichtig ist
Historischer Präzedenzfall
Wie Jeff Dean feststellt, wurde Google selbst auf offener akademischer Forschung aufgebaut:
- TCP/IP aus akademischer Arbeit
- PageRank aus Stanford Digital Library Project-Förderung
- Deep Learning aus neuronaler Netzwerkforschung vor 30-40 Jahren
Jedes große Technologie-Paradigma wurde durch offene Zusammenarbeit beschleunigt.
Das Manhattan-Projekt vs. Internet-Modell
Yan Stoica kontrastiert zwei historische Modelle für wichtige Technologieentwicklung:
- Manhattan-Projekt: Geschlossen, nationalisiert, kontrolliert
- Das Internet: Offen, kollaborativ, gemeinsame Artefakte
Beide erreichten ihre Ziele, aber das Internet-Modell schuf mehr verteilte Innovation und kam mehr Menschen zugute.
Demokratie und Macht
Yoshua Bengio rahmt offene KI als essentiell für die Demokratie ein:
“The power of intelligence is going to give power to whoever controls it, including potentially AIs that could be smarter than us, including dictators. This is a threat to our democracies because democracy is about sharing power.”
“Die Macht der Intelligenz wird denjenigen Macht geben, die sie kontrollieren, einschließlich potenziell KIs, die intelligenter sein könnten als wir, einschließlich Diktatoren. Das ist eine Bedrohung für unsere Demokratien, weil Demokratie darum geht, Macht zu teilen.”
Sample-Effizienz und Repräsentation
Yejin Choi betont, dass KI sein sollte:
- Von Menschen - Menschliche Werte widerspiegelnd
- Durch Menschen - Geschaffen von verschiedenen Gesellschaften, nicht nur einigen Unternehmen
- Für Menschen - Allen zugute kommend, nicht nur denen an der Macht
Der aktuelle Stand
Geschlossene Labore
Große US-Labore haben die Veröffentlichung schrittweise eingeschränkt:
- OpenAI: Veröffentlichte früher alles, jetzt selektiv
- Google/DeepMind: Reduzierte offene Veröffentlichung, Wettbewerbsdruck
- Anthropic: Begrenzte öffentliche Forschungsteilung
Offene Alternativen
Das offene Ökosystem besteht fort durch:
- Meta AI: Llama-Modelle, offene Forschungskultur
- Chinesische Labore: DeepSeek, Qwen, detaillierte Veröffentlichungen
- Akademische Kooperationen: LAUD Institute, Berkeley AI Research
- Startups: Einige (wie Mistral) verpflichten sich zu Offenheit
Was benötigt wird
Ressourcen
Akademische Forscher benötigen:
- Compute-Zugang: Vergleichbar mit dem, was geschlossene Labore haben
- Wettbewerbsfähige Vergütung: 2x Unterschied, nicht 10-1000x
- Langfristige Finanzierung: 3-5 Jahre Forschungshorizonte
Kollaborationsinfrastruktur
- Gemeinsame Artefakte: Code, Modelle, Datensätze
- Offene Benchmarks: Transparente Evaluation
- Veröffentlichungskultur: Offenheit belohnen
Politische Unterstützung
- Staatliche Förderung: NSF, DARPA-Investitionen in offene KI
- Internationale Zusammenarbeit: Nicht nur USA, globale Kooperation
- Regulatorische Rahmenbedingungen: Die offene Forschung nicht benachteiligen
Wichtige Stimmen
Yan Stoica (Berkeley):
“In order for the best minds to collaborate, they need to be able to share the information and work on shared artifacts.”
“Damit die besten Köpfe zusammenarbeiten können, müssen sie in der Lage sein, Informationen zu teilen und an gemeinsamen Artefakten zu arbeiten.”
Yoshua Bengio (Law Zero):
“We need a global agreement on what to do and not do, where countries agree not to use AI to dominate others.”
“Wir brauchen eine globale Vereinbarung darüber, was zu tun und nicht zu tun ist, bei der sich Länder darauf einigen, KI nicht zu nutzen, um andere zu dominieren.”
Yejin Choi (Stanford):
“We need to democratize generative AI. Different countries and different social sectors should be able to create that AI.”
“Wir müssen generative KI demokratisieren. Verschiedene Länder und verschiedene gesellschaftliche Sektoren sollten in der Lage sein, diese KI zu schaffen.”
Weiterführende Literatur
- Yoshua Bengio - Gründer von Law Zero, Verfechter von KI-Sicherheit und Offenheit
- Yejin Choi - Stanford-Professorin, die sich für demokratische KI einsetzt
- Jeff Dean - Googles Chief Scientist, Verfechter akademischer Förderung