Offene Frontier-Forschung
critical Confidence: high Since 2024-01

Offene Frontier-Forschung

Die Bewegung, KI-Forschung offen und kollaborativ zu halten

researchopen-sourcepolicyacademic

Die Krise

Die offene Frontier-KI-Forschung in westlichen Demokratien steht vor einer existenziellen Bedrohung. Die Kluft zwischen den Ressourcen, die akademischen Forschern zur Verfügung stehen, und geschlossenen Unternehmenslaboren ist von 2x (vor einem Jahrzehnt) auf 10-1000x heute gewachsen. Große KI-Labore, die früher offen publizierten – Google, OpenAI, DeepMind – haben ihre Türen schrittweise geschlossen.

Währenddessen hat sich China als Führungskraft bei offenen KI-Beiträgen herauskristallisiert, mit Unternehmen wie DeepSeek und Alibaba, die detaillierte technische Papers veröffentlichen und wettbewerbsfähige Open-Weight-Modelle herausbringen.

Warum offene Forschung wichtig ist

Historischer Präzedenzfall

Wie Jeff Dean feststellt, wurde Google selbst auf offener akademischer Forschung aufgebaut:

  • TCP/IP aus akademischer Arbeit
  • PageRank aus Stanford Digital Library Project-Förderung
  • Deep Learning aus neuronaler Netzwerkforschung vor 30-40 Jahren

Jedes große Technologie-Paradigma wurde durch offene Zusammenarbeit beschleunigt.

Das Manhattan-Projekt vs. Internet-Modell

Yan Stoica kontrastiert zwei historische Modelle für wichtige Technologieentwicklung:

  1. Manhattan-Projekt: Geschlossen, nationalisiert, kontrolliert
  2. Das Internet: Offen, kollaborativ, gemeinsame Artefakte

Beide erreichten ihre Ziele, aber das Internet-Modell schuf mehr verteilte Innovation und kam mehr Menschen zugute.

Demokratie und Macht

Yoshua Bengio rahmt offene KI als essentiell für die Demokratie ein:

“The power of intelligence is going to give power to whoever controls it, including potentially AIs that could be smarter than us, including dictators. This is a threat to our democracies because democracy is about sharing power.”

“Die Macht der Intelligenz wird denjenigen Macht geben, die sie kontrollieren, einschließlich potenziell KIs, die intelligenter sein könnten als wir, einschließlich Diktatoren. Das ist eine Bedrohung für unsere Demokratien, weil Demokratie darum geht, Macht zu teilen.”

Sample-Effizienz und Repräsentation

Yejin Choi betont, dass KI sein sollte:

  • Von Menschen - Menschliche Werte widerspiegelnd
  • Durch Menschen - Geschaffen von verschiedenen Gesellschaften, nicht nur einigen Unternehmen
  • Für Menschen - Allen zugute kommend, nicht nur denen an der Macht

Der aktuelle Stand

Geschlossene Labore

Große US-Labore haben die Veröffentlichung schrittweise eingeschränkt:

  • OpenAI: Veröffentlichte früher alles, jetzt selektiv
  • Google/DeepMind: Reduzierte offene Veröffentlichung, Wettbewerbsdruck
  • Anthropic: Begrenzte öffentliche Forschungsteilung

Offene Alternativen

Das offene Ökosystem besteht fort durch:

  • Meta AI: Llama-Modelle, offene Forschungskultur
  • Chinesische Labore: DeepSeek, Qwen, detaillierte Veröffentlichungen
  • Akademische Kooperationen: LAUD Institute, Berkeley AI Research
  • Startups: Einige (wie Mistral) verpflichten sich zu Offenheit

Was benötigt wird

Ressourcen

Akademische Forscher benötigen:

  • Compute-Zugang: Vergleichbar mit dem, was geschlossene Labore haben
  • Wettbewerbsfähige Vergütung: 2x Unterschied, nicht 10-1000x
  • Langfristige Finanzierung: 3-5 Jahre Forschungshorizonte

Kollaborationsinfrastruktur

  • Gemeinsame Artefakte: Code, Modelle, Datensätze
  • Offene Benchmarks: Transparente Evaluation
  • Veröffentlichungskultur: Offenheit belohnen

Politische Unterstützung

  • Staatliche Förderung: NSF, DARPA-Investitionen in offene KI
  • Internationale Zusammenarbeit: Nicht nur USA, globale Kooperation
  • Regulatorische Rahmenbedingungen: Die offene Forschung nicht benachteiligen

Wichtige Stimmen

Yan Stoica (Berkeley):

“In order for the best minds to collaborate, they need to be able to share the information and work on shared artifacts.”

“Damit die besten Köpfe zusammenarbeiten können, müssen sie in der Lage sein, Informationen zu teilen und an gemeinsamen Artefakten zu arbeiten.”

Yoshua Bengio (Law Zero):

“We need a global agreement on what to do and not do, where countries agree not to use AI to dominate others.”

“Wir brauchen eine globale Vereinbarung darüber, was zu tun und nicht zu tun ist, bei der sich Länder darauf einigen, KI nicht zu nutzen, um andere zu dominieren.”

Yejin Choi (Stanford):

“We need to democratize generative AI. Different countries and different social sectors should be able to create that AI.”

“Wir müssen generative KI demokratisieren. Verschiedene Länder und verschiedene gesellschaftliche Sektoren sollten in der Lage sein, diese KI zu schaffen.”

Weiterführende Literatur

  • Yoshua Bengio - Gründer von Law Zero, Verfechter von KI-Sicherheit und Offenheit
  • Yejin Choi - Stanford-Professorin, die sich für demokratische KI einsetzt
  • Jeff Dean - Googles Chief Scientist, Verfechter akademischer Förderung

Expert Mentions

Video thumbnail

Yan Stoica

Damit sie zusammenarbeiten können, müssen sie in der Lage sein, Informationen zu teilen und an gemeinsamen Artefakten zu arbeiten. Wenn es um gemeinsame Artefakte geht, sprechen wir von Code.

Video thumbnail

Yoshua Bengio

KI wird die Welt verändern. Die Macht der Intelligenz wird denjenigen Macht geben, die sie kontrollieren. Das ist eine Bedrohung für unsere Demokratien.

Video thumbnail

Yejin Choi

KI sollte wirklich von Menschen, durch Menschen und für Menschen sein. Verschiedene Länder und verschiedene gesellschaftliche Sektoren sollten in der Lage sein, diese KI zu schaffen, nicht nur ein paar Unternehmen in zwei oder drei Ländern.