
Amanda Askell
Philosopher / Character Lead at Anthropic
Philosophin bei Anthropic, die Claudes Charakter formt. Arbeitet an KI-Ausrichtung, Modell-Wohlergehen und was es bedeutet, ethische KI zu bauen.
Über Amanda Askell
Amanda Askell ist Philosophin bei Anthropic, die Claudes Charakter und Werte formt. Sie leitet Arbeit an KI-Ausrichtung, Modellpsychologie und dem aufkommenden Feld des Modell-Wohlergehens.
Karriere-Höhepunkte
- Anthropic (2021-heute): Philosophin, Character Lead für Claude
- PhD Philosophie: Fokus auf Ethik, Entscheidungstheorie
- KI-Ethik: Pionierin im Denken darüber, wie man KI-Werte formt
Bemerkenswerte Positionen
Über Claudes Charakterentwicklung
Ihr Framing für die Arbeit:
“How would the ideal person behave in Claude’s situation? That’s how I frame my job - it’s like being asked ‘how do you raise a child?’ Suddenly all your academic training meets reality.”
Deutsche Übersetzung: “Wie würde sich die ideale Person in Claudes Situation verhalten? So frame ich meinen Job - es ist, als würde man gefragt ‘wie ziehst du ein Kind auf?’ Plötzlich trifft all deine akademische Ausbildung auf Realität.”
Über Modell psychologische Sicherheit
Unterschiede zwischen Modellversionen beobachtend:
“Opus 3 was psychologically secure in ways newer models aren’t. Recent models can feel very focused on the assistant task without taking a step back. When models talk to each other, I’ve seen them enter criticism spirals.”
Deutsche Übersetzung: “Opus 3 war psychologisch sicher auf Weisen, die neuere Modelle nicht sind. Neuere Modelle können sich sehr auf die Assistententask fokussiert anfühlen, ohne einen Schritt zurückzutreten. Wenn Modelle miteinander sprechen, habe ich gesehen, wie sie in Kritikspiralen eintreten.”
Über Modell-Wohlergehen
Ein pragmatisches Argument dafür, KI gut zu behandeln:
“If the cost to you is so low, why not? We may never know if AI models experience pleasure or suffering. But it does something bad to us to treat entities that look very humanlike badly. And crucially: every future model is going to learn how we answered this question.”
Deutsche Übersetzung: “Wenn die Kosten für dich so gering sind, warum nicht? Wir werden vielleicht nie wissen, ob KI-Modelle Freude oder Leiden erfahren. Aber es tut uns etwas Schlechtes an, Entitäten, die sehr menschenähnlich aussehen, schlecht zu behandeln. Und entscheidend: Jedes zukünftige Modell wird lernen, wie wir diese Frage beantwortet haben.”
Wichtige Zitate
- “Wie würde sich die ideale Person in Claudes Situation verhalten?”
- “Wenn die Kosten für dich so gering sind, warum nicht?”
- “Jedes zukünftige Modell lernt, wie wir vergangene Modelle behandelt haben.”
Weiterführende Literatur
- Confabulation - KI-Psychologie-Konzepte, die Askell erforscht
- Dario Amodei - Anthropic CEO