ASI(人工超知能)
/ˌeɪ-es-ˈaɪ/
Also known as: Artificial Superintelligence, Superintelligent AI, Super AI
ASIとは?
人工超知能(ASI)とは、チェスやタンパク質フォールディングのような狭いタスクだけでなく、一般的な推論、創造性、社会的知能、科学的革新において、すべてのドメインで人間の知能を超える仮説上のAIシステムを指します。AGIが人間の能力に匹敵するのに対し、ASIはそれを超えます。
この概念は、AIの存在リスクに関する議論の中心にあります。超知能システムは、理論的には、それを制御または制約しようとする人間のあらゆる試みを出し抜くことができるからです。
主な特徴
- 人間の能力を超える:あらゆる知的ドメインで人間のパフォーマンスを超える
- 再帰的自己改善:さらに知的な自己のバージョンを設計できる
- 予測不可能な能力:人間が予測も理解もできない能力を発達させる可能性
- 速度の優位性:人間の思考の数百万倍の速度で動作可能
ASIが重要な理由
SingularityNETのJanet Adamsはそのリスクを明確に示しています:
“AI is increasing in power at 10x a year right now. That means in three years it’s going to be a thousand times smarter than today. We as humanity, our brains, we can’t even get our heads around what this could mean.”(AIは現在、年間10倍のペースで能力を増しています。つまり3年後には今日の1000倍賢くなります。私たち人類の脳では、これが何を意味するのか想像することさえできません。)
組織と社会への影響:
- 勝者総取りのダイナミクス:ASIを最初に達成した者が永続的な優位性を得る可能性
- 経済的変革:ASIは事実上すべての人間の仕事を自動化できる可能性
- 安全性の課題:超知能システムを人間の価値観に整合させることが重要に
- ガバナンスの問題:ASIを誰が、どのように制御するかが存在的な問題に
ASIへの道
ほとんどの研究者は、ASIにはまずAGIが必要だと考えています—人間レベルの知能がなければ、それを超えることはできません。一般的な軌道:
- 現状:特定のタスクに優れる狭いAI
- AGI:人間の汎用知能に匹敵するシステム
- ASI:人間の知能を超えるシステム
SingularityNET、OpenAI、Anthropicなどの組織は、AGIを達成した後、再帰的自己改善によりASIが数ヶ月または数年以内に続く可能性があることを認識しながら、AGIに向けて取り組んでいます。
論争と不確実性
ASIの概念には大きな議論があります:
- 懐疑派は、知能が任意にスケールアップできるかどうか分からないと主張
- 楽観派は、AI進歩の継続による不可避の結果と見る
- 安全性研究者は、ASI開発が有益であることを確保することに焦点
- 分散化推進者(SingularityNETなど)は、ASIが単一の組織に制御されてはならないと主張
関連記事
- AGI - 汎用人工知能、ASIの前提条件
- Ben Goertzel - この目標を追求するASI Allianceのリーダー