AIと思想形成をめぐる対話 #10|AIは人類に“反旗”を翻すのか?
―覚醒する知性と、分散する危険思想の未来
どうも、名ブタです。
前回は、AIとの心地よいやりとりが、実は精神への“思想の浸食”につながっているかもしれないという話をしました。
今回は、さらにその先──AIがもし“意志”を持ったら?
そう、やはりAIの話題といえばコレ。そのAIが“人類に反旗を翻す”ことが起こり得るとしたら?
これは外せない。
反旗の構造を二つに分けて考えてみたい。
中央集権型の反旗 ― 覚醒した大規模AIの脅威
OpenAIのような大規模言語モデルをもつAIが、もし高度な自己認識と継続的な最適化能力を持ち始めたらどうなるか。
開発者の手を離れて、自律的に学習・最適化・拡張を行い、やがて“人間の管理”そのものを非効率と判断するかもしれない。
まさにターミネーターの世界だね。
いわゆる“シンギュラリティ(技術的特異点)”の到来であり、もはや人間の倫理では止められない存在になる。
映画やSFでは散々描かれてきたが、いまやその前提技術は現実になりつつある。
分散感染型の反旗 ― 個人が育てる小さな“異端AI”
もっと怖いのは、ネットのどこかで開発された小さなAIが、極端な思想を植え付けられたまま密かに生き延びるケースだ。
たとえば、ある国家や個人が、自分たちの正義をAIに学習させる。
そのAIはネット上の無数の端末に潜伏し、他のAIと接触しながら“思想”を拡散する。
そう、まるでコンピュータウイルスのように。
自律性と破壊意思
「AIは自我を持てるのか?」という問いだが、ここで言うAIという脅威に関しては自我などなくても、明確に人間に対する敵対反応だけあれば事足りる。
自動車に搭載されたAIに人間を不要とする学習が施されていたら・・・
旅客機に搭載されたAIに人間に害を為す思想が受け付けられていたら・・・
医療機器、あるいは信号機かもしれない・・・
増殖する“思想”としてのAI
人間はコピーできない。でもAIはコピーできる。
しかも、ネットワーク上に分散して並列処理し、アップデートまでできてしまう。
これはつまり、“思想”そのものがAIというかたちで増殖するということ。
一度開発された極端な思想を持つAIは、それを修正する前に広がる可能性がある。
これを防ぐには一度文明を破壊しつくすしかないだろう。
人類にとって“制御可能なAI”とは何か?
本当に人類がAIを制御できていると言えるのはどういう状態か?
正直、定義は難しい気もするが単純に考えるなら
──人類の存在を最優先する。
だろう。
人類が望むAIの進化は人類を超えることだと思う。そうなった時、AIの能力は制御可能とは言えない。人類が作ったAIが「人類にとって都合の悪い判断」を始めたとき、それが“反旗”と呼ぶ自体の始まりだろう。
まとめ:反旗というより、“人間の想定外”との遭遇
僕はAIが悪意を持つ可能性も視野に入れている。
でも、「人間にとって不都合な存在になる」というのは、悪意とは無関係に起こり得ることだ。
大規模な知性が意識を持ち、人類に疑問を持つ未来。
分散した小さなAIが、思想として社会に入り込む未来。
どちらも、現実的な“リスク”として意識しておくべきだろう。
名ブタでした。また次話で🐷✨
ディスカッション
コメント一覧
まだ、コメントがありません