地球上から人間を絶滅させる確率は?

この問いに関して、悲観的な見方をする人々は、AIセーフティスト、あるいは減速論者(decelerationists)などと呼ばれ、特に強い危惧を表明する人はAI破滅論者(AI doomers)と呼ばれている、、、

テクノ楽観論者の陣営は、持ち前のリバタリアン的産業優先主義の観点からAI破滅論者を拒絶し、人類存続の危機について心を痛めるのは、集団ヒステリーのようなものだと主張する。

そして自らのことを「効果的加速主義者(effective accelerationist)」、略して「e/acc(イーアク)」と呼ぶようになった。

そして悲観論者が邪魔をしない限り、AIがユートピア的な未来を切り開き、別の星への旅や病気のない世界が可能になると信じている。

e/accたちはソーシャルメディア上で破滅論者たちを「減速論者」、「心理オペレーター」、「本質的にテロリスト」、あるいはもっと極端に「規制が大好きな官僚」などと呼んで批判する。

「われわれは知性の炎を神々から盗み、星へ向かう人類を加速させるためにその炎を使わなければならない」と、最近e/accの中心人物がツイートした、、、

AI破滅論者と効果的加速主義者、その交わらない未来
人工知能が人類をよりよい方向に導くと考える人もいれば、人類に破滅をもたらすと恐れる人もいる。AIアライメントがますます重視される現在において、実際のところ、われわれの運命を決めるのはどちらの考え方なのだろうか?
タイトルとURLをコピーしました