超知能AIが人類を絶命させる可能性  ヴィタリック・ブテリン氏が考える対応策は?

イーサリアム共同創設者のヴィタリック・ブテリン氏は、超高度な人工知能(AI)が野放しにしてしまえば、人間を越えて地球の生態系の頂点に立つ可能性が「真剣に」あると指摘した。ただし、それは人間がAIの発展にどう介入するかにかかっていると彼は付け加える。仮想通貨分野の思想的リーダーとみなされているブテリン氏は11月27日のブログ投稿で、AIはソーシャルメディアや避妊具、飛行機、銃、車輪、印刷機などの他の近代発明と「根本的に異なる」と主張する。「急速に知能を高めている新しいタイプの心」を生み出す可能性があると言い、「AIは人間の精神能力を追い越し、地球上の新たな頂点種になる可能性がある」と述べる。ブテリン氏は、気候変動、パンデミック、核戦争とは異なり、超知能AIが人間をAI自身の生存に対する脅威とみなした場合、人類を絶滅させてしまう可能性があると論じた。「AIが誤って世界を悪化させる可能性の1つは、文字通り人類の絶滅を引き起こすことであり、これは(ほぼ)最悪の可能性だ」と彼は述べた。「火星でさえ安全ではないかもしれない」とブテリン氏は付け加えた。ブテリン氏は4270人以上の機械学習研究者を対象

リンク元

コメント

タイトルとURLをコピーしました