Digital Tヒンク Tアンク(DTT)

今日のスタートレック:人類は超インテリジェントな人工知能を制御できない可能性がありますか?

最近の理論的研究の著者は、人類は超知能人工知能(AI)を制御できない可能性があると信じています。 その上、私達は私達がこの種を持っていることさえ知らないかもしれません AI(人工知能) 作成しました。
人工知能アルゴリズムの急速な進歩は、私たちの目の前で起こっています。 機械は外出先やポーカーで人間に勝ち、空中戦で経験豊富な戦闘機パイロットを打ち負かし、試行錯誤を通じてゼロから学び、医学と生命科学の大きな革命を告げ、医師だけでなく診断も行い、鳥をよりよく区別することができます人間より。 これは、多くの分野でどれほど急速に進歩しているかを示しています。

画像ソース:Pixabay


スタートレックエピソードリファレンス:一般/ Android-AI

この進歩に伴い、人工知能を制御できるかどうかという懸念が生じます。 少なくとも数十年にわたって提起されてきた懸念。 私たちは1942年以来有名なXNUMXつを知っています ロボットの法則作家を支持した人 アイザック·アシモフ 彼の短編小説「鬼ごっこ」で概説されている:

1)ロボットは、人に危害を加えたり、不作為により人に危害を加えたりしてはなりません。

2)ロボットは、最初の法則に違反しない限り、人間の命令に従わなければなりません。

3)ロボットは、第XNUMX法または第XNUMX法に違反しない限り、自身を保護する必要があります。

後で追加 アシモフ 包括的な法則0が追加されました。 ロボットは人類に危害を加えたり、不作為によって危害を加えたりしてはなりません2014年、オックスフォード大学の人類未来研究所の所長である哲学者ニックボストロムは、超知能AIがどのように私たちを破壊できるか、どのように制御できるか、そしてなぜさまざまな制御方法が機能しないのかを研究しました。 Bostromは、AIの制御に関するXNUMXつの問題を特定しました。 XNUMXつ目は、AIができることを制御することです。 たとえば、インターネットに接続するかどうかを制御できます。 XNUMXつ目は、やりたいことを制御することです。 たとえば、彼をコントロールするために、私たちは彼に人間との平和共存の原則を教えなければなりません。 ボストロムが指摘したように、超知能AIは、私たちができることに対して課したい制限を克服できる可能性があります。 XNUMX番目の問題に関しては、ボストロムは私たちが 超知能AI 何でも教えることができます。

マヌエルアルフォンセカとマドリッド自治大学の彼のチームは、人工知能の制御の問題に取り組むことを決定しました。 彼は彼の仕事の結果をで説明しました 人工知能研究ジャーナル.

スペイン人は、AIが人に害を及ぼさないことを保証するはずのアルゴリズムは、最初に人に害を及ぼす可能性のある行動をシミュレートして、マシンがそれを認識して停止できるようにする必要があると述べています。 しかし、研究者によると、人工知能の動作をシミュレートし、特定のアクションが人間に害を及ぼす可能性があるかどうかを絶対的に確実に判断できるアルゴリズムはありません。 すでに証明されています アシモフの最初の法則 計算できない問題です。
さらに、私たちが超インテリジェントなマシンを作成したことすら知らないかもしれない、と研究者たちは結論付けています。 その理由は ライスの定理、コードを見ただけではコンピュータプログラムの結果を推測できないということです。

しかし、アルフォンセカと彼の同僚にも良い知らせがあります。 そうですね、超スマートAIが何をするのか心配する必要はもうありません。 実際、スペイン人が実施する調査の種類には200つの主な制限があります。 まず、このような超知能AIはXNUMX年後に登場します。 第二に、このタイプの人工知能、つまり人間と同じくらい多くの分野でインテリジェントな機械を作成することさえ可能かどうかは不明です。 そして第三に、超知能AIを制御できない場合でも、狭い範囲で超知能である人工知能を制御できるはずです。