Digital Tヒンク Tアンク(DTT)

人工知能を凌駕する方法-人間対機械。

AIコンピューターシステム 自動運転車から医師の診断や自律型捜索救助ロボットまで、私たちの生活の多くの分野に参入し、大きな可能性を提供しています。

しかし、特に「ニューラルネットワーク」として知られるAIの分野での主要な未解決の問題のXNUMXつは、科学者が問題が発生する理由を説明できないことが多いことです。 これは、AIシステム内の意思決定プロセスについての理解が不足しているためです。 この問題は「ブラックボックス」問題として知られています。

誰が賢いですか?

リバプール大学も関与しているランカスター大学による新しい15か月の研究プロジェクトは、ブラックボックス問題の秘密を解き明かし、「深層学習「意思決定を透明で説明可能なものにするAIコンピューターモデルの。

プロジェクト "責任ある説明可能な自律ロボット学習システムに向けて「人工知能アルゴリズムを開発するための一連のセキュリティ検証およびテスト手順を開発します。これらは、システムによって行われた決定が堅牢で説明可能であることを保証するのに役立ちます。

画像ソース:Pixabay


トレーニング

研究者は「リバーストレーニング」と呼ばれる手法を使用します。 それは、アクションを実行する方法を学習する特定の状況でシステムを提示することで構成されます-例: B.オブジェクトを検出して持ち上げます。 次に、研究者は、色、形、環境などのシナリオのさまざまな要素を変更し、試行錯誤を通じてシステムがどのように学習するかを観察します。 研究者は、これらの観察が、システムがどのように学習し、洞察するかについてのより良い理解につながると信じています。 意思決定プロセス 付与されます。


決定を理解して予測できるニューラルネットワークを備えたシステムを作成する方法を開発することにより、研究は、産業の車両やロボットなどのセーフティクリティカルな領域で自律システムのロックを解除するための鍵となります。

博士ランカスター大学のコンピューティングコミュニケーション学部の教授であり、プロジェクトの主任研究員であるウェンジエ・ルアンは、次のように述べています。 深層学習 最も注目に値する人工知能技術のXNUMXつは多くのアプリケーションで大成功を収めているため、不透明な意思決定メカニズムや敵対攻撃に対する脆弱性など、セキュリティが重要なシステムで使用すると独自の問題が発生します。 「このプロジェクトは、ディープラーニング技術とセーフティクリティカルシステムの間の研究ギャップを埋める絶好の機会です。