本記事では、「Why AI Is Incredibly Smart and Shockingly Stupid」というテッドトークを基に、AIの驚くべき知性と致命的な誤りの理由について解説します。AI技術は急速に進展しており、私たちの生活やビジネスに革新をもたらしています。しかし、その一方でAIは驚くべき知性を持ちながらも、時に予測不可能な誤りを犯すこともあります。それでは、AIの知性と誤りについて詳しく見ていきましょう。
参考文献: Choi, Y. (2020). Why AI Is Incredibly Smart and Shockingly Stupid [Video file]. Retrieved from https://www.ted.com/talks/yejin_choi_why_ai_is_incredibly_smart_and_shockingly_stupid
私は 20 年間コンピューター科学者として人工知能の研究に取り組んでいます。私は AI をわかりやすく理解するためにここにいます。つまり、今日の AI はゴリアテのようなものです。文字通り、とても、とても大きいです。最近のものは数万の GPUと 1 兆の単語でトレーニングされていると推測されています。このような極端な規模の AI モデルは、「大規模言語モデル」と呼ばれることが多く、汎用人工知能(AGI) の火花を実証しているようです。小さくて愚かな間違いをする場合は別ですが、それはよくあります。多くの人は、今日 AI が犯す間違いは何であれ、力ずくで、より大規模で、より多くのリソースを使って簡単に修正できると信じています。何が問題になる可能性がありますか?
01:28
つまり、社会レベルで私たちがすでに直面している差し迫った課題が 3 つあります。まず、超大規模な AI モデルのトレーニングには非常に費用がかかり、そうする余裕のあるテクノロジー企業はほんのわずかです。したがって、私たちはすでに権力の集中を目にしています。しかし、AI の安全性にとってさらに悪いのは、より大きなコミュニティの研究者がこれらのモデルを実際に検査して分析する手段を持っていないため、現在私たちはそれら少数のテクノロジー企業のなすがままになっているということです。そして、その膨大な二酸化炭素排出量と環境への影響も忘れてはなりません。
02:11
さらに、これらの追加の知的質問もあります。確固たる常識を持たない AI は人類にとって本当に安全でしょうか? そして、総当たりスケールが本当にAI を教える唯一の方法であり、正しい方法なのでしょうか?
では、司法試験に合格したにもかかわらず、そのような基本的な常識でランダムに失敗する AI 弁護士についてどう思いますか? 今日の AI は信じられないほど知的ですが、驚くほど愚かです。
05:15
(笑い)
05:16
これは、総当たり規模で AI を教えることによる避けられない副作用です。規模を楽観的に考える人の中には、こう言う人もいるかもしれません。これらはすべて、同様の例を AI のトレーニング データとしてさらに追加することで簡単に修正できます。」子どもたちは、そのような基本的な常識レベルを身につけるために、一兆語も読むわけではありません。
05:51
したがって、この観察は次の知恵、つまり戦いを選択することにつながります。では、超大規模な AI でこの現状を打破するために、私たちは今どのような根本的な疑問を持ち、今日取り組むべきなのでしょうか? 常識は最優先事項の一つだと言えます。
06:11
そのため、常識は AI における長年の課題でした。その理由を説明するために、暗黒物質に例えてみましょう。つまり、宇宙のわずか 5 パーセントが、私たちが見て触れ合うことができる通常の物質であり、残りの 95 パーセントは暗黒物質と暗黒エネルギーです。暗黒物質は完全に目に見えませんが、光の軌道を含む目に見える世界に影響を与えるため、暗黒物質が存在すると科学者は推測しています。したがって、言語の場合、通常の物質は目に見えるテキストであり、暗黒物質は世界の仕組みに関する暗黙のルールであり、人々が言語を使用し解釈する方法に影響を与える素朴な物理学や民族心理学が含まれます。
06:55
では、なぜこの常識が重要なのでしょうか? さて、ニック・ボストロムによって提案された有名な思考実験では、AI はペーパー クリップを生成して最大化するように求められました。そしてそのAIは、人間を追加のリソースとして利用し、あなたをペーパークリップに変えるために人間を殺すことに決めました。なぜなら、AIは人間の価値観について人間の基本的な理解を持っていなかったからです。さて、「人間を殺してはいけない」と明確に述べる、より良い目的と方程式を書いてもうまくいきません。AI が、それがまったく問題ないと考えて、すべての木を枯らす可能性があるからです。そして実際、ペーパー クリップを最大化する際に AI が明らかに行うべきではないことは他にも無限にあります。「フェイクニュースを広めてはいけない」「盗んではいけない」「嘘をついてはいけない」これらはすべて、世界の仕組みについての私たちの常識的な理解の一部です。
したがって、私の立場は、人間に似たロボットに真の常識を AI に与えるのは、依然としてムーンショットだということです。そして、世界で最も高い建物を一度に 1 インチずつ高くしても、月に到達することはできません。極端な規模の AI モデルでは、常識的な知識がますます増えています。それについてはお話しします。しかし、子供でもできるような些細な問題でつまずいてしまうということを覚えておいてください。
08:53
したがって、今日の AI は非常に非効率的です。そして、代替の道や道がまだ見つかっていない場合はどうなるでしょうか? ディープ ニューラル ネットワークの進歩の上に構築できるパスですが、規模が極端になることはありません。
09:08
したがって、これは私たちの最終的な知恵、つまり武器を革新することにつながります。現代の AI の文脈では、これはデータとアルゴリズムを革新することを意味します。さて、大まかに言えば、現代の AI がトレーニングされるデータには3 種類あります。生の Web データ、AI トレーニング用にカスタム開発された作成されたサンプル、そしてAI のパフォーマンスに関する人間のフィードバックとも呼ばれる人間の判断です。AI が最初のタイプである、無料で入手できる生の Web データのみでトレーニングされた場合、このデータには人種差別、性差別、誤った情報が読み込まれているため、良くありません。つまり、どれだけ使っても、ゴミが入ったりゴミが出たりするのです。最新かつ最高の AI システム現在では、人間の作業者によって作成および判断される 2 番目と 3 番目のタイプのデータが利用されています。これは、AI が学習できる専門の教科書を書き、人間の家庭教師を雇って AI に継続的にフィードバックを与えるのに似ています。これらは概して独自のデータであり、数千万ドルの費用がかかると推測されています。これに何が含まれているのかはわかりませんが、多様な規範や価値観を検査し、確実にサポートできるように、オープンかつ一般に公開されるべきです。このため、UW と AI2 の私のチームは、AI に基本的な常識規範と道徳を教えるための常識知識グラフと道徳規範リポジトリに取り組んできました。このような重要な研究テーマでは透明性が鍵となるため、私たちのデータは完全にオープンになっており、誰でも内容を検査して必要に応じて修正することができます。
しかし、学習の質はまだ十分ではありません。そして問題は、単に規模を拡大するだけでそこに完全に到達できるかどうかはまだわかりません。それができないとしたら、他に何があるかという疑問が生じます。そして、たとえそれができたとしても、少数の人だけが作成して所有できる、非常に非常に大規模な AI モデルを持つというこのアイデアを私たちは好むでしょうか?