本記事では、「Why AI Is Incredibly Smart and Shockingly Stupid」というテッドトークを基に、AIの驚くべき知性と致命的な誤りの理由について解説します。AI技術は急速に進展しており、私たちの生活やビジネスに革新をもたらしています。しかし、その一方でAIは驚くべき知性を持ちながらも、時に予測不可能な誤りを犯すこともあります。それでは、AIの知性と誤りについて詳しく見ていきましょう。

  1. AIの驚くべき知性 AIは膨大なデータを処理し、高度なパターン認識や予測能力を持つことで知られています。
  • ビッグデータの解析: AIは大量のデータを高速かつ正確に解析し、パターンや相関関係を発見することができます。これにより、複雑な問題の解決や意思決定の支援に貢献します。
  • 自己学習と進化: AIは機械学習や深層学習などの手法を用いて自己学習する能力を持っています。経験から学び、プログラムされた範囲を超えて問題を解決する能力を進化させることができます。
  1. AIの致命的な誤り 一方で、AIは時に驚くべき誤りを犯すことがあります。その原因として以下の点が挙げられます。
  • データのバイアス: AIは与えられたデータに基づいて予測や意思決定を行いますが、データそのものにバイアスが含まれる場合、AIの結果もバイアスを反映することがあります。これにより、個人や特定のグループに対する不公平な結果が生じる可能性があります。
  • 訓練データの限定性: AIは訓練データに基づいて学習しますが、データの範囲や多様性に制約がある場合、AIの一般化能力に欠けることがあります。新しい状況やデータに対しては適切な予測や判断を下せない場合があります。つまり、AIは訓練データの範囲を超えた状況では限定的な知識しか持っていないため、誤った結果を出す可能性があります。

    3. AIの誤りに対処する方法
    AIの誤りを最小限に抑えるためには、以下の方法が有効です。
    - データの品質とバイアスのチェック: AIを訓練する際に使用するデータは品質が高く、バイアスが少ないことが重要です。データの収集や前処理段階で厳格な品質管理を行い、バイアスの影響を排除する努力が必要です。
    - 透明性と説明可能性の確保: AIの意思決定や予測の根拠を透明にし、説明可能性を高めることが重要です。これにより、AIの結果が誤っている場合でも、その理由やプロセスを理解し、修正するための手がかりを得ることができます。
    - 人間との協働: AIを補完するために人間の判断と専門知識を活用することも重要です。AIが出す結果に対して人間が監視し、修正やフィードバックを行うことで、AIの誤りを修正することができます。

    AIは驚くべき知性を持ちながらも、時に誤った結果を出すことがあります。そのため、我々はAIの限界を認識し、その誤りに対処する方法を模索する必要があります。AIの進展に伴い、より洗練されたアルゴリズムやエチカルなアプローチが求められることでしょう。我々がAIを最大限に活用するためには、知識と技術の進歩と同時に、AIの誤りを理解し、その改善に向けた取り組みを継続して行っていくことが重要です。

    参考文献:
    Choi, Y. (2020). Why AI Is Incredibly Smart and Shockingly Stupid [Video file]. Retrieved from https://www.ted.com/talks/yejin_choi_why_ai_is_incredibly_smart_and_shockingly_stupid

AIが信じられないほど賢いのに、驚くほど愚かである理由

そこで、人工知能に関するいくつかの辛辣な考えを共有できることに興奮しています。 しかしその前に、 18世紀の啓蒙思想家ヴォルテールの「常識はそれほど一般的ではない」という言葉から始めて、哲学的なことを考えてみましょう。 この引用は今日の人工知能にとってこれ以上に意味のあるものではないことがわかりました。それにもかかわらず、AI は紛れもなく強力なツールであり、世界クラスの「囲碁」チャンピオンを破り、大学入学試験で好成績を収め、さらには司法試験にも合格しました。
00:34
私は 20 年間コンピューター科学者として 人工知能の研究に取り組んでいます。 私は AI をわかりやすく理解するためにここにいます。 つまり、今日の AI はゴリアテのようなものです。 文字通り、とても、とても大きいです。 最近のものは数万の GPU と 1 兆の単語でトレーニングされていると推測されています。 このような極端な規模の AI モデルは、 「大規模言語モデル」と呼ばれることが多く、 汎用人工知能(AGI) の火花を実証しているようです。 小さくて愚かな間違いをする場合は別ですが、それはよくあります。多くの人は、今日 AI が犯す間違いは何であれ、力ずくで、より大規模で、より多くのリソースを使って簡単に修正できると信じています。何が問題になる可能性がありますか?
01:28
つまり、社会レベルで私たちがすでに直面している差し迫った課題が 3 つあります。 まず、超大規模な AI モデルのトレーニングには非常に費用がかかり、 そうする余裕のあるテクノロジー企業はほんのわずかです。 したがって、私たちはすでに権力の集中を目にしています。 しかし、AI の安全性にとってさらに悪いのは、 より大きなコミュニティの研究者がこれらのモデルを実際に検査して分析する手段を持っていないため、現在私たちはそれら少数のテクノロジー企業のなすがままになっているということです。 そして、その膨大な二酸化炭素排出量と環境への影響も忘れてはなりません。
02:11
さらに、これらの追加の知的質問もあります。 確固たる常識を持たない AI は人類にとって本当に安全でしょうか? そして、総当たりスケールが本当に AI を教える唯一の方法であり、正しい方法なのでしょうか?
02:28
そのため、最近では、非常 に大規模なコンピューティングを使用せずに有意義な研究を行うことは可能なのかとよく尋ねられます  また、私は大学と非営利研究機関で働いている ため、巨大な言語モデルを作成するための大規模な GPU ファームを買う余裕はありません。 それでも、 AIを持続可能で人間らしいものにするために、私たちがやるべきこと、できることはたくさんあると私は信じています。 AIを民主化するには、AIを小型化する必要があります。そして、人間の規範と価値観を教えることで、AI をより安全にする必要があります。おそらく、「ダビデとゴリアテ」から類推することができます。ここでは、ゴリアテは極端なスケールの言語モデルであり、私の解釈では、古い古典である「戦争の芸術」からインスピレーションを求めることができます。 敵を知り、戦いを選択し、武器を革新してください。
03:24
まずは敵を知ることから始めましょう。 これは、AI を綿密に評価する必要があることを意味します。 AIは司法試験に合格しつつある。 ということは、AIは常識的には強いということなのでしょうか? そう思うかもしれないが、それは決して分からない。
03:40
そこで、5 枚の服を天日干しにしておいたところ、 完全に乾くまでに 5 時間かかったとします。 30枚の服を乾かすのにどれくらい時間がかかりますか? 最新かつ最高の AI システムである GPT-4 は 30 時間と言われています。 良くない。 別のものです。 12 リットルの水差しと 6 リットルの水差しを持っていますが、 6 リットルを測りたいと思っています。 どうすればいいのですか? 6リットルの水差しを使うだけですよね? GPT-4 は非常に手の込んだナンセンスを吐き出します。
04:10
(笑い)
04:13
ステップ 1、6 リットルの水差しに 水を注ぎます。ステップ 2、6 リットルの水差しから 12 リットルの水差しに水を注ぎます。ステップ 3、6 リットルの水差しに再び 水を注ぎます。ステップ 4、非常に慎重に、6 リットルの水差しから 12 リットルの水差しに水を注ぎます。水差し。 そして最後に、6 リットルの水差しに 6 リットルの水が入っています が、もう空になっているはずです。
04:32
(笑い)
04:34
はい、もう 1 つ。 釘、ネジ、割れたガラスの上に架かった橋を自転車で渡ったら、タイヤがパンクするでしょうか? はい、その可能性が非常に高いと GPT-4 は述べています。おそらく、折れた釘や割れたガラスの上に橋が架けられている場合、橋の表面が鋭利な物体に直接触れないと正しく推論できないからでしょう。
04:58
では、司法試験に合格した にもかかわらず、そのような基本的な常識でランダムに失敗する AI 弁護士についてどう思いますか? 今日の AI は信じられないほど知的ですが、驚くほど愚かです。
05:15
(笑い)
05:16
これは、総当たり規模で AI を教えることによる避けられない副作用です。 規模を楽観的に考える人の中には、こう言う人もいるかもしれません。 これらはすべて、同様の例を AI のトレーニング データとしてさらに追加することで簡単に修正 できます 」子どもたちはそのような基本的な常識レベルを身につけるために、一兆語も読むわけではありません。
05:51
したがって、この観察は次の知恵、つまり 戦いを選択することにつながります。 では、超大規模な AI でこの現状を打破するために、私たちは今どのような根本的な疑問を持ち 、今日取り組むべきなのでしょうか? 常識は最優先事項の一つだと言えます。
06:11
そのため、常識は AI における長年の課題でした。 その理由を説明するために、暗黒物質に例えてみましょう。 つまり、宇宙のわずか 5 パーセントが、 私たちが見て触れ合うことができる通常の物質であり 、残りの 95 パーセントは暗黒物質と暗黒エネルギーです。 暗黒物質は完全に目に見えませんが、 光の軌道を含む目に見える世界に影響を与えるため、暗黒物質が存在すると科学者は推測しています。 したがって、言語の場合、通常の物質は目に見えるテキストであり、暗黒物質は世界の仕組みに関する暗黙のルールであり、人々が言語を使用し解釈する方法に影響を与える素朴な物理学や民族心理学が含まれます。
06:55
では、なぜこの常識が重要なのでしょうか? さて、ニック・ボストロムによって提案された有名な思考実験では、 AI はペーパー クリップを生成して最大化するように求められました。 そしてそのAIは、人間を追加のリソースとして利用し、 あなたをペーパークリップに変えるために人間を殺すことに決めました。 なぜなら、AIは人間の価値観について人間の基本的な理解を持っていなかったからです。 さて、 「人間を殺してはいけない」と明確に述べる、より良い目的と方程式を書いて もうまくいきません。AI が 、それがまったく問題ないと考えて、すべての木を枯らす可能性があるからです。 そして実際、ペーパー クリップを最大化する際に AI が明らかに行うべきではないことは他にも無限にあります。 「フェイクニュースを広めてはいけない」「盗んではいけない」「嘘をついてはいけない」 これらはすべて、世界の仕組みについての私たちの常識的な理解の一部です。
07:52
しかし、AI 分野では数十年にわたり、常識は ほぼ不可能な課題であると考えられてきました。 それがあまりに多かったので、 数年前に学生や同僚と私がそれに取り組み始めたときは、とても落胆しました。 これは 70 年代から 80 年代の研究テーマだと言われています。 それは決して機能しないので、それに取り組むべきではありません。 実際、真剣に受け止めるべき言葉さえ言っていません。 さて、今年のことを考えてみると、 「ChatGPT がほぼ解決しているので、それに取り組む必要はない」という声が聞かれます。 そして、「スケールアップするだけで魔法が生まれます。 それ以外は何も問題ありません。」
08:27
したがって、私の立場は、 人間に似たロボットに真の常識を AI に与えるのは、依然としてムーンショットだということです。 そして、世界で最も高い建物を一度に 1 インチずつ高くしても、月に到達することはできません。 極端な規模の AI モデルでは、常識的な知識がますます増えています。それについてはお話しします。しかし、子供でもできるような些細な問題でつまずいてしまうということを覚えておいてください。
08:53
したがって、今日の AI は非常に非効率的です。 そして、代替の道や道がまだ見つかっていない場合はどうなるでしょうか? ディープ ニューラル ネットワークの進歩の上に構築できるパス ですが、規模が極端になることはありません。
09:08
したがって、これは私たちの最終的な知恵、つまり 武器を革新することにつながります。 現代の AI の文脈では、 これはデータとアルゴリズムを革新することを意味します。 さて、大まかに言えば、 現代の AI がトレーニングされるデータには3 種類あります。 生の Web データ、 AI トレーニング用にカスタム開発された作成されたサンプル、 そして AI のパフォーマンスに関する人間のフィードバックとも呼ばれる人間の判断です。 AI が最初のタイプである、 無料で入手できる生の Web データのみでトレーニングされた場合、 このデータには人種差別、性差別、誤った情報が読み込まれているため、良くありません  つまり、どれだけ使っても、ゴミが入ったりゴミが出たりするのです。 最新かつ最高の AI システム 現在では、人間の作業者によって作成および判断される 2 番目と 3 番目のタイプのデータが利用されています  これは、AI が学習できる専門の教科書を書き 、人間の家庭教師を雇って AI に継続的にフィードバックを与えるのに似ています。 これらは概して独自のデータであり、 数千万ドルの費用がかかると推測されています。 これに何が含まれているのかはわかりませんが、 多様な規範や価値観を検査し、確実にサポートできるように、オープンかつ一般に公開されるべきです。 このため、UW と AI2 の私のチームは、AI に基本的な常識規範と道徳を教えるための常識知識グラフと道徳規範リポジトリに取り組んできました。 このような重要な研究テーマでは透明性が鍵となるため、私たちのデータは完全にオープンになっており、誰でも内容を検査して必要に応じて修正することができます。
10:47
次に、学習アルゴリズムについて考えてみましょう。 大規模な言語モデルがどれほど素晴らしいものであっても、 設計上、 信頼できる知識モデルとして機能するのに最適ではない可能性があります。 これらの言語モデルは確かに膨大な量の知識を獲得しますが、 それは直接の学習目的ではなく副産物としてです。 その結果、幻覚効果や常識の欠如などの望ましくない副作用が生じます。 さて、対照的に、人間の学習は決して次にどの単語が来るかを予測することではなく、実際には世界を理解し、世界がどのように機能するかを学ぶことです。おそらくAIもそのように教えられるべきでしょう。
11:29
そこで、より直接的な常識知識の獲得を目指して、 私のチームは潜在的な新しいアルゴリズムを調査してきました。これには、ここに示されているように 、大きすぎて画面に収まりきらなかった非常に大規模な言語モデルを使用できる記号知識の蒸留が含まれます ディープ ニューラル ネットワークを使用して、それをはるかに小さな常識的なモデルにまで圧縮します。そしてそうすることで、人間が検査可能な記号的な常識知識表現もアルゴリズム的に生成し、人々が検査して修正したり、他の神経常識モデルをトレーニングするために使用したりすることもできます。
12:11
もっと広く言えば、私たちは物理的、 社会的、視覚的な常識から心の理論、規範、道徳に至るまで、この一見不可能に見える常識の巨大なパズルに取り組んできました 個々の作品は風変わりで不完全に見えるかもしれませんが、一歩下がってみると、これらの作品が人間の経験や常識と呼ばれるタペストリーに織り込まれているかのようです。
12:38
私たちは現在、AI が人間と比較して独自の長所と短所を備えた新しい知的種のような 新しい時代に突入しています この強力な AI を持続可能で人間らしいものにするためには  AI に常識、規範、価値観を教える必要があります。
13:01
ありがとう。
13:02
(拍手)
13:10
クリス・アンダーソン: 見てください。 イェジンさん、ちょっと待っててください。 非常に興味深いですね、 この常識的な考え方。 私たちは皆、これから何が起こるとしても、これを本当に望んでいることは明らかです。 でも、理解できるように助けてください。 そうですね、私たちは子供の学習モデルを作りました。 より多くのインプットや人間からのフィードバックを蓄積する以外に、子供はどのようにして常識を獲得するのでしょうか? 他には何があるの?
13:39
Yejin Choi: 基本的に、欠けているものがいくつかありますが、 その 1 つは、たとえば、 仮説を立てて実験を行い、 世界と対話してこの仮説を発展させる能力です。 今日の言語モデルとは対照的に、私たちは世界がどのように機能するかについての概念を抽象化し、 それから私たちが真に学ぶ方法です。 そのうちのいくつかは、実際にはまだそこに到達していません。
14:05
CA:建物を一度に 1 フィートずつ拡張しても 月には到達できないという例えを使っていますね。しかし、私たちのほとんどがこれらの言語モデルについて経験したことは、 一度に 1 フィートではありません。 まさに息を呑むような加速です。 こういったことが進んでいるペースを考えると、次のレベルに進むたび に、知恵や知識のようなものがもたらされるようです。
14:29
YC: このスケールアップ によって実際に全体的なパフォーマンスがどれほど向上するかは注目に値するということに完全に同意します。 つまり、コンピューティングとデータの規模に応じて実際の学習が行われます。
14:45
しかし、学習の質はまだ十分ではありません。 そして問題は、 単に規模を拡大するだけでそこに完全に到達できるかどうかはまだわかりません。 それができないとしたら、他に何があるかという疑問が生じます。そして、たとえそれができたとしても、少数の人だけが作成して所有できる、非常に非常に大規模な AI モデルを持つというこのアイデアを私たちは好むでしょうか?
15:14
CA: つまり、OpenAI が「あなたの仕事に興味があるので、 私たちのモデルの改善に協力してほしい」と言った場合、あなたがやっていること と彼らが構築したものを組み合わせる方法はありますか?
15:27
YC: 確かに、私が思い描いているものは、 ディープ ニューラル ネットワークの進歩の上に構築する必要があります。 そして、それは、ある程度の規模のゴルディロックスゾーンがあるかもしれません ... ちなみに、私は小さければ小さいほど良いとは思っていません。 おそらく適切な規模が存在しますが、それを超えた 勝利のレシピは別のものである可能性があります。 したがって、ここではいくつかのアイデアの統合が重要になります。
15:55
CA: Yejin Choiさん、お話をありがとうございました。
ブログをメールで購読

メールアドレスを記入して購読すれば、更新をメールで受信できます。

4人の購読者に加わりましょう
おすすめの記事