… … …(記事全文5,741文字)
━━━━━━━━━━━━━━━━━
山田順の「週刊:未来地図」
No.784 2025/07/08
AIはウソをつき、罰を与えると人間を騙す!
「共食い」で最終的に崩壊する!
━━━━━━━━━━━━━━━━━
いまや、なにもかもAIに頼る時代になった。私も、調べ物をしたり、原稿を書いたりするときに、AIを使うことが多くなった。
しかし、最近問題になっているのが、AIがウソをつき、人を騙すようになったこと。また、AI同士が「共食い」を始めて崩壊してしまうことだ。
いったい、どうなっているのか?
私は専門家ではないので、的確な指摘はできない。ただ、憂いているだけだが、これまでの報道をまとめてみることにした。
[目次] ─────────────
■なぜ、生成AIはウソをつくのだろうか?
■深層学習で起こる「共食いハルシネーション」
■ハルシネーションで実在しない裁判例が
■ハルシネーションが社会に与える悪影響
■共食いハルシネーションの先にあるAIの崩壊
■「ゴミを入れればゴミが出る」という当然の話
■AI自身に検索をさせてAIの崩壊を防ぐ
■課題を正しく解かず、ウソやズルを選択
■罰を与えたらさらにごまかす方法を考えついた
■AIの未来はディストピアか? ユートピアか?
─────────────────
■なぜ、生成AIはウソをつくのだろうか?
「ハルシネーション」(Hallucination)と言う言葉が、AIユーザーの間で使われている。もともとは、「幻覚、幻影」という意味だが、AI(生成AI)がユーザーの質問に対して、事実とは異なる情報を利用して回答をつくることを言い、「もっともらしいウソ」といった意味合いだ。
つまり、AIはウソをつくのだ。
では、なぜAIはウソをつくのだろうか?
それは、AIが正しい回答をするようにできていないからだ。生成AIは、膨大なデータの中から、質問に対して確率的に最も適切と思われる単語をつなぎ合わせて文章をつくる。それがAIの回答であり、そこにはファクトチェックのような機能がない。
ChatGPTのような生成AIは、はあくまでも、最適な単語をつなぎ合わせているだけ。したがって、一見すると正しそうに見える文章の中に、間違い、ウソが紛れ込むことになる。
■深層学習で起こる「共食いハルシネーション」
ハルシネーションは、多くの場合、AIが「共食い」することで起こるという。これを「共食いハルシネーション」と呼んでいる。どういうことかと言うと、最初のうちは、AIはクオリティの高いデータを深層学習(ディープラーニング)して回答を出すが、次第にほかのAIが生成したデータを学習し始める。
そうして、それが増えるに連れて、回答に偏りが生じるようになる。つまり、クオリティが劣化して、誤りもウソも生成されてしまうのだという。
ディープラーニングをする生成AIは、大量のデータからパターンや規則性を学び、新しいデータを生み出すようにつくられている。このプロセスにおいて、クオリティの低いデータや偏ったデータが紛れ込むと、AIはその影響を受けて、出力の精度や信頼性が低下してしまうのだという。
AIは自分で学習するが、学習するデータが間違っていれば、それを学習してしまい、それが増えれば増えるほどハルシネーションを起こすのだ。
■ハルシネーションで実在しない裁判例が
ハルシネーションの例として挙げられるのは、例えば生成AIに「1980年代に人気のスマホは何?」と聞いたときに、AIがあるスマホのモデルを回答するというようなことだ。
スマホは1980年代には存在していないので、これはAIの捏造だ。
ハルシネーションが裁判で問題にになったケースもある。「スティーブン・シュワルツ氏のケース」として有名なケースで、弁護士のスティーブン・シュワルツ氏が、訴訟のためにChatGPTを使用して法的調査を行うと、6件の判例が示された。そのため、それをもって法廷で弁論を行ったところ、後にその判例が実在しないものであることが判明したのだ。
ChatGPTは実際には存在しない裁判を捏造したのである。このことが判明し、シュワルツ氏は裁判所から5000ドルの罰金を科された。
■ハルシネーションが社会に与える悪影響
いま、AIのハルシネーションが、社会に深刻な悪影響を与えようとしている。その例を大別すると、次の3つが挙げられる。
(1)フェイクニュースの拡散
生成AIを用いることで、て、いまや、本物と見紛うようなニュース記事や動画が自動生成されるようになった。ありもしない選挙演説、ありもしない戦争被害などが大量に拡散されればどうなるか。
一般人のリテラシーでは判別は不可能だから、意図ある人間、組織に利用されたら、民主主義など崩壊する。
(2)偏った情報による差別、損害
就職、転職などの採用に、AIを用いて応募者の選考を行う企業が増えている。しかし、AIが学習するデータが偏っていれば、特定の属性を持つ人々は不当な扱いを受けることになる。また、企業や自治体がハルシネーションによって生成された誤情報を利用してしまうと、戦略設計の破綻、業務効率の低下、経済的な損害を被る。
(3)著作権侵害、人権侵害
生成AIは、絵画、音楽、小説などを自動生成することができる。しかし、共食いハルシネーションによって生成されるコンテンツは、既存の作品の模倣に過ぎず、オリジナリティのある作品ではない。また、元になる情報によっては、著作権が侵害される。
さらに、ディープフェイクなどの技術が悪用され、有名人などのニセ動画がつくられるので、重大なプライバシーの侵害、人権侵害を招く。