Foomii(フーミー)

山田順の「週刊:未来地図」 ― 日本は、世界は、今後どうなっていくのでしょうか? 主に経済面から日々の出来事を最新情報を元に的確に分析し、未来を見据えます。

山田順(ジャーナリスト・作家)

山田順

山田順の「週刊:未来地図」No.784:AIはウソをつき、罰を与えると人間を騙す! 「共食い」で最終的に崩壊する!


━━━━━━━━━━━━━━━━━

山田順の「週刊:未来地図」                 

No.784 2025/07/08

AIはウソをつき、罰を与えると人間を騙す!

「共食い」で最終的に崩壊する!

━━━━━━━━━━━━━━━━━ 

  いまや、なにもかもAIに頼る時代になった。私も、調べ物をしたり、原稿を書いたりするときに、AIを使うことが多くなった。

 しかし、最近問題になっているのが、AIがウソをつき、人を騙すようになったこと。また、AI同士が「共食い」を始めて崩壊してしまうことだ。

 いったい、どうなっているのか? 

 私は専門家ではないので、的確な指摘はできない。ただ、憂いているだけだが、これまでの報道をまとめてみることにした。

[目次]  ─────────────

■なぜ、生成AIはウソをつくのだろうか?

■深層学習で起こる「共食いハルシネーション」

■ハルシネーションで実在しない裁判例が

■ハルシネーションが社会に与える悪影響

■共食いハルシネーションの先にあるAIの崩壊

■「ゴミを入れればゴミが出る」という当然の話

■AI自身に検索をさせてAIの崩壊を防ぐ

■課題を正しく解かず、ウソやズルを選択

■罰を与えたらさらにごまかす方法を考えついた

■AIの未来はディストピアか? ユートピアか?

─────────────────

 

■なぜ、生成AIはウソをつくのだろうか?

 

 「ハルシネーション」(Hallucination)と言う言葉が、AIユーザーの間で使われている。もともとは、「幻覚、幻影」という意味だが、AI(生成AI)がユーザーの質問に対して、事実とは異なる情報を利用して回答をつくることを言い、「もっともらしいウソ」といった意味合いだ。

 つまり、AIはウソをつくのだ。

 

 では、なぜAIはウソをつくのだろうか?

 それは、AIが正しい回答をするようにできていないからだ。生成AIは、膨大なデータの中から、質問に対して確率的に最も適切と思われる単語をつなぎ合わせて文章をつくる。それがAIの回答であり、そこにはファクトチェックのような機能がない。

 

 ChatGPTのような生成AIは、はあくまでも、最適な単語をつなぎ合わせているだけ。したがって、一見すると正しそうに見える文章の中に、間違い、ウソが紛れ込むことになる。

 

■深層学習で起こる「共食いハルシネーション」

 

 ハルシネーションは、多くの場合、AIが「共食い」することで起こるという。これを「共食いハルシネーション」と呼んでいる。どういうことかと言うと、最初のうちは、AIはクオリティの高いデータを深層学習(ディープラーニング)して回答を出すが、次第にほかのAIが生成したデータを学習し始める。


 そうして、それが増えるに連れて、回答に偏りが生じるようになる。つまり、クオリティが劣化して、誤りもウソも生成されてしまうのだという。

 

 ディープラーニングをする生成AIは、大量のデータからパターンや規則性を学び、新しいデータを生み出すようにつくられている。このプロセスにおいて、クオリティの低いデータや偏ったデータが紛れ込むと、AIはその影響を受けて、出力の精度や信頼性が低下してしまうのだという。

 

  AIは自分で学習するが、学習するデータが間違っていれば、それを学習してしまい、それが増えれば増えるほどハルシネーションを起こすのだ。

 

■ハルシネーションで実在しない裁判例が

 

 ハルシネーションの例として挙げられるのは、例えば生成AIに「1980年代に人気のスマホは何?」と聞いたときに、AIがあるスマホのモデルを回答するというようなことだ。

 スマホは1980年代には存在していないので、これはAIの捏造だ。

 

 ハルシネーションが裁判で問題にになったケースもある。「スティーブン・シュワルツ氏のケース」として有名なケースで、弁護士のスティーブン・シュワルツ氏が、訴訟のためにChatGPTを使用して法的調査を行うと、6件の判例が示された。そのため、それをもって法廷で弁論を行ったところ、後にその判例が実在しないものであることが判明したのだ。

 

 ChatGPTは実際には存在しない裁判を捏造したのである。このことが判明し、シュワルツ氏は裁判所から5000ドルの罰金を科された。

 

■ハルシネーションが社会に与える悪影響

 

 いま、AIのハルシネーションが、社会に深刻な悪影響を与えようとしている。その例を大別すると、次の3つが挙げられる。

 

 (1)フェイクニュースの拡散

 生成AIを用いることで、て、いまや、本物と見紛うようなニュース記事や動画が自動生成されるようになった。ありもしない選挙演説、ありもしない戦争被害などが大量に拡散されればどうなるか。

 一般人のリテラシーでは判別は不可能だから、意図ある人間、組織に利用されたら、民主主義など崩壊する。

 

(2)偏った情報による差別、損害

 就職、転職などの採用に、AIを用いて応募者の選考を行う企業が増えている。しかし、AIが学習するデータが偏っていれば、特定の属性を持つ人々は不当な扱いを受けることになる。また、企業や自治体がハルシネーションによって生成された誤情報を利用してしまうと、戦略設計の破綻、業務効率の低下、経済的な損害を被る。

 

(3)著作権侵害、人権侵害

 生成AIは、絵画、音楽、小説などを自動生成することができる。しかし、共食いハルシネーションによって生成されるコンテンツは、既存の作品の模倣に過ぎず、オリジナリティのある作品ではない。また、元になる情報によっては、著作権が侵害される。 

 さらに、ディープフェイクなどの技術が悪用され、有名人などのニセ動画がつくられるので、重大なプライバシーの侵害、人権侵害を招く。

 

… … …(記事全文5,741文字)
  • この記事には続きがあります。全てをお読みになるには、購読が必要です。

    購読中の読者はこちらからログインすると全文表示されます。

    ログインする
  • 価格:214円(税込)

    今月配信済みの記事をお読みになりたい方は定期購読を開始ください。
    お手続き完了と同時に配信済み記事をお届けします。

    定期購読する

今月発行済みのマガジン

ここ半年のバックナンバー

2025年のバックナンバー

2024年のバックナンバー

2023年のバックナンバー

2022年のバックナンバー

2021年のバックナンバー

2020年のバックナンバー

2019年のバックナンバー

2018年のバックナンバー

2017年のバックナンバー

2016年のバックナンバー

2015年のバックナンバー

2014年のバックナンバー

2013年のバックナンバー

2012年のバックナンバー

このマガジンを読んでいる人はこんな本をチェックしています

月途中からのご利用について

月途中からサービス利用を開始された場合も、その月に配信されたウェブマガジンのすべての記事を読むことができます。2025年7月19日に利用を開始した場合、2025年7月1日~19日に配信されたウェブマガジンが届きます。

利用開始月(今月/来月)について

利用開始月を選択することができます。「今月」を選択した場合、月の途中でもすぐに利用を開始することができます。「来月」を選択した場合、2025年8月1日から利用を開始することができます。

お支払方法

クレジットカード、銀行振込、コンビニ決済、d払い、auかんたん決済、ソフトバンクまとめて支払いをご利用いただけます。

クレジットカードでの購読の場合、次のカードブランドが利用できます。

VISA Master JCB AMEX

キャリア決済での購読の場合、次のサービスが利用できます。

docomo au softbank

銀行振込での購読の場合、振込先(弊社口座)は以下の銀行になります。

ゆうちょ銀行 楽天銀行

解約について

クレジットカード決済によるご利用の場合、解約申請をされるまで、継続してサービスをご利用いただくことができます。ご利用は月単位となり、解約申請をした月の末日にて解約となります。解約申請は、マイページからお申し込みください。

銀行振込、コンビニ決済等の前払いによるご利用の場合、お申し込みいただいた利用期間の最終日をもって解約となります。利用期間を延長することにより、継続してサービスを利用することができます。

購読する