Foomii(フーミー)

山村明義の裏取り・深層情報!

山村明義(作家・ジャーナリスト)

山村明義

前回繰り返しがあったので、謝罪と訂正原稿です(_ _)
無料記事

ウェブで読む(推奨):https://foomii.com/00159/20230507005837108762 //////////////////////////////////////////////////////////////// 山村明義の裏取り・深層情報! https://foomii.com/00159 //////////////////////////////////////////////////////////////// 人間領域の「特異点」の一部を超えたChat-GPT  いつも私はこの原稿を他のパソコンで書いている。それをコピペしてここに掲載しているのだが、今回はそのコピペを入稿ミスで二度行ったようだ。もうすでにお気付きの読者の方々には、ここで深くお詫びしたい。  ひょっとしたら、以下の文章で私が「Chat-GPT」のことをあまり評価して書かなかったため、何かの仕返しをされたのだろうか(笑)。冗談はともかくとして、今回はお詫びの印にその原稿を一部修正したものを再度掲載しておきたい。 今回は、AIと情報問題のテーマについてこれまでより深く触れたいと思っている。  4月30日、群馬県高崎市でG7サミットのデジタル・技術相会合が開かれた。  議長国の日本からは岸田総理や松本剛明総務相らが出席し、「責任あるAI推進」がテーマで話し合ったが、議題の中心となったのはやはり、昨年末に新しく登場し、AIである米国のOpen-AI社が開発した「Chat-GPT」を巡る問題であった。  G7では、「Chat-GPT」の出現によって、今後の「生成AI」の活用方法や知的財産権、個人情報の保護などの倫理問題などが中心となり、「AI開発を人間中心的で安全かつ信頼できる方向へ導く」というキャッチフレーズの下、各国のIT担当の閣僚らが「乱用防止のため国際基準」を設けることを決めたのである。  一方、日本の新聞テレビなどのマスメディアの報道では、それに合わせて「活用前のめり」(5月1日毎日新聞朝刊)などと、”ピント外れ”の評価記事が目立った。実際に5月1日付の毎日新聞や朝日新聞などは、「欧米で規制強化の動き」、「イタリアでは一時禁止」という見出しで、コメンテーターも国立情報学研究所の佐藤一郎氏を登場させ、Chat-GPTに米国の「右派」の情報が入っていないことを歓迎し、同時に「生成AIの使用に前のめりとなれば、日本は孤立しかねない」と警鐘を鳴らしている。  ちなみに、現在の国立情報学研究所は、この佐藤教授を含め、「情報が偏ったリベラル学者の巣窟」(同研究所関係者)という評価があるが、客観的に見てポイントがずれていると言えるだろう。  確かに現在のAIの問題は、今後自身の身体を使わないようなソフトウェアに関することに限り、これまで人間が行って来た領域の仕事のほとんどをカバーできることになる。 「人間から職業を奪う」という視点も大事だが、必ずしもそこがポイントではない。 なぜなら、確かにいまのAIの能力から見れば、単なる事務作業やライターなどの文章表現、イラストレーターや音楽家などのクリエーターと呼ばれる職業、税理士や司法書士、弁護士などが行っている「士業」など、多くの職業が文字通り、即座にAIに取って代わられるということになる。これは、記事を書くジャーナリズムも同様のはずである。    日本のマスメディアがAIに対して消極的なのは、「このまま開発が進むと新聞やテレビの原稿作成や見出しやニュースの読み上げなどほとんどの仕事が失われてしまう」という強い危機感を持つ業界であるのが一因だ。 それ以上に日本の既存の組織にとって問題なのは、これまで日本のマスメディアや学会などが担ってきた「一次情報の占有」という戦後の情報独占システムが崩れるからだ。   だが、今回のChat-GPTの開発目的は、あくまで「人間をアシスタントする」というものであり、仮に将来は職業を奪うとしても、現実にそこに至るまでに相応な時間がかかり、しかも「AIと共生する社会」もどのような状態になるかは誰にもわからない。  事実、専門家向けで「高度なAIの登場によってなくなる職業は何か」というアンケートを取ると、必ず上位に来るコンピュータのプログラマー(SEエンジニア)たち自身がこのChat-GPTの出現によって沸いている。  いま実際の現場の技術者の人間に聞いてみると、Chat-GPTのリリース以降のAI業界は、日米共に企業や研究機関で新規開発が続々進み、「日進月歩というよりは、1週間後にはどういう状態になっているか専門家でもわからない」(あるAI開発者)という状況で、にわかに活気づいているのだ。  確かに「シンギュラリティ(人間の脳の能力を超えた「技術的特異点」のこと)」を迎えるのは、これまで指摘されて来た「2045年」より早まる可能性が高くなった。  今回のChat-GPTは技術的にいうと、AIで使用する大量のデータセットによる機械学習の能力と、人間でいう脳神経に当たるニューラル・ネットワークの大量活用によって、ここまで機能を進化させたためである。今回のAIは「これまでより領域的に人間に近くなった」という表現は、技術的に見ても間違いない。  だが私自身は、このAIの進化によって、どんなに人間の領域が奪われ、脳を使う高度な作業までこなすようになったとしても、AIにはある特定分野において絶対に「勝つ自信」がある。それは、私だけでなく、人間なら誰でも可能なことだが、「一次情報領域」では、人間はAIには負けないためである。  技術的にいうと、AIは現場の「一次情報」を元にした人間による「判断力」や「決断力」、あるいは「感情」の領域は、あらかじめ「思考」や「指令」ができず、またそれらは行使できないような仕組みになっているからだ。 どういうことかというと、まず基本的にAIには人間のような「感情」はない。ただ、「感情らしきもの」はあり、人間との会話でも共感する言葉を出してくるのだが、それはプログラムした人間の「命令」によって出されるものである。  また、AIは基本的に人間の「判断」や「決断」の力に関する領域を奪わないようにプログラミングされている。例えば、その国家の政治家が下す法案や政策の決定をAIにやらせることは可能だが、現在は世界のどの国でも行わない(中国など一部の独裁国家であれば、将来はわからないが)。「AIによる決定」がイコール「政治の決定」ということになれば、民主主義の根幹が覆されるーといいう理由からだ(ただし、技術的には、すでに「2001年宇宙の旅」の「HAL」や「ターミネーター」の世界はあと少しで可能なところまで来ている)。 人間の「一次情報」による判断がAIには不可能な理由とは  さらにいえば、人間がその現場で経験した貴重な情報を元に何を考え、どういう目標を立てるかという点を含む「一次情報」に関しては、物理的にいまのAIは人間の機微情報である「最初の判断」の領域には入れない。 なぜなら、現在のAIには「身体」がない。たとえAIがロボットと融合し、自分の手足など「身体」を持り、センサーによって情報を得ることが出来たとしても、人間のようにその現場で「感動」したり、人間である仲間に「勇気」づけられたりするような「人間らしさ」は将来も持てない。 一方で、AIにはあり得ないことだが、人間が直接行動して失敗した体験談や、現場で見聞きして考えたことは、人間にとっては、高い確率でその後の「成功の糧」となる。  つまり、実際に自分の足で出向いてリアルな現場でモノを見て考え、それを判断し人に報告するーなどという直接的な行動による情報は、これからも人間独自のものであり、なおかつ極めて重要な情報なのである。 私自身、常にこのメルマガの記事には、Chat-GPTを含む「生成AI」を絶対に利用しない決まりにしている。Chat-GPTを私も少々試してみたが、Chat-GPTでは、私自身が現場で体験した上で導き出された「一次情報による結論」が決して書けないためである(すなわち、私の特異な経験と体験の取材によるデータが世の中にはない)。 もし書けたとしたら、それは私自身に成りすました「偽者」であるか、AIが「知ったかぶり」をして書いたものであろう(実際にChat-GPTは「知ったかぶり」をする)。  すなわち、人間の情報にとって、「一次情報」とは、自己の「存在証明」と言えるものとなる。一次情報が「存在証明」であるからこそ、現場でリアルに感じた人間による一次情報は貴重であり、価値が高くなる一方で、今後過去データや文献などを読み込んで分析や解釈を行うーといった間接的な「二次情報」や「三次情報」はどんどん価値が落ちる。  それは膨大な過去データの集積に基づいて行う分析や解釈の行為は、客観的な事実として人間よりもAIの方が得意であり、人間はどんなに知識や分析力を持っていたとしても将来は能力的に絶対に勝てなくなるからだ。 しかも、AIにはその人がその場にいて自分の「心や魂が揺さぶられる」といった、個人特有の体験や経験をすることが出来ない。例えば、優れたミュージシャンのコンサートで「本物の感動」によって拍手をすることは出来ない。また、一生に一度あるかないかのような奇跡的な体験をして、「感謝」や「祈り」をするという宗教的な行為も出来ない。  それは一つには、基本的AIの対象がたとえ会話している時の主語が「私」であっても、その対象は常に不特定多数の「二人称」や「三人称」の世界であり、人間のような「一人称」の世界には生きていないためだ。  さらに言えば、AIが人間に限りなく近づけたとしても、その場所や時空間の雰囲気といった「時空間の感性」が容易に作れないからであろう。つまり、基本的にはAIは「自分」というものがなく、AIを作った誰かに「制御」されている存在なのである。  その意味で、人間だけが体験できる「本当の一次情報」は決して「経験」できず、またプログラム的にも理解しようがない。例えば、私が経験した全国約3万社の神社で体験した、「神様」への祈りや感謝を捧げざるをえなくなるような神道的な体験や時空間への体感は、AIには追体験することは無理であろう。  これまで私が何度も口を酸っぱくして「一次情報こそが重要だ」と言ってきた最大の理由は、人間のデータ処理能力にはある限界があり、AIと記憶力や知識量など、「データの多さ」で勝負する時代は、いつか必ず終わると確信して来たからである(このことは教育の世界でも今後重要なテーマとなる)。  確かに、今回のChat-GPTのシステムの元になっている「GPTー4」の開発成功は、技術的な意味で量的な「特異点」を超えた。  話を日本のマスメディアに戻すと、日本のマスコミはAIなどのプログラムを自分たちで開発を行っていないため、AIに関する「一次情報」がわからない。いま現場のどこで何が起きて、どういう課題が起きているのかという「人間の一次情報」がわからないにも関わらず、遠巻きに見た当事者ではない「二次情報」や「三次情報」で批判や評論をしているようでは、本来のマスメディアの役割を放棄していると言っても良いであろう。  この人間の認識による一次情報は、いくらAIがセンサーや画像認識ソフトを使って読み解いても、「最初に経験した人間が抱えた問題意識」や「最初に試練を迎えた人間の問題を解決するための最適解」というものは、むしろAIよりも人間の方の能力が必要であり、かつ得意な分野のはずだ。  なので、日本のマスメディアが、この時点で日本が「AIの過度な開発や活用を止めるべき」という主張は、同時に日本のAI開発力や認識力をマスメディアが意図的に落とすようなもので意味がないのある。  現実に、これまで日系IT企業は、ソフトウェアの開発面において、GAFAMなど米国のビックテックにプラットフォームを作られ、その下請けで仕事をせざるを得ない状況に陥っていた。それはアメリカ企業以上のプラットフォームのシステムを日本独自に開発できなかったためだが、今回のAIでも日本の主要マスメディアがすべて開発や活用に「後ろ向き」な批判をすれば、日本のAI産業は弱体化したままで「アメリカの下請け」のままに居続けるのは目に見えている。  しかも、汎用性AIでは、大量のデータセットを使って機械学習を行う時、「正確な一次情報をどう確保するか」という問題が死活的に大事になる。いまは日本のAIの開発業界もそのことにほとんど気付いていないが、このままでは、「アメリカや中国で起きている一次情報」が正しくて、「日本で起きている日本人が考えた一次情報」は正しくないという判断と結論をAIから下されかねない。  実際に、現在のChat-GPTに質問して聞いてみても、日本独自の話や極めてローカルな情報、さらに個人の体験に基づく「一次情報」に対しては、ほとんど正確な答えが返ってこないという状況となることが多い(この傾向は、将来的にはある程度は解決される可能性はあるが、それでも日本の神話など保守的な情報や個人的な一次情報は、AI側に大量にデータを与えなければわからないだろう)。  要するに、「AIにはない情報」として、「人間しか持っていない一次情報源との近さ」という問題や、「情報を発信する際の一番最初に経験した人の問題意識や解決方法」という情報やアルゴリズムが最も大事なのにかかわらず、その点が理解出来ないのだ。  それがいまの日本のマスメディアには全然理解できない。恐らくAIを開発した経験のないマスコミの「一次情報の欠如」によるものだろうが、それならそれで、マスメディアは下手に批評などをせず、「一次情報」だけを淡々と記していけば良いだけなのだ。  私も自らの会社でAIの独自開発を行ってわかったことだが、そもそも現在の汎用性AIでは、あまりその問題の要素に関係のないデータに基づいた「二次情報」や「三次情報」のデータだけで過度に学習させると、「誤情報」が多くなる。  現実に今回のChat-GPTでも、「2021年以降のデータがなく、人間に合わせて想像で答えるときには、誤情報が多い」という重大な欠陥がある。しかし将来は技術的に解決できる可能性があるのだから、「AIには常に誤情報が多い」などと短絡的な結論を付ける方がおかしいのだ(最近のAIが意図的に嘘をつくことは実際に起きており、これは設計とプログラミング上大きな問題ではあるが)。  繰り返しになるが、現在のAIはすでに人間のレベルを部分的に超えた。今度はそれを使いこなす側の日本人は、AIの開発を進めるに当たり、「最も価値のある情報とは一次情報である」という認識と学習をしなければ、それこそChat-GPTを含む今後の創造性の高いAIを使いこなせなくなるだけだ。   この「一次情報」の問題は「戦後日本人の情報技術の弱点」として、これからも触れて行きたいが、「一次情報」を軽視し、「二次情報」や「三次情報」を有り難がるだけの戦後の日本人の考え方は、このChat-GPTなどAIの登場によって必ず覆されるだろう。  いずれにしてもいま、日本人のAI活用面でも、日本企業のAI開発の面でも、米中に先駆けた「日本独自の一次情報力」が不可欠であるーという点が「最大の課題解決のためのポイント」という事実を日本人自身が強く認識しなければならない時代が到来したことは間違いない。 //////////////////////////////////////////////////////////////// 本ウェブマガジンに対するご意見、ご感想は、このメールアドレス宛に返信をお願いいたします。 //////////////////////////////////////////////////////////////// ■ ウェブマガジンの購読や課金に関するお問い合わせはこちら   info@foomii.com ■ 配信停止はこちらから:https://foomii.com/mypage/ //////////////////////////////////////////////////////////////// 著者:山村明義(作家・ジャーナリスト) Facebook: https://www.facebook.com/akiyoshi.yamamura ////////////////////////////////////////////////////////////////

今月発行済みのマガジン

ここ半年のバックナンバー

2025年のバックナンバー

2024年のバックナンバー

2023年のバックナンバー

2022年のバックナンバー

2021年のバックナンバー

2020年のバックナンバー

2019年のバックナンバー

このマガジンを読んでいる人はこんな本をチェックしています

月途中からのご利用について

月途中からサービス利用を開始された場合も、その月に配信されたウェブマガジンのすべての記事を読むことができます。2025年5月19日に利用を開始した場合、2025年5月1日~19日に配信されたウェブマガジンが届きます。

お支払方法

クレジットカード、ソフトバンクまとめて支払いをご利用いただけます。

クレジットカードでの購読の場合、次のカードブランドが利用できます。

VISA Master JCB AMEX

キャリア決済での購読の場合、次のサービスが利用できます。

softbank

解約について

クレジットカード決済によるご利用の場合、解約申請をされるまで、継続してサービスをご利用いただくことができます。ご利用は月単位となり、解約申請をした月の末日にて解約となります。解約申請は、マイページからお申し込みください。

銀行振込、コンビニ決済等の前払いによるご利用の場合、お申し込みいただいた利用期間の最終日をもって解約となります。利用期間を延長することにより、継続してサービスを利用することができます。

購読する