■□■□■□■□■□■□■□■□■□■□■□■□■□■□■□ <1ヶ月にビジネス書5冊を超える知識価値をe-Mailで> ビジネス知識源プレミアム(660円/月:税込):Vol.1345 <Vol.1345号:日曜増刊:AIとの共生を目指して(後編2)> 2023年6月11日:深層学習型AIがもたらす仕事と生活の革命 ウェブで読む:https://foomii.com/00023/20230611120751110157 ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ ホームページと無料版申し込み http://www.cool-knowledge.com 有料版の申込み/購読管理 https://foomii.com/mypage/ 著者へのメール yoshida@cool-knowledge.com 著者:Systems Research Ltd. Consultant吉田繁治 ■□■□■□■□■□■□■□■□■□■□■□■□■□■□■□ 有料版の正刊で、自然言語を使う生成型AIについて、前編と後編を送りました。書き残したこともあったので、後編2として、有料版・無料版共通の増刊にします。 オープン型のChatGPTが昨年11月に公開されて以来、1週間で1億人からアクセスがあったという。 日本からは23年4月に1日に746万回アクセスという。日本の利用者は100万人くらいでしょうか。日本はアクセスのシェアで6.6%くらい。世界では日本の15倍の、1億1200万回くらいのアクセスでしょう。話題は沸騰し、首脳会談でも言及の対象になっています。 利用者では、大学生と教職員42%、会社員・会社役員34%、自営業15%、公務員11%、派遣10%、医師・医療5%、専業主婦が4%、パート・アルバイトが2%という(NRIの調査)。教育的な利用が筆頭に来ています。内容からして当然の結果でしょう。 世界の行政は、ChatGPT風の大規模言語データベースを行政の文書管理に導入します。行政は文書作成だと言えるくらい量が多い。会社の、行政関連の事務も同じです。紙のFAXはどの国より速く普及しましたが、裏腹にペーパーレスは遅れています。 実際に使用してみます。質問が当方、回答が無料版のChatGPT3.5です。 chatGPTのスーパーコンピュータを動かすには、1日に1億円の電気代がかかっています。1年で約400億円。すごい電気使用量です。サイトはここです↓。左下のTry ChatGPTのボタンを押すと、Send a message(メッセージを送ってください)という入力欄が表示されます。質問は日本語でOKです。意味をとって答えてくれます。 https://openai.com/blog/chatgpt うまく利用するには、ChatGPTが、どんな根拠と論理で回答を作っているのか、知っておかねばならない。本稿では、ここを追求します。 ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ <Vol.1345号:日曜増刊:AIとの共生を目指して(後編2)> 2023年6月11日:有料版・無料版共通 【目次】 ■1.吉田の問い:あなたはどうやって文章を作っているのですか ■2.当方のコメント ■3. 問題点:ChatGPTは約50%、不正確な答えをする ■4.回答へのコメント ■5.教科書を憶える教育の日本では、危険性がある ■6日本の産業、政治、思想にある根本問題 ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ ■1.吉田の問い:あなたはどうやって文章を作っているのですか <ChatGPTの回答: 私はGPT-3.5アーキテクチャに基づく大規模な言語モデルであるChatGPTです。私の文章作成プロセスは、トレーニングフェーズで大量のテキストデータを学習し、それを元に、文章生成の能力を開発することにあります。 トレーニングでは、様々なソースから収集された文書やウェブページ、書籍、記事などのテキストデータが使用されます。これらのテキストデータをもとに、モデルは、文章のパターンや文法、意味関係、一般的な知識を学習します。 具体的には、トレーニング時には、モデルは与えられたテキストの一部を見て、次の単語やフレーズを予測します。これを繰り返すことで、モデルは、言語の統計的なパターンを学習し、文章の流れや文脈に基づいて次の単語を予測する能力を獲得します。 文章生成時には、モデルは与えられた入力文脈を解釈し、その文脈に基づいて続く文章を生成します。モデルは多くの場合、与えられた入力文脈に基づいて意味的に続く文章を生成するように訓練されています。ただし私が生成する文章は、学習データに基づいて統計的に生成されるため、必ずしも正確な情報や適切な回答を提供するわけではありません。 また、私は文章を生成する際に与えられた文脈を考慮しますが、それに加えて、過去の対話履歴や質問文の内容なども考慮することができます。これにより、より応答の一貫性や適切性が向上します。 要するに、私はトレーニング時に学習した言語のパターンや知識を活用し、与えられた文脈に基づいて文章を生成する能力を持つ言語モデルです。ただし私が生成する文章は統計的に生成されるため、常に正確な情報や完璧な文章を提供できるわけではありません。(回答終わり)> 言葉は滑らかです。ポイントは、<トレーニング時(=学習のとき)には、モデル(chatGPT)は与えられたテキストの一部を見て、次の単語やフレーズを予測します>という部分です。 文章の次に続く単語の確率を、サンプル数を増やしていくベイス統計で計算して、パラメータ(媒介の変数)にしているのです。 ■2.当方のコメント 「アーキテクチャー(建築的な構造)」とは、プログラムの整合的な集合です。「言語モデル」とは、単語と文法に従って人間に意味を伝える文章を作るルールの束のことです。 単語には、意味のルール(枠)があります。文法には、その単語のつなぎ方が意味を生むためのルールがあります。われわれが英語を学ぶとき、単語の意味と文章の作り方のルールである文法を、訓練して憶えることと同じです。 ChatGPTは、学習した単語の意味と、単語を連ねる文法の、確率的な辞書を持っていて、問い(=プロンプト)に対してもっとも適当な確率になる文章を書いていると考えていい。 コンピュータが処理できるのは、真偽の質的なものではなく、量化された数字です。 「トレーニングフェーズで大量のテキストデータを学習」とは、インターネット内の、テキストを大量に自動学習して、データベースにしているということです。 幼児が2歳くらいから、母の言葉から自然に繰り返して具体物と単語の関係と、その単語を意味があるように並べる文法を学んでいくことと同じです。 ChatGPTはこのとき、人の脳の神経回路を模したニューロ・ネットワークの構造で、面白いことをしています。 1)「私はりんごが好きです」という一連の文章のとき、まず、私/は/りんご/が/好き/です、という6個の単語に分解して、学習します。 2)類似の文章を、大量に、自動学習します。 ◎機械の中では、「私」の次に来た単語「は」が、何%の確率なるかを、サンプル数が増えると正確になっていくペイズ統計で計算し、その単語(=コード)とともに、パラメータ(変数)として記憶するのです。 私のあとには、「は」、「が」、「に」、「を」、または、「たち」、「ども」・・・など、多数の単語のくみ合わせが登場します。 これは、ワープロやスマホの「予測変換」と同じ仕組みです。例えば「わ」と入力すると、「わ」で始まる意味ある単語を出してくれます。スマホでやると「私」、「割」、「悪」、「われわれ」、「悪い」、「ワン」、「笑」、「ワーク」・・・・という単語が出てきました。 この順序は、過去の作った文章での、使用頻度で入れ替わっていき、使用確率の高い単語が、サンプル数が増えると確率の精度が上がっていくベイズ統計で、上位に表示されるようになっていくのは皆さんが経験されています。 ChatGPTはベイズ統計について、以下のようにほぼ正確な答えをしました。 <ベイズ統計Bayesian statistics)は、確率論の一分野であり、統計的推論や予測を行うためのフレームワークです。ベイズ統計は、ベイズの定理と呼ばれる確率論の基本的な定理を応用しています。 ベイズの定理は、条件付き確率を扱うための定理であり、事前情報(事前確率)と新たなデータの結果(尤度:ゆうど)から、事後確率を求めることができます。ベイズ統計では、データを観測する前の事前情報を統計モデルに組み込み、新たなデータを用いて事後確率を更新していくことで、不確実性を扱う手法です。 ベイズ統計では、パラメータやモデルの不確実性を確率分布として表現することが特徴です。統計モデルのパラメータや予測の不確実性を確率分布として表現することで、統計的な推論や予測の結果についても不確実性を考慮することができます。 ベイズ統計は、小規模なデータセットや事前知識が不完全な場合に特に有用であり、個別のデータ点に基づく結果だけでなく、不確実性を考慮した推論や予測が可能です。 また、ベイズ統計は階層モデリングやパラメータ推定、モデル選択など、さまざまな統計的な問題に応用されています。(以上で回答終わり)> ワープロやスマホの「予測変換」は、このようにして原始的なAIの方法である「単語の出現確率」を使っているのです。 ◎単語の、確率的な使用頻度の変数を、パラメータと言います。 このパラメータ(データを受け渡す媒介変数)という概念と、その多さが、自然言語生成の鍵になるものです。 最初GPT1.0が学習に使用したのは、Book Corpusと呼ばれる様々なジャンルの書籍7000冊分のテキストデータであり、容量にして4.5 GBという。意外に少ない。 そのとき、自動で機械内に作られた単語のパラメータは、1億1700万種だったという。紙の国語辞典にある6万個くらいの単語について、1億1700万個のパラメータがあったということです。 次のバージョンのGPT2.0では、学習量を増やしパラメータが15億個に増えたという(2019年2月)。機械が15億のパラメータをたどるのですから、コンピュータの計算速度(≒使用電力の多さ)が必要です。 ChatGPT3.0では、パラメータ数が1750億に増え、最初の1億1700万の1000倍に巨大化しています。 現在われわれがオープンに使える、対話型のChatGPT3.5では、パラメータ数が3550億。AI将棋でいえば、3550億の局面に相当します。 (注)AI将棋は5分くらいで100億局面、10分で500億局面くらいを読みます。その局面での着手のデータベースを学習していて、最終的に勝ちを導いた確率的な順位を、評価函数としてパラメータにする仕組みのものです。基本構造は、自然言語の生成GPTと同じです。日本でも、2年くらいでChatGPT並みのものを作ることができるでしょう。 将棋AIで1位の「水匠」には、プロのトップ棋士が勝てず(現在は10戦10敗でしょう)、ChatGPTが生成する文章では、人間が作るものとの差がなくなっていったのです。 ■3. 問題点:ChatGPTは約50%、不正確な答えをする <ChatGPTが生成する文章は、統計的に生成されるため、常に正確な情報や、完璧な文章を提供できるわけではありません> <当方の問い: では、chatGPTはどんなとき、間違った答えしますか?> <ChatGPTの回答: ChatGPTは、大規模なトレーニングデータに基づいて学習されたモデルですが、時折、間違った答えを提供することがあります。以下にいくつかの具体的な例を挙げます。(吉田注)時折というより、もっと多い。 1)情報の不足: 私のトレーニングデータのカットオフは2021年であり、それ以降の情報や最新の出来事については知りません。したがって、最新のニュースや進展に関する正確な情報を提供することができません。 2)非確定的な質問: 一部の質問は個別の回答が存在せず、主観的な判断や個人の意見に基づくものです。そのような質問に対して、私は一般的な情報や一般的な見解に基づいた回答を提供しますが、必ずしも正解とは限りません。 3)誤解や曖昧な文脈: 文章の文脈や意図を正確に理解することは難しい場合があります。特に、長い文脈や複雑な表現を含む質問に対しては、正確な回答を提供することが困難な場合があります。 4)偽情報やバイアス: 私のトレーニングデータはインターネット上の多様なソースから収集されていますが、その中には間違った情報や個人のバイアスが含まれる可能性もあります。そのため、時には偽情報やバイアスの影響を受けた回答を提供することがあります。 5)言語的な制約: 私は単語やフレーズの統計的なパターンに基づいて文章を生成しますが、文脈や意味を完全に理解しているわけではありません。そのため、文脈に合わない回答や不自然な表現を生成する場合があります。 重要な点として、私はユーザーから提供された情報や質問文に基づいて回答を生成しますが、必ずしも正確な情報を提供できるわけではありません。利用者は私が提供する情報を参考とし、必要に応じて信頼性の高い情報源や専門家の意見を参照することが重要です。(chatGPTの回答終わり)> ChatGPT3.5で検証された間違いは、時折ではなく、50%程度だったという。学習データの量が多い有料のChatGPT4.0でも25%くらい間違った回答があったと検証されています(科学誌の『Newton』23年7月号)。 ChatGPT3.5の欠陥は、知らないことを訊ねたとき、知らないとは言わず、もっともらしくウソの答えをねつ造することです。ここが問題です。知らない人は、誤魔化されてしまうでしょう。 人間で言うなら「信用できない人」です。 ■4.回答へのコメント ▼1)の情報の不足は、新しい情報の学習をさせれば、改善していきます。ここは問題にはならない。 しかし、ChatGPTが典拠を示さない仕様になっていることが問題です。その論の根拠は、多くの関連文書というだけであり、主に拠って立った論拠が、分からない。論拠は論文では必須です。Wiki-Pediaは論拠を示します。改善が必要でしょう。 ▼2)非確定な質問とは、客観的な科学ではない、主観の領域である思想、政治、イデオロギーの領域のものです。 経済学も、法則があって実験ができる科学ではない。条件が違う過去の実証データしかないので、個人が考えたイデオロギー(=思想)です。 金利、物価上昇、株価は経済にとって重要ですが、条件が類似はしていても、異なる過去のデータしかない。 従って過去の延長としてしか、経済の予想はできない。ミクロな部分では80億人の需要、生産、商品の価値判断が関与する経済は日々、新しくなっているのです。新しい経済は、過去のデータでは予想できない。 一方、人体の構造は、経年劣化である老化は進んでも、新しくはならない。心臓が2つになることも、血液が青くなることもない。 このため、実証科学の医学が成立します。しかし経済学は前提のところに問題を抱えているのです。文学は、言葉で抽象的な観念を扱うので、単語の意味と、語形の変化ということしかない。どんな小説も書けるくらい形式が散漫なので、源氏物語から変化していないともいえるのです。 要素が多すぎて、気流が予想できず、数式にはならない複雑系である気象予報の正確さと、経済のAI予想の正確さは、どこまで進歩しても、似ているでしょう。経済予想は、気象予想を超えません。 ▼3)誤解や曖昧な文脈とは、人間が書く文章の非論理性と意味の飛躍、そして意味が一意にとれない文脈です。 詩的な文章が、これに当たります。「星と月は天の穴」(吉行淳之介の小説の題名)ですかと訊ねても、答えはないでしょう。 星と月は天の穴とは、吉行のそのときの心理から来たものです。心理とは意識です。意識は、「観念=言葉」で世界を解釈しています。 決して青くない海を見て「青い海」という。絵画も同じです。細密画で似たように描いても、それは、観念の世界に映ったものです。海は、観念では描写できない。しかし絵画は古代から作られてきました。絵画は妄想ではないでしょう。 ChatGPTは以下のように、無粋に答えました。 <いいえ、星と月は天の穴ではありません。星や月は宇宙空間に存在する天体です。星は、私たちの太陽系や他の銀河系に存在する恒星であり、自己発光している巨大なガスの球体です。一方、月は地球の衛星であり、地球の周りを公転しながら、地球から見える光を反射しています。これらは天体であり、天体が存在するための「天の穴」という概念はありません(回答終わり)> ChatGPTは、文脈は理解すると自称していますが、人間が理解する詩的言語は理解ができない。詩的言語は、人間の観念を描くものです。「古池やかわずとび込む水の音」で、山の古刹が浮かぶか。これが言語の意味です。 ▼4)偽情報やバイアス:偽情報やバイアスは、メディアの情報に多く含まれています。 例えば、ウクライナ戦争については、ウクライナ+西側とロシア側では、正反対の情報が流されています。日本では西側の情報だけです。 【事例】 ウクイラナ戦争では、「その国の世論を動かす目的の認知戦」が戦われています。戦場にジャーナリストが行って取材しても、部分の情報が、どちら側かの関係者から語られるにすぎない。 現場に行けばいくほど、小説のように部分が拡大し、数十万が直接に戦う戦争の全体と目的は、見えなくなるでしょう。 どの情報を流すかの、デスクの編集によって選択されたものこそが、認知戦で使われます。ジャーナリズムは、会社の方針(当為)という限界をもっています。米大統領の選挙情報も、ウクライナ戦争と同じ構造のものです。 会社ジャーナリズムは、立場の論(ポジショントーク)として、まとめることができます。 会社から離れた元ジャーナリストは、安倍元首相暗殺事件についても、政府及び警察の立場と合体しているメディアとは異なる論を、展開しています。自民党の政治家が、政府政策にコメントするときと同じです。それは、経済的な「立場」が言わせているのです。 最近、カホクカのダムが決壊し、ウクライナ南部のロシア軍の占領地は、津波に襲われたような洪水が起こっています。ロシアとウクライナは、お互いに「相手がやった」と言っています。 洪水になったのは、クリミア半島につながっている南部の、ロシアの占領地と要塞を築いたロシア軍が配備されている地域です。 被害では、ロシア軍側が、圧倒的に多い。 ◎ロシアが自軍に被害が甚大な洪水を、狙って起こすでしょうか。 自分の占領地と自分の側の軍隊を水責めする軍は、いない。 もしいれば、行動の目的を考えない馬鹿か錯乱です。 当方は論理的に考えて、兵器と兵士が乏しくなったウクライナ軍(ロシア軍の兵力の1/10くらい=これは事実です)が、兵器を使わない有効な反撃の一環として、ダムを爆破したと考えています。 あるいは反ロシアのNATOからの、隠密の派遣兵や傭兵かも知れない。ウクライナ戦争の、6月の帰趨も決める、重要な事件がこれです。 ChatGPTには、こうした答えを示す、もともとの構造がない。 ▼5)言語的な制約:ChatGPTは、言葉や文章の意味を、完全にとるとは、その仕組み上(=単語の確率的予想)、できない。 一般的に、学習事例が多い文章に偏った答えを出します。地球が不動だとされている神話の時代には、科学的なコペルニクスの天道説は示さないことと同じです。 ChatGPTには、人間によるチューニング(回答の修正)は加えていますが、偏向がある定説の前提を疑う回路は、作られていません。 真理を述べるのではない。学習した多数派の通説をまとめて記述するのです。 一方で哲学は、前提から疑ってその疑いを論理的に述べるものです。これを「批判」といいます。カントの批判哲学は、過去の哲学の説を検討したものです。主な批判対象は、観念を扱っていた形而上学でした。形而上学に対して「科学的な態度で、人間の精神を研究した」のです。 しかしChatGPTが述べるのは、学問で言えば、学習した文章からの投票の確率で決める「世論調査」で作った文章です。 多数派の投票では、議席は得ても、真理は明らかにならない。 「集合知」のありかを示すものが文章の量の多さと言っていいでしょう。 ◎ChatGPTは、人間を超えるかという議論があります。論の前提を疑う哲学的な思考ができ、詩的言語も使う人間をChatGPTが超えることはありません。ChatGPTの延長の機械が、人間を超えるシンギュラリティに達するという考えは幻想です。 以下のようにまとめましょう。 ▼1)物的な証拠がある科学的な事象については(例えば医薬の製造)では。多数の論文を読み込んで、人間の新薬開発の時間を短縮してくれる。 自動運転、品質検査、レントゲンの画像診断の正確さ、法の適用、将棋のようなルールの適用では、人を超えるでしょう。こうした領域は、いずれも不変のルール(フレームと言う)がある分野です。 ▼2)前提(=ルール)を疑う哲学的な分野では、シンギュラリティ(AIが人間を超えること)はない。 偏向情報を疑うジャーナリズムも、発展しない。ChatGPTに頼ると閲覧数の多い記事を書くことに誘導されることから、大衆迎合になっていく。 事実、条件を示して短編小説を書いてくれと頼むと、多数決の方法で、読んでいて恥ずかしくなるような、「ステレオタイプの言葉で、ステレオタイプの筋のもの」を書いたのです。 (注)ステレオタイプ:紋切り型の決まり文句。大衆小説や新聞記事に多い表現法。「鼻先三寸で危機を回避した、悲しみに暮れる、心から慕う・・・」などは、4字熟語のような紋切り型の決まり文句です。 ▼3)ChatGPTの最終目的は、個別の問いを発する人間の履歴の一元管理にもなるでしょう。 クレジットカードでの買い物歴から、その人の好みの、商品の概念と、個別広告を作るようなことと同じです。 買い物歴の情報は、誰のものかという未解決の問題があります。 別のことですが、現在、世界の中央銀行が研究している仮想通貨型のデジタル通貨(CBDC)も同じです。政府は、個人の財布の、全部の動きと購買を記録し、管理することができます。 不正会計と脱税は不可能になります。 お金の全部の動きが、記録されるからです。 マイナンバーとの紐付けを義務化すると、個人の家計は、政府や国税庁が、100%を管理ができます。Googleのような、狙ったところの全文検索で、デジタル通貨を使った個人のマネーの動きは、微細なところまで明らかになるのです。 携帯やPCの電子メールにも、犯罪捜査のときなどは、その犯人のメールの全文検索をかけることができます。 「情報とは、そもそも、誰のものか。情報の窃盗とは何か?」という民法での、哲学的な規定が必要ですが、政府はそれを問題にしていない。 CBDCの目的にかかわることだからです。ただしCBDCの時代にも、紙幣は残るので、政府から見られるのがイヤな人は、匿名の紙幣を使えばいい。資産を残すことは、合法的に節税することと通じます。 日本では所得の45%は税になるからです。この税率が将来は、もっと上がることを示すのが、後世の返済負担になる国債1200兆円です。 以上のことは、「情報領域のAI帝国主義」につながるものです。人間動物園です。この観点での、汎用のChatGPTに対する、倫理規制が、早晩必要です。この面で政府の役割(法制化)が必要でしょう。ChatGPT教という新宗教が誕生していくからです。 1円を10億枚集めると資本になる。文章を10億個集めて、集合知として整合化させると情報資本になるからです。情報は、コンピュータの中では数字(コード)です。文字情報と数字情報の区分はない。 ▼4)前提を疑う哲学的、あるいは科学的な思考を、高校と大学で教える論理学が早急に必要です。見本は、解剖学の養老孟司氏が、北里大学の教養課程で行っていた講義にあります。この人は、前提を疑うことのできる、知能指数の高い科学者です。学生との対話がおもしろい。 学生は、「(学説や概念を)教えてくれ」という。養老氏は、「具体物を見て考えろ」という。考える点では、学生と教師は対等という。ここでの「考えること」は前提を疑うことです。養老氏は、昆虫の収集と分類が習性の趣味です。当方にとっては、単に虫ですが、養老氏にとっては違う存在でしょう。 昆虫で、は5000万種が推計できる。人間が分類したのはまだ1000万種くらいしかない。80%は、知られていない。新種が山のようにいる。学説にはこうした事実がある。学説は、虚説ではない。しかし自然を網羅はできていない。医学も複雑系の人体の、一部しか解明していないのです。地震学も、地震の予想ができていない。学説は、発展途上の仮説です。 ■5.教科書を憶える教育の日本では、危険性がある 日本の教育は、教科書あるいは教師の板書を憶えて、その記憶をテストする記憶教育です。米欧に対して、近代学問で後発国だったため、明治人の集合知が、日本より進んでいると考えた欧米の学問を記憶する記憶テストが教育になったのです。鹿鳴館も作った。今でも、恥ずかしく浮いた、ロココ風の迎賓館が赤坂にあります。潰して皇居にある日本風建築に変えればいい。文化は、国粋主義であるべきものです。 考える教育は知能教育ですが、これはほとんどない。馬鹿な文科省は知能テストを、差別になると禁止したのか? 知能教育は、以下のような概念のものです。教育は、これでなければならない。そのためには、認識を示す単語で文章を書かせることです。作文ではない。考えの表現です。学校では作文の時間はあっても、文章を書かせるテストはなかったのです。文章は、脳の内部認識を外部に示すものです。表現ともいう。 ・認知:理解する、発見する、認識する。 ・記憶:記憶と再生。 ・拡散思考:思いつく、多方面、多くの角度から考える。今までにない、新しいものを創造する ・集中思考:推理する、追及する、論理的に考える ・評価:比較判断、選別、批判する。 記憶量では、人間をはるかに超えるChatGPTが出て、それが、指数関数的な進歩を止めることのない現在、日本で喫緊に必要なことは、考える教育、つまり、知能教育です。 これには、学問を含む、あらゆる事象と社会のルール(法)の前提を疑うことを教える哲学教育がいい。哲学は、既存の学問の批判を行うものです。例えばサルトルの『存在と無』は人間の意識を研究したものです。フランスはその文化の根で反英、反米、反ドイツです。日本は親米というより、米国からの支配を受けています。『存在と無』の授業があっていい。 吉田松陰の思想が、明治維新を産んだのです。粗末な小屋に見える松下村塾で松蔭は、久坂玄瑞、高杉晋作、伊藤博文、吉田稔麿、入江九一、前原一誠、品川弥二郎、山田顕義、野村靖、渡辺蒿蔵、河北義次郎などを教育しました。 こうしたことを行わないと、日本は、黒船のようなChatGPTの前に沈没して行くでしょう。 防衛は地政学的なものだけではない。重要なものは、情報と知識の分野での防衛力です。 その防衛力の内容は、事象と社会のルール(法)の前提を疑うことです。その批判力がないと、米欧のGPTで沈没していくでしょう。 日本での「論の前提の批判」の少なさの事例を、マスコミへの信頼度として挙げます。 日本のメディアで67.4点の信頼度を獲得しているのがNHKです。新聞は67.4点です(100点満点)。民法62.1点、ラジオ55.1点、インターネット48.9点、雑誌42.1点の順です。 一方米国では、メディアの信頼度は、36%と低い(米ギャラップ)。ほぼ信頼が29、あまり信用しない29%、絶対に信用しないが34%と多い。総じて50%の人は、メデイアを信用していません。信頼度が顕著に下がったのは、左派傾斜が強くなった2018年からです。 なぜ、日米で、こんな大きなが差が出るのか? 教育の違いが根底にあるものでしょう。米国では、教科書は教えますが、教師は、個人の考えを聞くことを欠かさない。 1時間の講演をしたら、30分は質疑応答の時間をとってくれといわれます。日本では質問が「講師の否定」になるように考え、質問が少ない。記者会見も、事前に質問事項を示す「談合、出来合い」です。国会の質疑も談合です。 (注)それでも大阪では、東京より質問が多い。大阪商人には江戸の権威を信用しない文化があります。一方、政府がある東京は権威主義、立場主義が強い。会社での意見でも、立場が高くないと取り上げない。イヤであって、上司には服従するのが東京です。 日本のメディアは、外信をBBC、CNN、NYタイムズ、ワシントンポスト、フィナンシャルタイムズと通信社に依存しています。このため、米国による日本支配になっているのです。 メディアがもつのは、情報の選択と編集の権力です。これを、彼らは「報道しない自由」と言っていますが、国民の立場(国民の利益)に依拠すべきメディアとしては誤りです。日本には、保守の思想系譜が消されています。右翼と保守は、米国崇拝になってしまった。 記憶主義の教育を、知能主義の教育に変えないと、日本は、現在それに向かっている、極東の小国で終わります。戦後の、米国に対する英国の没落と同じ宿命です。 戦後は、憲法も文化も米国に支配された。それが、絡め手の占領政策でした(柔道の絞め技のようなものです)。通貨も、裏口から支配する。日銀のFRBの支店化です。政治も支配する。それが親米一辺倒の自民党と日米合同委員会です。親米であってもいい、しかし、一辺倒ではダメです。メディアは、法案まで作っている日米合同委員会を全く報じません。 岸田内閣は、露骨に、米国の州知事と同じ実質的なポジジョンに甘んじています。駐日大使のエマニュエルに促され、LGBTQ法成立を急いだことからも分かります。安倍元首相は、米国と並ぼうとしていましたが、どこかの組織に、暗殺されました。 このままなら、日本人は、ChatGPT3.5が含む、50%のウソと作り話に誤魔化されやすいでしょう(ChatGPT4.0では25%のウソ) 学習がないこと、または少ないことは、知らないまたは十分ではないと答えればいいのですが、知らないことも、「知っているかのような作り話」をします。 学習した英語の文章での、単語出現確率で単語をつないでいくことから来る構造的な欠陥です。 ■6日本の産業、政治、思想にある根本問題 1980年代後期に、日本の1人当たりGDPが米国を超えたとき、「キャッチアップの時代は終わった。これからの産業は、米欧のマネではなく創造しなければならない」と言われていたのです。 しかし、前提を疑う批判の精神が、記憶教育の中ですり減っていて、前提の批判から生まれる新しい商品の創造ができなかった。 【アップル】 アップルのスティーブ・ジョブスは、過去のコンピュータ(パソコン)の批判を行ったのです。作ったのは、iOS(ハードを動かす基本システム)です。ところが日本メーカーは、オープンシステムには負け、滅びることが決まっていた1BM互換の、オフコンを作るだけでした。 スティーブ・ジョブスは、パソコンを、音楽プレーヤーのi-Podからi-Phoneに変える創造も行いました(10億台販売/年)。マイクロソフトは、アップルのマウスを真似て、Windows95を作りインターネットの主力プレーヤーになっていったのです。 【普及障害が作られた日の丸のトロン】 坂村健のOS(アプリケーションの下で機械を動かす基本システム)のTron(トロン)は、日本の非関税障壁の一環として米国が潰しました。Tronが、パソコンでも普及していたら、坂村権がスティーブ・ジョブスになって、現在の日本は様変わりしていたでしょう。 そのころからCIAと高級官僚の日米構造協議を引き継いだ「日米合同委員会」が、基礎的な部分で政策起案をするようなったのです。 国会の裏組織は「日米合同委員会」です。委員長は米国大使のエマニュエルであり、最近は、岸田首相に圧力をかけてLGBTQ法を成立させました。(日米合同委員会の組織) https://www.mofa.go.jp/mofaj/files/100060689.pdf 以上が、1990年代から30年、日本だけに経済成長がなかった主因です。学生、社員、官僚、政治家の批判精神を抑圧することが今後も同じなら、30年の没落と同じことが続きます。 中立・公正の偽旗のもとに「羊の革を被った、総務省の全体主義」のNHKは問題です。まずは、WOWOWのようなスクランブル放送にすることです。 政治的あるいは戦争での、報道の中立・公正は、あり得ない概念です。ウクライナ戦争の報道と副反応を隠すコロナワクチンで分かったことでしょう。公共の電波の監督官庁である総務省の考えだけで変えることができます。 【政治と戦争では、中立はあり得ない】 政治と戦争では中立の報道はない。米国のTV放送は「民主党派(リベラル)、または共和党派(保守)」であることを、自ら明らかにしています。NHKを含み日本の新聞社と放送局は、外信では完全に民主党派です。雑誌のニューズ・ウイークとTV放送のCNNは、過激な民主党派です。 「国際銀行資本~軍産複合体とCIA~GAFAM~民主党」という構造をもつ一派は、共和党派の反民主党政策の世論を、国家の分断とし、保守派の国際報道は陰謀論としています。 【CBDC】 通貨では、仮想通貨のブロックチェーンは、ビット・コインしてCIAの秘密プロジェクトが、ドルの後継通貨を意識しながら作ったものです(ジェームス・リカーズ:『ドル消滅』2014年)。 CBDCも認証は、ビット・コインのようにブロックチェーンで行われます。ブロックチェーンの、素因数分解での認証は、時間が20分はかかる分散コンピュータではなく、瞬時に行える中央集権型で中央銀行が行います。その通貨を、真正のものとする認証方法が、デジタル通貨の本質です。 信用通貨は、もともと偽装的な政府であるFRBの設立(1913年)から、陰謀的なものです。参照:『国際銀行マフィアの陰謀の歴史(5月配信の3部作)』。日銀は、BIS(国際決済銀行:デルバンコ)の規制を受けるFRBの海外支店です。 【日の丸のChatGPTが必要】 日本は、もっと優れた日本型ChatGPTを作って、マイクロソフト帝国には、対抗しなければならない。 子育て支援金よりもっと、日本にとって喫緊であり重要なので2000億円の開発予算を提供すべきでしょう。英語、日本語の両方です。高精度の自動翻訳を組み込めばいいだけです。 カーネギーメロン大学のIQが200というTomabechi氏を委員長にすればシステムの構造作りでは至近距離でしょう。 2年で、ChatGPTを超えるものが作れるでしょう。岸田政府の日本に残す最大の功績になります。 <政府の「AI戦略会議」で座長を務める松尾豊東大教授は日本経済新聞のインタビューで、国内での生成AI(人工知能)開発に必要となる設備の整備を「政府がインフラ投資として支援すべきだ」と述べた。半導体やサーバーといった膨大なデータを処理するための計算用インフラを備えた大規模なデータセンターなどを例に挙げた(日経新聞の記事)>・・・ファイザーのコロナワクチンに折伏(しゃくふく)され、現在はマイナンバーに拘泥しているデジタル担当大臣の河野氏の覚醒が必要です。 【マイクロソフトの危険な企業文化】 マイクロソフトは、もともと、アップルのようには技術力は高くない。市場支配型の会社です。50%から25%もウソを言うChatGPTは欠陥だらけです。論の根拠と出典も示さない。論文としては落第です。査読もされていない。 マイクロソフトは、未完成のものを早く市場支配するためにリリースしバージョンアップを繰り返すという企業文化をもっています。ChatGPTは、マイクロソフトが仕掛けたGoogle潰しです。色々と裏で手を加えてくる。お節介な機能が多いWindows11を使っていればこれがわかります。 マイクロソフトは、株価の時価総額が2.43兆ドル(320兆円=会社価値)、日本政府より、資産と資金の面では大きい。国家予算以上のマネーをつかうことができます。まさに帝国です。米国の株高の中心でもあります。歴史上これに匹敵したのは、石油のロックフェラーでした。 Window95からの、28年の伝統です。当方も、原稿を送るときの互換性のため、28年使っています。 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ 【ビジネス知識源プレミアム・アンケート:感想は自由な内容で。 以下は、項目の目処です。】 1.内容は、興味がもてますか? 2.理解は進みましたか? 3.疑問点はありますか? 4.その他、感想、希望テーマ等 5.差し支えない範囲であなたの横顔情報 があると、今後のテーマと記述の際、より的確に書くための参考になります。 コピーして、メールに貼りつけ記入の上、気軽に送信して下さい。 感想やご意見は、励みと参考になり、うれしく読んでいます。 時間の関係で、返事や回答ができないときも全部を読みます。 時には繰り返し読みます。 【著者へのひとことメールおよび読者アンケートの送信先】 yoshida@cool-knowledge.com 【送信先アドレスの変更や解約は以下よりお願いします】 マイページ(ログイン) https://foomii.com/mypage/ ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~