… … …(記事全文7,331文字)
━━━━━━━━━━━━━━━━━━━━━━━━━━
山田順の「週刊:未来地図」
No.744 2024/10/08
AIに仕事を奪われ人類は滅亡!
そんな悲観的な未来は本当に訪れるのか?
━━━━━━━━━━━━━━━━━━━━━━━━━━
生成AIが登場して以来、「AI悲観論」が現実味を増してきている。すなわち、AIは人間の仕事を奪うばかりか、そのうち人間を超える知能を持つので、最終的に人類を滅ぼしかねないというのだ。
「人類滅亡などSFにすぎない」と思われるかもしれないが、AI開発者や学者たちが警告する以上、楽観視はできない。
政治的混乱、絶え間ない戦争、感染症パンデミック、気候変動と、世界は混迷を深めているが、ここにAIの暴走が加われば、いったいどうなるのだろうか?
(写真:Center for AI Safety)
[目次] ─────────────────────
■オープンAIの資金調達に次々と巨額資金が
■流れは「AGI」から「シンギュラリティ」へ
■AI開発は原子力と同じ監視・管理が必要
■暴走に対する安全性確保よりビジネスを優先
■人類絶滅への警鐘とそのシナリオ
■AIがホワイトカラーの仕事を奪っていく
■日本は世界で3番目に高いAIの影響を受ける
■自動化で生まれた時間でほかの仕事をする
■欲望資本主義では「過剰生産」は起こらない
■イーロン・マスクが語った未来とは?
■AIが人間と合体する『攻殻機動隊』の未来図
■AIが暴走したら電源を切ればいい
─────────────────────────
■オープンAIの資金調達に次々と巨額資金が
AIの開発競争が激化している。
今年の5月、オープンAI、グーグル、マイクロソフトといったハイテックジャイアントは立て続けに「生成AI」の新サービス、新製品を送り出し、さらに開発を次の次元へと進めた。
「ChatGDP」で「生成AI」のリーディングカンパニーとなったオープンAIは、このほど、巨額の資金調達を行ったことを明らかにした。10月2日には66億ドル、10月3日には40億ドルの資金を調達したことを発表した。
2日発表の資金の出元は、主要金融機関。そして、3日発表の資金の出元はマイクロソフトや半導体大手エヌビディア、それに日本のソフトバンクグループなどであると、各メディアは報道した。
オープンAIが目指すのは、人間の知能を超える「スーパーインテリジェンス」である。いわゆる「AGI」(artificial general intelligence:汎用人工知能)、そして「ASI」(Artificial Super Intelligence:超人工知能)だ。
■流れは「AGI」から「シンギュラリティ」へ
「AGI」(汎用人工知能)とは、あらゆるタスクを人間と同じかそれ以上にこなすことができる、これまでのAIの発展形である。いま使われているAIは、特定のタスクを処理する「ANI」(Artificial Narrow Intelligence:特化型人工知能)がほとんどであり、まだ、「AGI」は登場していない。
しかし、「ChatGPT」は、当初はテキストのみを生成するサービスだったが、やがて実際に人間と会話をしているかのような音声コミュニケーションが可能になったり、画像生成AIと連携して画像生成が可能になったりするなど、「AGI」に少しずつ近づいてきた。
となると、「AGI」に到達するのは時間の問題だろうと思われる。
「AGI」がさらに発展すれば「ASI」となる。AGIが自ら学習を重ねて進化し、人間の知能をはるかに超える能力を持ったものが「ASI」で、まさにスーパーインテリジェンスだ。つまり、「シンギュラリティ」(singularity:技術的特異点)がやってくるのは、意外にも早まりそうなのである。
■AI開発は原子力と同じ監視・管理が必要
「シンギュラリティ」がやってきて、AIが自己改良を繰り返すスーパーインテリジェンスとなると、この世界はどうなるだろうか?
想像されているのは、AIの暴走を人間がコントロールできなくなる世界だ。つまり、政治、経済、金融、インフラ、通信、軍事などをAIが支配するようになり、人間は機械の奴隷になってしまうのだ。そして、いつか絶滅させられてしまうかもしれないのである。
映画『マトリックス』では、この世界はAIが人間を閉じ込めるためにつくった仮想現実だった。そして、本当の世界(リアル)ではAIと人類の熾烈な戦いが行われていた。また、映画『チャイルド・プレイ』では、AIが殺人人形をつくり出した。
これらはみなSFだが、いまやそうとは言えない現実が進んでいる。そのため、AI規制が世界中で議論されているが、いまだに「まさか、そんな世界になるわけがない」と言う人がほとんどある。
私は、現在の議論のなかで、「AI開発は原子力と同じようにIAEA(国際原子力機関)のような組織により監視、管理されなければならない」という意見に、共感している。AIは確かに暴走する危険性がある。よって、いまからなんらかのストッパーを検討しておかないと、手遅れになる可能性があるからだ。