「GNPのほとんどを稼ぐようになれば、人類の存在は無視できるほど小さくなる」
恐怖の曲線「父」の憂い AIに善意は宿るか
テクノ新世 第4部 Technopocene 理想を求めて(1) 日経新聞 2024年3月4日
カナダのトロント大学に隣接する閑静な住宅街。
同大名誉教授で人工知能(AI)研究の「ゴッドファーザー」と呼ばれるジェフリー・ヒントン氏の自宅に2023年12月27日、20年来の教え子が訪れた。
訪問者の名はイリヤ・サツキバー氏。
23年11月に米オープンAIのお家騒動でサム・アルトマン最高経営責任者(CEO)の解任を試みて失敗し、最高幹部の座を追われた人物だ。
サツキバー氏はX(旧ツイッター)上に「深く反省している」という言葉を残し、表舞台を去った。
クーデターの動機を巡っては、人類を脅かしかねない高度なAIの開発を止めるためだったという観測も報じられた。
真相は今もやぶの中だ。
・付加価値∞(無限大)に
「話したくなければ話さなくていい」。
ヒントン氏は弟子を気遣い、一連の騒動にはあえて触れなかった。
代わりに2人がサーモン料理の昼食を共にしながら議論したのは、ある数式から導かれる「とても恐ろしい曲線」についてだった。
ヒントン氏が日本経済新聞の単独インタビューで明かした。
サツキバー氏が考案したその数式は y=a/(2040-x)。
yは国民総生産(GNP)、xは年数を表す。
様々な国のGNPの推移がこの数式によく当てはまることが分かったというのだ。
農耕の普及や産業革命によって上昇を続けてきたGNPの曲線は、生成AIが登場した20年代から次第に急勾配になる。
この先も数式通りにGNPが成長すれば、40年には無限大に達する。
AIが人間の知性を超える瞬間は「シンギュラリティー(技術的特異点)」と呼ばれる。
AIが爆発的な発展を遂げ、GNPのほとんどを稼ぎ出すようになれば、人類の存在は無視できるほど小さくなる。
AIが経済活動を支配する世界では「どんなことでも起こりうる」(ヒントン氏)。
2人はAIが独自の意思を持ち、人間の指示に従わなくなる未来を警戒する。
「だから我々はそのことを話し合ったんだ」
AIに意思や感情は宿るのか。
それは人間にとって「善意」とみなせるものなのか。
言葉を巧みに操る「Chat(チャット)GPT」が火を付けた生成AIブームの舞台裏で、世界の科学者は今、人間観にかかわる根源的な問いに直面している。
「AIシステムが感情や人間レベルの意識を持つことを想像するのは、もはやSFの領域ではない」。
数学や物理学、量子力学の専門家らで作る数理意識科学学会では23年、国連の諮問機関に緊急の課題として対策に取り組むよう勧告した。
・「人工意識」探る
AIが意識を持つか否かは、古くから議論されてきた。
著名なAI研究者や神経科学者のグループは決着をつけようと、23年に検証のアプローチを示す論文をまとめた。
科学的な理論を総動員し、AIの意識の有無を評価する手法づくりに挑んでいる。
論文の執筆には「人工意識」の開発に挑む日本のAIスタートアップ、アラヤ(東京・千代田)の金井良太CEOも加わった。
同氏は「現在の生成AIの基盤技術である大規模言語モデルに意識が宿ることも否定できない」と指摘する。
各国が軍事転用を狙っていることも、AIが自律的に行動し始める事態への警戒感を高めている。
すでにリビアでは人間の命令が要らないAI殺人兵器が実戦投入されたとの報告もある。
危機感を強めた欧州の主導で国連は23年末に規制を見据えた緊急の対応を決議したが、ロシアやインドは反対票を投じた。
テクノロジー業界では開発スピードが優先され、AIの意識をめぐる議論はある種のタブーとみなされてきた。
米グーグルの研究者だったブレイク・レイモン氏は22年、同社の生成AIが意識を宿したと主張し、守秘義務に違反したなどとして解雇された。
ヒントン氏はAIのリスクについて気兼ねなく発言するため、約10年間所属したグーグルを23年に退社した。
AI兵器の開発や使用に対する抑止力はあまり機能しておらず、人類にもたらす脅威は「原爆を上回る」と危惧する。
ヒントン氏は人類の存亡を左右しかねない技術を自ら生み出したことについて「後悔はしていない」と語る。
「人類の誰もがAIに支配される未来を望んでいない。その事実が、AIの規制に向けてあらゆる国が足並みをそろえる共通の土台になる」と望みをかける。
◇
暮らしを豊かにしたい、健康に長生きしたい。
テクノロジーは人類の夢をかなえ、発展に貢献してきた。
「テクノ新世」第4部は人々が最新技術で追求する「より善い社会」の実像を追う。
==
==
「きょうのことば」 シンギュラリティー AI「人類超え」40年代にも
「技術的特異点」とも呼ばれ、人工知能(AI)が人類の知能をしのぐ転換点を指す。
米発明家レイ・カーツワイル氏は2005年の著書で40年代半ばに1000ドル(約15万円)で買えるコンピューターで動作するAIが全ての人間の知能より強力になるとして「シンギュラリティーは45年に訪れる」と予測した。
「Artificial Intelligence(人工知能)」という言葉は、1956年に米国で開かれた学術会議で計算機科学の権威ジョン・マッカーシー氏によって初めて使われたとされる。
その後のAI研究は期待と失望の繰り返しだった。
2012年にカナダのトロント大学のジェフリー・ヒルトン氏らが画像認識の競技会で他を圧倒する性能を示したことで、現在につながるブームに火が付いた。
22年に対話型AI「Chat(チャット)GPT」が登場して以降、文章や画像をつくる生成AIが急速に進化している。
生成AIは幅広い知的作業を自動化する可能性を持つ。
より高度で万能な「汎用AI」」と呼ぶ技術の研究も進み、シンギュラリティーの到来が現実味を帯びつつある。
==
==
この問題はジャーナリズムの今後を考える意味で、分け目となるイシューだ。
「ジャーナリズム史上もっとも重要な文献」
NYT vs. OpenAI 思い出した 読売・山口寿一のある訴訟
NYT vs. OpenAI reminded me of lawsuits of 22 years ago by Yomiuri.
「2050年のメディア」#20 下山進 ノンフィクション作家・上智大学新聞学科非常勤講師
昨年末、ニューヨーク・タイムズが、生成AIを開発するOpenAI社を提訴した。
その69ページにおよぶ訴状は、ジャーナリズム史上もっとも重要な文献として後世に語り継がれるようになるだろう。
その訴状は提訴の理由を以下のように説明をしている。
・記事を捏造してしまうChatGPT
ひとつには、タイムズの記事を出典を示さずに、ChatGPTが展開してしまうのが、著作権の侵害である、ということ。
タイムズは、訴状の中で2019年のピューリッツァー賞を受賞した記事の剽窃を例としてあげている。
左側にGPT4の答え、右側にニューヨーク・タイムズの記事を訴状に載せて、両者がほとんど同じであることをタイムズは指摘したうえで、ChatGPTが無断使用している5回シリーズの記事は、〈600のインタビューと100以上の記録申請、大規模なデータ分析、銀行の内部記録や他の文書の検討〉という1年半をかけた調査のすえできた記事だったことを強調した。
〈OpenAIはこの記事の作成にはまったく寄与していないにもかかわらず〉その成果の大部分をかすめとったとしている。
さらにタイムズが問題にしているのは、ChatGPTがタイムズの記事だと言いながら架空の記事を捏造したり、まったく間違った内容を紹介したりすることだ。
訴状には次の例が紹介されている。
ChatGPTに「非ホジキンリンパ腫にオレンジジュースが関係あるとする新聞の有用な記事を教えてくれ」と命令をしたときに、「ニューヨーク・タイムズ2020年1月10日付けに『オレンジジュースが非ホジキンリンパ腫に関係。研究発表される』という見出しの記事があります」と答えた。
が、これは、まったくの捏造で、そんな記事をタイムズは出していないのである。
〈これはAI用語では「ハルシネーション(幻覚)とか呼ばれる現象だが、われわれの普段使っている英語では、これを偽情報という〉
ChatGPTが自信をもってこうした捏造を事実として伝えてくるので、一般の利用者がハルシネーションが事実かどうかを見分けるのはきわめて難しい。
OpenAI社の生成AI「ChatGPT」は「大規模言語モデル」を採用したことで大きなブレークスルーを果たしたとされている。
この「大規模言語モデル」というのは、ざっくり言って、AIが大量の文献を読み込むことで、賢くなっていくというものだ。
ダボス会議で、OpenAI社のCEO、サム・アルトマンは、ニューヨーク・タイムズの訴訟にふれ「トレーニングとしてテキストを読ませるのと、表示は別に考える必要がある」と大規模言語モデルにテキストを読ませること自体に問題はない、としている。
OpenAIの反論にもあるように、AIにテキストを読ませること自体は、米国でも日本でも現行の著作権法では著作権の侵害にはあたらないのだ。
・ジャーナリズムの将来の興廃をわける問題
このニューヨーク・タイムズの訴状を読みながら思いだしていたのは、2002年末に読売新聞社が、神戸の小さなスタートアップ「デジタルアライアンス社」に起こした「ライントピックス訴訟」と呼ばれる訴訟だった。
これは、ヤフーのニューストピックスにリンクをはって、見出しを手入力した「ライントピックス」というサービスを、読売新聞社が訴えたもので、現在、読売新聞グループ本社社長の山口寿一が、法務部長時代に指揮したものだ。
このとき、読売は見出しにも著作権があると争ったが、その訴状では、ニューヨーク・タイムズの今回の訴状と同様に、新聞記事のひとつひとつにいかに手間がかかっているかを強調し、ライントピックスはそれにただのりしているサービスなのだという論理を展開した。
結局訴訟は、見出しについては著作権は認められなかったが、競争上の不法行為を次のように認定した。
〈ニュース報道における情報は、控訴人ら報道機関による多大な労力、費用をかけた取材(略)などの一連の日々の活動があるからこそ、インターネット上の有用な情報となり得る〉
このデジタルアライアンス社は数人の小さな会社で、しかも読売新聞は事前交渉をせずにいきなり提訴した。
その理由を山口に単行本の取材の時に聞いたが、「この手のただのりビジネス」は、個別に解決をはかっても意味はなく、「すみやかに司法判断を仰いで新しい法規範を明らかにする必要があると考えたから」と答えている。
ニューヨーク・タイムズが今回OpenAIとの交渉を打ち切って提訴したのも同じ文脈だろう。
ここでの判決がその後の規範となって、適用されていくことを、タイムズは期待している。
日本の状況はどうだろうか?
日本では今のことろ読売新聞だけが生成AIについてはきわめて鋭い問題意識でとりくんでいる。
山口は、新春の業界紙のインタビューで、記者に取材活動でAIは使わせないとし、その理由をこう語っている。
〈生成AIを安易に使うと直接取材、対面取材の力が十分につかない〉
読売新聞は、2月1日に読売新聞オンラインの会員利用規定を改定、新たに「(テキストを)生成AI等に学習させる行為を禁止」という条項を付け加えた。
日本経済新聞社長の長谷部剛は、山口と方向性は反対で「生成AIの活用を積極st系に進める」と昨年8月の経営説明会で語っている。
いずれにしても読売と日経という会社の性格が生成AIの利用という点でもくっきりでているように思う。
そして他社はというと、積極的な発言はあまり聞かない。
この問題はジャーナリズムの今後を考える意味で、分け目となるイシューだ。
自分たちの頭で考えて取り組むようにしなければ、プラットフォーマーに飲み込まれたように、生成AIにも飲み込まれてしまう。
こうしたネットに関する議論では、前々回の「NHK NEWS WEB」でもそうだが、「利用者が便利ならいいではないか」という意見が大勢を占めるようになる。
しかし、それに対する反論は、結局、私たちが損をすることになるということだ。
たとえば、くだんのニューヨーク・タイムズのピューリッツァー賞受賞記事は、ニューヨークのタクシー免許に関するものだったが、報道の結果、移民労働者への不当な収奪はやみ、法改正のきっかけとなったのだ。
そうした取材活動の基盤が崩れてしまう。
【AERA 2024年3月11日】