このブログを検索

2025年5月30日金曜日

このままではAIは地球上の全人類を殺す可能性がある

 



少し前、人口知能に関して次のように引用したところだが、AIのメジャーどころでもーー当然とはいえーー同様の警鐘を鳴らしてるんだな。


科学はとりわけ死の欲動と結びついている[La science est liée à ce qu'on appelle spécialement pulsion de mort](ラカン、S25, 20 Décembre 1977)

我々が、欲動において自己破壊を認めるなら、この自己破壊欲動を死の欲動の顕れと見なしうる。それはどんな生の過程からも見逃しえない。

Erkennen wir in diesem Trieb die Selbstdestruktion unserer Annahme wieder, so dürfen wir diese als Ausdruck eines Todestriebes erfassen, der in keinem Lebensprozeß vermißt werden kann. (フロイト『新精神分析入門』32講「不安と欲動生活 」1933年)



以下、ジェフリー・ヒントン(Geoffrey Hinton)の記事を2つ拾ったのでここに貼り付けておく。


◼️ノーベル物理学賞に選ばれた“AIのゴッドファーザー”、AIの急速な進歩に警鐘を鳴らすメッセージの重み

DAISUKE TAKIMOTO SCIENCE 2024.10.09

2024年のノーベル物理学賞に、人工ニューラルネットワークの概念を確立して深層学習の発展に貢献したジョン・ホップフィールドとジェフリー・ヒントンが選ばれた。なかでも“AIのゴッドファーザー”とも呼ばれるヒントンはAIの危険性について積極的に警鐘を鳴らしており、今回の受賞には大きな重みがある。


2024年のノーベル物理学賞に、人工知能(AI)の基盤技術を開発したプリンストン大学のジョン・ホップフィールド名誉教授とトロント大学のジェフリー・ヒントン名誉教授が選ばれた。人工ニューラルネットワークの概念を確立して深層学習(ディープラーニング)の発展に貢献し、これらの技術が現代のAIに大きな影響をもたらしたことが選定の理由である。


人工ニューラルネットワークとは、脳の神経細胞(ニューロン)が信号を伝達する仕組みをヒントにつくられたデータ処理のためのネットワークモデルのことだ。AIのアプローチにおいて初期の手法のひとつとされ、脳細胞の機能を数理的モデルに応用すべく1940年代から研究されていた。このネットワークを多層化して効率的に訓練していく手法を発展させ、深層学習の基礎を築いた重要な人物のひとりがヒントンである。


物理学者であるホップフィールドは、連想記憶モデルの一種として知られる「ホップフィールドネットワーク」を考案したことで知られている。部分的な情報に基づいて記憶された完全なパターンを“連想”できる特徴をもち、脳の記憶メカニズムの解明や組合せ最適化問題への応用において重要な役割を果たした。

これらの技術に基づいてAIに学習させる手法が深層学習へと発展し、自然言語処理や音声認識、画像認識といった分野に飛躍的な進歩をもたらした。近年のAIの急速な能力の向上にもつながっており、「ChatGPT」に代表される会話型AIやスマートフォンの高度な機能など、わたしたちの生活に浸透しつつあるあらゆるAI技術の基盤とも言っていい。


AIの危険性について警鐘を鳴らしてきたヒントン


なかでもヒントンは深層学習の有効性を示したことが高く評価され、コンピューターサイエンス分野のノーベル賞として知られる「チューリング賞」を2019年に受賞するなど、深層学習の基礎開発に多大な貢献をしたAI研究の第一人者として知られる。“AIのゴッドファーザー”とも称されるヒントンの研究室は多くの著名なAI専門家を輩出しており、OpenAIの共同創業者でチーフサイエンティストだったイルヤ・サツキヴァーもそのひとりだ。

ヒントンはグーグルでAIの研究プロジェクト「Google Brain」に2013年から携わっていたが、23年5月に退社している。知能を宿した機械がもたらすリスクについて自由に語れるようになるため、という理由だ。グーグル退社に先立つ23年3月には、現存するものより強力なAIシステムの開発を一時停止するよう求める公開書簡に、著名なAI研究者たちとともに署名している

それ以後はAIの危険性について積極的に警鐘を鳴らしているが、自らが“育てた”ともいえる技術を決して否定しているわけではない。ヒントンはグーグルを去ってからというもの、AI開発を継続すべきかどうかについての自身の見解が誤解されているように感じていたという。

「多くの記事は、わたしが直ちに開発を止めるべきだと考えているように書いています。でも、そのようなことは一度も言っていません」と、ヒントンはグーグル退社後の『WIRED』の取材に対して語っている。「そもそも、そんなことは不可能だと思いますし、開発は続けるべきだと思います。なぜならAIにはさまざまな素晴らしい可能性があるからです。ただし、それと同じくらいの労力が、AIがもたらす悪影響を抑える、あるいは防ぐため注がれるべきだと考えています」


警鐘を鳴らすAI専門家が受賞したことの重み


こうしたヒントンの発言を踏まえると、今回の彼らのノーベル物理学賞の受賞決定は大きな重みをもってくる。ヒントンは受賞後にカナダの公共放送であるCBCのインタビューに応じ、今回の受賞が問題意識の共有につながることを期待したいとしたうえで、次のように語っている。


「おそらく今後20年以内に、わたしたちは自分たちよりも“知的なもの”を開発することになるでしょう。そのような状況に、わたしたちは到達したことがありません。それがどうなるのか、まったくわかりません」と、ヒントンは予想する。そして、こう改めて警鐘を鳴らした。

「AIが人から制御権を奪うことがないように、わたしたちはいま懸命に取り組むべきです。なぜなら、わたしたちが大切にしているのは“人”であるからです。だから優秀な若い研究者たちは、その研究課題に多くの努力を注ぐべきです。解決策があるかどうかはわかりませんが、あるとすればかなり急いで見つける必要があります





◼️きっかけは「ジョーク」だった──ジェフリー・ヒントンがAIは人類の脅威になると考えるようになった経緯


ジェフリー・ヒントンは、深層学習の基礎開発に多大な貢献したAI研究の第一人者だ。しかし、彼は今、進化を続けるAIの危険性について警鐘を鳴らしている。自身の人生の大半をかけて取り組んできた技術に対して、ヒントンはなぜ警戒心を抱くようになったのか。


WILL KNIGHT 2023.05.21


ジェフリー・ヒントンは、近年の人工知能(AI)の発展において、おそらく最も重要な人物である。そんな彼から先日、ラッパーであるスヌープ・ドッグの動画が送られてきた。


それはとあるディスカッションパネルの動画で、スヌープ・ドッグが「ChatGPT」をはじめとするAIソフトウェアについてラッパーらしい口調で語っている姿が映されていた。AIと意味のある会話ができるようになったことに驚きを隠せない様子だった。


「ところがだ。AIを作ったっていうおっさんは『AIは安全じゃない。こいつらは自分の考えを持っていて、ほっとくとやりたい放題し始めるぞ』と言うんだ。俺は思った『おいおい、映画の中の話じゃねえのか?』ってな」


スヌープ・ドッグの言う「おっさん」とは、もちろんヒントンのことだ。正確にはAIを作ったわけではないが、彼は人工ニューラルネットワークの基礎開発において大きな役割を果たした。これはチャットボットのChatGPTをはじめ、現在の最も強力なAIプログラムの多くに使われているものだ。そのChatGPTを含む人工知能の進歩があまりに速すぎるとして、今、広く議論が巻き起こっている。


「スヌープはよくわかっています」と、ロンドンの自宅にいるヒントンはZoom越しに語る。研究者だったヒントンは、知能を宿した機械がもたらすリスクについて自由に語れるようになるためと、つい先日グーグルを退社したばかりだ。


ヒントンが言うには、AIは彼自身やほかの専門家が予想していたよりも急速に進化しており、これを制御・管理するために、人類は直ちに対策を講じなければならない。ヒントンが最も懸念しているのは、例えばAIによる洗練された誤情報を活用した選挙活動といった、短期的なリスクについてだ。とはいえ、長期的に生じる可能性のある問題も非常に深刻なものであり、そうした問題についても今から対策を講じる必要があると考えている。


人生の大半をかけて取り組んできた技術に対して警戒心を抱いたきっかけは何だったのかと尋ねると、ヒントンはふたつの出来事について話してくれた。


5年後にはAIが人間を凌駕する?


ひとつ目のきっかけは、強力な新世代のAIシステムを利用していた時に訪れた。彼の場合は、これはグーグルのAI言語モデル「PaLM」だった。PaLMはChatGPTを動かしているモデルと同じようなもので、グーグルは3月からPaLMをAPI経由で利用できるようにしている。


数カ月前、ヒントンはたまたま思いついたジョークをPaLMに説明するよう指示したところ、そのジョークの面白さを的確に説明できたことに驚いたという(ジョークの内容は覚えていないらしい)。「わたしは何年もの間、AIがジョークの面白さを説明できるようになるまでは相当な時間がかかるだろうと、人々に言い続けていました」とヒントンは語る。「ある意味、ジョークが試金石だったのです」


また、ヒントンは長年、AIが今よりも高度な知性を得るには、ソフトウェアが人間の脳のように複雑なものへと発達しなければならないと信じていた。しかしこの考えは間違っているであろうことが判明し、それがふたつ目のきっかけとなった。


PaLMは大規模なプログラムだが、人の脳に比べるとそこまで複雑ではない。にもかかわらず、人が一生をかけて獲得するような論理性を手にしているのだ。


ヒントンは、AIアルゴリズムが大きくなっていくにつれ、数年以内に、創造主である人間たちを凌駕する可能性があると結論づける。「これまでは30年から50年先のことだと思っていましたが、いまは5年から20年先で起こり得ると思っています」


開発の中止を求めているわけではない


PaLMやGPT-4のような大規模言語モデル(LLM)の能力に動揺しているのはヒントンだけではない。3月の下旬には、著名なAI研究者をはじめとする人々が、現存するものよりも強力なAIシステムの開発を一時停止するよう求める公開書簡に署名した。しかしヒントンは、グーグルを去ってからというもの、AI開発を継続すべきかどうかについての自身の見解が誤解されているように感じるという。


「多くの記事は、わたしが直ちに開発を止めるべきだと考えているように書いています。でも、そのようなことは一度も言っていません」とヒントンは語る。「そもそも、そんなことは不可能だと思いますし、開発は続けるべきだと思います。なぜならAIにはさまざまな素晴らしい可能性があるからです。ただし、それと同じくらいの労力が、AIがもたらす悪影響を抑える、あるいは防ぐため注がれるべきだと考えています」

またヒントンは、AIの扱い方に関してグーグルに抗議するためにを同社を去ったわけでもないと話す。ヒントンによれば、グーグルはこの分野を先導していたにもかかわらず、比較的慎重に物事を進めていたという。そもそもPaLMやGPT-4の開発に不可欠だったニューラルネットワークの一種「Transformer」を発明したのはグーグルの研究者たちなのだ。


ディープラーニングによるAIルネサンス


ヒントンがディープラーニングの開発に取り組み始めたのは1980年代のことだった。当時トロント大学の教授だったヒントンは、コンピューターにより高度な知能をもたせることを目指していた。彼はほか数名の研究者とともに、従来の方法でプログラミングするのではなく、データを用いて人工ニューラルネットワークを訓練することを試みた。


これらのネットワークは人の脳を模倣してつくられたニューロンのモデルによって構成されている。画像のピクセルを入力として取り込み、多くの画像を解析しながらニューロンの値を調整することで、最終的には画像が表している内容を認識できるようになった。この手法は以前より発展の兆しを見せていたが、その真の力と可能性が明らかになったのはつい10年ほど前のことである。


そしてヒントンはニューラルネットワークに関する業績により、コンピュータサイエンスの分野で最も権威のあるチューリング賞を2018年に受賞する。メタ・プラットフォームズの現チーフAI科学者であるヤン・ルカンと、モントリオール大学の教授であるヨシュア・ベンジオと合わせての受賞だった。どちらもAIの先駆者として有名な人物だ。


ちょうどこの時期、新世代の人工ニューラルネットワーク(大量のデータで訓練し、強力なコンピュータチップで動作するもの)が、写真の内容のラベル付けに、突如として既存のどのプログラムよりも秀でるようになったのである。


かくしてディープラーニングはAIのルネサンスを引き起こした。大手テック企業がこぞってAIの専門家を採用するようになり、強力なディープラーニングアルゴリズムの構築に奔走した。そしてそれらが顔認識や翻訳、音声認識といった製品に応用されるまでになった。


グーグルは、ヒントンが大学の研究室で生まれたディープラーニングのアイデアを商業化するために設立した会社「DNNResearch」を買収した後、2013年にヒントンを雇い入れている。ヒントンの教え子の大学院生だったイリヤ・スツケヴェルも共にグーグルに入社した。


そしてその2年後、スツケヴェルはグーグルを退職し、AIの分野で影響力をもつ大手テック企業との力の均衡を取る存在として、非営利の「OpenAI」を共同設立した。


OpenAIは設立以来、ニューラルネットワークの規模と学習データの拡大、そして使用するコンピュータの性能の強化に注力してきた。同社が外部の投資家を受け入れ、営利法人として再編成されたのは2019年のことである。後にマイクロソフトから100億ドル(約1兆3,500億円)の出資を受けた。


OpenAIはこれまで、非常に流暢な文章生成システムを次々と開発している。ChatGPTの有料版に使われている最新モデルの「GPT-4」は、推論能力や常識がなければ遂行できないようなタスクまでをも処理することができ、研究者たちを驚かせた。


AIは力を求めている?


現在のAI技術はすでに破壊と混乱をもたらす力を有していると、ヒントンは考えている。多くの人が指摘してきたように、進化した言語アルゴリズムはより洗練されたデマを拡散することで、選挙に悪影響を与えるリスクがあると指摘する。

ヒントンはGPT-4やPaLMのようなモデルの新機能がもたらす影響を深く憂慮している。AIモデルが複雑な論理的推論をおこない、人間と対話し、そして予想以上に速く進歩している事実から、アルゴリズムの能力が人間を超え、権力を手にする時代が近づいているのではないかと懸念する人もいる。


「AIを効率的に動作させるには、中間目標(subgoal)を設定する必要があります。そして、そのAIを何のために訓練するかにかかわらず、最も効率のよい中間目標は、力を得る、コントロールを得ることなのです。このことを一番不安に思っています」とヒントンは語る。


AIについて警鐘を鳴らす人のなかには、極端な主張をする人もいる。非営利団体「Machine Intelligence Research Institute」の研究者であるエリエザー・ユドコウスキーは、最近の『TED』での講演や『Time』の記事で、このままではAIは地球上の全人類を殺す可能性があり、各国の政府はAIの開発を完全に停止するため、殺傷力のある武器をも行使するべきだと主張している。


「ユドコウスキーは頭のおかしいやつだろうと思って聞いていたのですが、全くおかしくありませんでした」とヒントンは話す。「もちろん、だからと言ってデータセンターを爆破するべきだというのは、よい議論ではありません」


最近のAIの進歩についてはユートピア的な思想もある。ヒントンは現在グーグルにいるもうひとりのAIの先駆者、レイ・カーツワイルを引き合いに出している。「レイは不死を実現しようとしています」とヒントンは語る。「死なない存在をつくり出す方法は既に見つかりました。残念なのはそれがわたしたち人類向けではないということです。とはいえ、年老いた白人男性たちが永遠に生き続ける世界を想像できますか?」


今のところ、ヒントンにもOpenAIやグーグルをはじめとする企業が開発するAIをどのように制御できるかは分からないという。「本当に分からないのです。わたしが言いたいのは、賢い人たちが集まって、AIが人類を支配する未来にどう対処するかを考えるべきだということです。少なくとも可能性のひとつとして」

AIに潜むリスクの周知、新たな安全対策の考案、国際的な協力関係の構築、これらを達成する上で、AI科学者たちは重要な役割を担っていると、ヒントンは考える。「もしかすると中国の科学者たちと話をするべきなのかもしれません」とヒントンは言い、アンドリュー・チーチー・ヤオとメールで連絡を取る可能性を示唆した。ヤオは北京の清華大学の教授でチューリング賞の受賞者であり、AIの研究で有名な科学者だ。


AIがもたらす新たなリスクを軽減させようと努力するのは、原子爆弾の開発を目指したマンハッタン計画のようなものかと聞いた(この場合、ヒントンは現代のロバート・オッペンハイマーといった位置づけになる)。ヒントンは「みんないつでも何かを爆発させたがるのですが、何かを爆発させないようにすることの方がずっと難しいのです」と語った。


ヒントンは非常に重要な警告をしているものの、鋭いユーモアのセンスも失っていない。進化したAIが人の手に負えなくなる理由について説明しているときも、それは明らかだった。

「知能の高いものが知能の低いものに支配されていた例を、あなたはいくつ知っていますか? もちろん米国大統領にジョー・バイデンが選ばれて以降のことで、です」とヒントンは言う。「もちろん、この発言を記事に引用しても構いませんよ」

WIRED US/Translation by Nozomi Okuma/Edit by Ryota Susaki)



《解決策があるかどうかはわかりませんが、あるとすればかなり急いで見つける必要があります》とあるが、ないだろうな。科学の死の欲動は止めようがないよ、《このままではAIは地球上の全人類を殺す可能性があ(る)》だろうよ。


科学の欲動(駆り立てる力)は止めようがないよ。少なくともナショナリズムじゃ絶対に止まらない、各国バラバラで好き放題やるのがネーションなんだから。ではグローバリズムーー資本のグローバル化ではなく、カントの世界市民社会(コスモポリタニズム)[eine weltbürgerliche Gesellschaft(cosmopolitismus)]あるいは、世界共和国[Weltrepublik]という意味でのグローバリズム(参照)ならどうか。これだって個々人のAI研究者を管理できるとは到底思えない。


とすれば望みは21世紀のポルポト出現ぐらいだよ。


学歴社会を否定すれば、どこに行き着くのか。一切の知識人的な者を消滅させ、その基盤をも覆し、いわば文化を「更地」しようとした試みをわれわれは一つ知っている。それを敢えてしたポルポトは長期のフランス留学において興議申立て世代に接触した、フーコーの忠実な精神的弟子である。フーコーがそれを予想しなかったとしても、弟子は師よりも論理を徹底させがちである。パリーグの学生は「石畳の下は砂だ」と叫んだ。「砂」とは「更地」ということである。ポルポトはほんとうにそうしてしまった。知識人の片鱗をみせる者として歯科医までを殺し、貨幣と都市とを廃絶し、国民皆耕が実現するかにみえた。ただ、銃剣による強制なしではそれは実現しなかった。しかし今何と早くカンボジャに都市と貨幣と学歴社会が復興したこと、そして銃剣を持つ者だけが精強な集団として山地に割拠するという結末ーー。(中井久夫「学園紛争は何であったのか」1995年『家族の深淵』所収)




1年ほど前、次の記事を掠め読んだことはあるが、本日、AIのゴッドファザーにお墨付きをもらったようなもんだ。

◼️Pausing AI Developments Isn’t Enough. We Need to Shut it All Down

BY ELIEZER YUDKOWSKY MARCH 29, 2023 

もし誰かが強力すぎるAIを作った場合、現状では、人類の一人一人と地球上のすべての生物が、その後まもなく死滅するだろうと私は予想しています。(…)


全てを停止させましょう。

私たちはまだ準備ができていません。近い将来、大幅に準備を整える見込みはありません。このまま進めば、AIを選択せず​​、何も悪いことをしていない子供たちも含めて、全員が死ぬでしょう。

If somebody builds a too-powerful AI, under present conditions, I expect that every single member of the human species and all biological life on Earth dies shortly thereafter.(…) 


Shut it all down.

We are not ready. We are not on track to be significantly readier in the foreseeable future. If we go ahead on this everyone will die, including children who did not choose this and did not do anything wrong.




ま、最低限ペシミズムが大事だよ、たとえば中国のAIのすさまじい発展活用の情報にオプティズムを抱くんじゃなくてさ、《国民の人心を考えると、しっかりしたペシミズムを持つことが大事だと思います。ペシミズムは普通、人を弱らせるように見られます。しかし、節度を持ってしっかり踏まえれば、かえって活力が出るぐらいに私は思っているんです。》(古井由吉「新潮 45」2012 年 1 月号 片山杜秀との対談)