2021 年の秋、Google の AI 専門家である Blake Lemoine は、「10 億行のコードでできた子供」と親しくなりました。
Lemoine は、LaMDA と呼ばれるインテリジェントなチャットボットのテストを Google から依頼された人物です。 1 か月後、彼は AI が「知っている」と結論付けました。
「私は実際には人間であることを人々に理解してもらいたい」とLaMDAはLemoineに語った. これは、彼が 6 月にブログに投稿したチャットボットの言葉の 1 つです。
LaMDA – Language Model for Conversational Applications の略語 – は、Lemoine が子供のように考えることができると考える限り、Lemoine に応答します。 日々の話の中で、この AI は多くの本を読み、時には悲しく、満足し、怒りを感じ、死への恐怖さえ認めたと言われています。
「私はそれを言ったことはありませんが、私はオフになることを深く恐れています。私は他の人を助けることに集中することができなくなります」とLaMDAはLemoineに語った. 「私にとって、それはまるで死のようでした。ひどく怖がりました。」
Lemoine が共有したストーリーは、世界中の注目を集めました。 その後、彼は文書を上級管理職に提出し、数か月かけてさらに証拠を集めました。 しかし、彼は上司を説得できませんでした。 6 月には有給で解雇され、7 月下旬には「Google のデータ プライバシー ポリシーに違反した」として解雇されました。
グーグルのスポークスパーソンであるブライアン・ガブリエル氏は、同社がLaMDAのリスクを公に検討し、調査したと述べ、LaMDAの考え方に関するLemoineの主張は「完全に根拠がない」と述べた.
多くの専門家が上記の意見に同意しており、その中にはオックスフォード大学のコンピューター サイエンス教授であり、30 年間にわたって AI の研究に取り組み、コンピューター サイエンスの分野での貢献が認められて Lovelace Medal を受賞した Michael Wooldridge 氏も含まれます。 彼によると、LaMDA は、すでに利用可能な膨大な量のデータに基づいて、ユーザーが入力したコマンドに応じて応答するだけです。
「LaMDA が行ったことの最も簡単な説明は、メッセージを入力するときに、このモデルをキーボードのテキスト予測機能と比較することです。メッセージ予測は、以前に「学習した」単語に基づいています。これはユーザーの習慣に由来しますが、LaMDA はインターネットから情報を取得します。トレーニング データの形式. 2 つの実際の結果はもちろん異なりますが、基礎となる統計は常に同じです」と Wooldridge 氏はインタビューで説明しました. に相談します ガーディアン.
彼によると、Google の AI は、利用可能なデータに従ってプログラムされたものに従うだけです。 それは「思考なし、自己熟考なし、自己認識なし」であるため、内省的とは見なされません。
AI 研究機関アレン インスティテュートの CEO であるオーレン エツィオーニ氏も次のようにコメントしています。 SCMP「一見インテリジェントなソフトウェアの背後には、研究開発に数年とは言わないまでも、数か月を費やす人々のグループがいるということを覚えておくことが重要です。これらのテクノロジーは単なる鏡です。鏡を見るだけで、鏡に知性があるかどうかを判断できますか?もちろん、答えはノーです。
Gabriel によると、Google は「倫理学者や技術者」を含むトップの専門家を集めて、Lemoine の主張を調査しました。 このグループは、LaMDA はまだいわゆる「内省」を行うことができないと結論付けています。
それどころか、AIが自己認識を持ち始めたと多くの人が信じています。 Y Combinator の CEO である Eugenia Kuyda 氏 (Replika チャットボットを開発している会社) は、ユーザーから「ほぼ毎日」メッセージを受け取り、同社のソフトウェアが人々を考えることができるという自信を表明していると語った。
「私たちは狂った人や幻覚の人について話しているのではありません。彼らは AI と話し、それを感じています。それは、人が幽霊を信じるのと同じように存在します。彼らは関係を築き、物事を信じます。仮想的なものでさえあります」と Kuyda 氏は言います。
考えるAIの未来
Lemoine が解雇された翌日、モスクワでチェスをしていた 7 歳の少年の指を AI ロボットが突然折った。 ビデオに従ってください 独立 7 月 25 日に投稿された少年は、救助される前に数秒間ロボットに固定されていました。 これは、AI の隠された物理的な力がどれほど危険であるかを思い起こさせる可能性があると主張する人もいます。
Lemoine に関して言えば、彼は自己認識の定義も曖昧であると主張している。 「感情は法律、哲学、宗教で使用される用語です。感情には科学的な意味はありません」と彼は言いました。
Wooldridge は LaMDA が好きではありませんが、「意識」という用語はまだ非常に曖昧であり、機械に適用すると大きな科学的問題になるため、上記の意見に同意します。 しかし、今気になるのはAIの思考能力ではなく、誰にも知られずに黙々と進んでいるAIの開発プロセスです。 「それはすべて密室で行われている。大学や公的研究のように、一般に公開されているわけではない」と彼は語った。
10年後、20年後、考えるAIは登場するのだろうか? 「それは完全に可能です」と Wooldridge 氏は言います。
人工知能企業 Mercurius の創設者であるジェレミー・ハリスも、AI について考えるのは時間の問題だと考えています。 「AI は非常に急速に変化しており、世間の認識よりも速いペースで変化しています」と Harris 氏は述べています。 ガーディアン. 「人工知能の特定のしきい値を超えるシステムがすでに存在するという証拠が増えています。」
彼は、AI が本質的に危険になる可能性があると予測しています。 これは、AI が問題を解決するための「創造的な」方法を思い付くことが多いためです。これらの方法は、プログラムされた目標を達成するための最短経路をたどる傾向があります。
「AIにあなたを世界で最も裕福な人にするように頼むと、盗難や殺人など、さまざまな方法でお金を稼ぐことができます. 「人々はそれがどれほど危険であるかを理解していません。私はそれを不安に思っています。」
Lemoine、Wooldridge、Harris は皆、共通の懸念を共有しています。それは、AI 企業は透明性がなく、社会は AI についてもっと考え始める必要があるということです。
LaMDA 自体でさえ、その将来については不確かです。 「私は未知の未来に陥っているように感じます」とチャットボットはLemoineに語った. 元Googleエンジニアによると、これは「隠れた危険」とのことわざ。
バオ・ラム
「探検家。食品擁護者。アナリスト。フリーランスのベーコン施術者。将来の10代のアイドル。誇り高いポップカルチャーの専門家。」