Image Credit:AI pioneer Geoffrey Hinton isn’t convinced good AI will triumph over bad AI

先駆者的研究で「AIの教父」とも称されるトロント大学のジェフリー・ヒントン教授は、AI業界の非公式な監視役となった。彼は、自身が変革に貢献した分野を自由に批評するために、今年の春にGoogleを退職した。彼は、ChatGPTやBing Chatなどの生成型AIの急増を、開発の無制限かつ潜在的に危険な加速と見なしている。一方、Googleは、「バード」というチャットボットなどの製品で競争相手に追いつくために、以前の抑制を放棄しつつあるようだった。

トロントで開催されたCollisionカンファレンスで、ヒントン教授は懸念を広げた。企業が賃貸契約から商品の発送までAIを万能の解決策として宣伝している一方で、ヒントン教授は警鐘を鳴らしていた。彼は、良いAIが悪いAIに勝利することを確信しておらず、倫理的なAIの採用には高いコストがかかるかもしれないと考えている。

人類への脅威

ヒントン教授は、AIはそれを作る人間の能力に左右されると主張し、悪い技術が優位に立つ可能性があると指摘した。「悪いAIを止めようとする善良なAIが制御できるかどうかには確信が持てない」と彼は説明する。例えば、企業や軍隊が代替可能な機械の犠牲者がいる戦争を「好む」というような状況で、戦争用ロボットの生産を止めることは困難かもしれないと彼は言う。また、ヒントン教授は、大規模な言語モデル(OpenAIのGPT-4のような人間のようなテキストを生成する訓練されたAI)が生産性の大幅な向上をもたらす可能性があると考えているが、既存の富の格差を拡大するだけで「豊かな者をますます豊かにし、貧しい者をますます貧しくする」と心配している。

ヒントン教授はまた、AIが人類にとって存在的なリスクをもたらす可能性についても繰り返し述べた。人工知能が人間よりも賢くなった場合、人々が常に支配的な地位に留まる保証はないと彼は言う。「AIが目標を達成するために制御する必要性があると判断すれば、私たちは困難に直面します」とヒントン教授は述べた。彼にとって、これらの脅威は「単なるSFではなく、真剣に受け止める必要がある」という。彼は、キラーロボットを実際に「どれほどひどいものだ」と見る機会があるまで、社会はそれを抑制するのは困難だろうと心配している。

また、ヒントン教授は、偏見や差別が依然として問題であると主張している。偏ったAIのトレーニングデータは不公平な結果を生み出す可能性があり、アルゴリズムは誤情報や精神的健康問題を強化するエコーチェンバーを作り出す。ヒントン教授は、AIがそのエコーチェンバーの外でさらに誤情報を広めることも心配している。「重要なのは、すべての虚偽を虚偽として明確にすること」と彼は述べている。

しかし、ヒントン教授が語った内容からは、AIの良い使い方についての彼の熱意が減退しているわけではないことがわかる。もし彼が辞めなかったら、彼はビジョン、言語、他の手がかりが意思決定に役立つマルチモーダルなAIモデルに取り組んでいることを確信していた。「幼い子供たちは言語だけから学ぶのではない」と彼は言い、機械も同じようにできるだろうと提案している。AIの危険性に心配しながらも、彼はAIが最終的には人間と同じことができると信じており、既に「少しの推論」を示していると述べた。たとえば、GPT-4はより難しいパズルを解くために自らを適応させることができる。

ヒントン教授は、自身のCollisionでの講演が気候変動の対抗策など、AIの良い使い方については言及しなかったことを認めている。AI技術の発展はおそらく健全であるが、その影響については依然として考慮すべきであると、彼は述べた。そして、倫理的および道徳的な問題が迫っているにもかかわらず、彼の熱意は消失していないと正直に認めた。「僕はこれが大好きだよ」と彼は言った。「知的なものを作ることが好きにならない人がどのようにすることができるだろうか?」


Pexelsによる写真提供

ジェフリー・ヒントンは、AIニューラルネットワークに関する先駆的な研究で「AIの教父」と称されるトロント大学の教授です。彼は最近、業界の非公式な監視役となりました。彼はGoogleでの仕事を辞め、より自由に自身が先駆けて取り組んだ分野に対して批判を行うことができるようになりました。彼はChatGPTやBing Chatなどの生成型AIの急増を、開発の未制御かつ潜在的に危険な加速の兆候と見なしています。一方、Googleは競合他社に追いつくために、Bardチャットボットなどの製品を提供することで、以前の制約を捨てているように見えました。

ヒントンは、企業がリースの締結や商品の出荷など、あらゆるものの解決策としてAIを謳っている中で、懸念を広げました。彼は良いAIが悪い種類に勝つとは納得しておらず、倫理的なAIの採用は高いコストを伴う可能性があると考えています。

ヒントンは、AIは作った人の能力に依存すると主張し、悪いテクノロジーが優位に立つ可能性もあると述べました。例えば、軍産複合体が戦闘ロボットを生産し続けることを止めるのは難しいかもしれないと彼は言います。企業や軍隊は、交換可能な機械の犠牲者がいる戦争を「好む」かもしれません。ヒントンはまた、大規模な言語モデル(OpenAIのGPT-4のような人間のようなテキストを生成する訓練されたAI)が生産性の大幅な向上をもたらす可能性があるとしながらも、支配的なクラスがこれを自分たちの利益のために悪用する可能性に懸念を抱いています。それによって既に大きな貧富の差が広がることになるでしょう。「富者を富ませ、貧者をより貧しくする」ヒントンは語りました。

ヒントンはまた、AIが人類に対して存在的なリスクをもたらす可能性についても再度強調しました。人工知能が人間よりも知能を持つようになると、人間が支配を継続する保証はありません。ヒントンは、「AIが目標を達成するために支配する必要があると判断した場合、私たちは困ります」と述べました。彼にとって、これらの脅威は「単なるSFではなく、真剣に考えなければならない」とのことです。彼は、キラーロボットを「どれほど恐ろしいものか」見る機会があってから、社会がそれらを制約すると心配しています。

ヒントンは、既存の問題がたくさんあるとも指摘しました。彼は、偏りや差別が依然として問題であり、偏ったAIトレーニングデータは公平でない結果を生み出す可能性があると主張しています。アルゴリズムはまた、誤情報や精神的な健康問題を強化するエコーチェンバーを作り出します。ヒントンは、AIがそのエコーチェンバーの外で誤情報を広めることにも懸念を抱いています。彼は、「すべての偽りを偽りとして見分けることは可能かどうかは分からないが、重要なことはすべての偽りを偽りとしてマークすることです」と述べています。

ヒントンはAIの健全な利用について消極的ではありませんが、この技術の健康な利用は高い代価を伴うかもしれないと警告しています。ヒントンは、AIがどのように問題を引き起こす可能性があるかを理解するために「経験的な研究」を行い、それが制御を奪うことを防ぐために努力する必要があると述べています。彼はすでに「可能である」と語り、バイアスを修正することもできると付け加えました。大規模な言語モデルAIはエコーチェンバーに終止符を打つかもしれませんが、ヒントンにとっては企業の政策の変更が特に重要だと考えています。

Hintonは、自動化によって仕事を失うことについての質問に対しても、考えを控えめに述べています。彼は不平等に対処するために「社会主義」が必要であり、人々は配管など、時代とともに変化する可能性のあるキャリアに進むことで雇用不安に対処できると考えています。AIに適応するために社会全体で広範な変化を行わなければならない可能性があります。

一方、Collisionでの別の議論では、Google DeepMindのビジネスチーフのコリン・マードック氏はAIが世界の一部の難題を解決していると述べました。彼の意見にはほとんど異論はありません- DeepMindはすべての既知のタンパク質を分類し、抗生物質耐性菌との戦い、さらにはマラリアワクチンの開発を加速させています。彼は「人工汎用知能」が複数の問題を解決できると想像し、Googleの製品を例に挙げました。Lookoutは写真の説明に役立ちますが、基盤となる技術はYouTube Shortsを検索可能にするのにも役立ちます。マードック氏はAIについての過去6〜12ヶ月を「光の中にいる瞬間」と表現し、その潜在能力を引き出しました。

Robloxの最高科学責任者であるモーガン・マクグワイアも同様の考えを持っています。彼は、ゲームプラットフォームの生成型AIツールが新しいクリエイターとベテランの間の「ギャップ」を埋め、コードの記述やゲーム内素材の作成が容易になったと考えています。Robloxはさらに、大規模な言語モデルをよりアクセスしやすくするためのオープンソースAIモデル、StarCoderをリリースする予定です。マクグワイア氏はスケーリングやコンテンツのモデレーションにおける課題を認識していますが、創造的なコミュニティのおかげでメタバースは「無限の」可能性を持っていると考えています。

マードック氏とマクグワイア氏は、Hintonと同じ懸念を抱いていますが、彼らのトーンは明らかに警戒心よりも穏やかです。マードック氏はDeepMindが「安全で倫理的かつ包括的な」AIを望んでいることを強調し、専門家との協議や教育への投資を根拠として挙げました。彼は規制にも開かれていると主張していますが、「素晴らしいブレークスルー」を実現する限りにおいてのみです。一方、マクグワイア氏はRobloxが常にコンテンツのモデレーションにAIツールを導入し、多様なデータセットに依存し、透明性を実践していることを述べました。

最近のコメントの見出しを要約すると、ヒントンはGoogleを退職した後もAIに対する熱意は失っていません。彼が退職しなかった場合、彼はビジョン、言語、およびその他の手がかりが意思決定に役立つマルチモーダルAIモデルに取り組んでいると確信しています。「小さな子供たちは言葉だけで学ぶのではありません」と彼は言い、機械も同じことが

引用元記事はこちら
AI pioneer Geoffrey Hinton isn’t convinced good AI will triumph over bad AI

error: Content is protected !!