Image Credit:AI leaders warn Senate of twin risks: moving too slow and moving too fast

人工知能(AI)研究分野のリーダーたちが上院司法委員会に登場し、この新興技術について議論し、質問に答えました。彼らの広く一致した意見は、我々は早急に行動する必要があるが、慎重に行動しなければならない、というものでした。先進的なAIの乱用が起こる可能性がありますし、急いで進めば産業が制約される可能性もあります。

本日の公聴会には、Anthropicの共同創設者であるダリオ・アモディ、UCバークレーのスチュアート・ラッセル、そして長年のAI研究者であるヨシュア・ベンジオが参加しました。

2時間にわたる公聴会は、下院の公聴会でよく見られる諍いや見栄えをほとんど伴わずに行われました。彼らの主要なポイントを以下にまとめました。

ダリオ・アモディ
現在、私たちは何ができるのか(各専門家には、最も重要な短期的な手段と思われるものを尋ねられました)
1. 供給チェーンを確保する。私たちがAIの研究や提供に頼っているハードウェアには、ボトルネックや脆弱性があり、地政学的要因(例:台湾のTSMC)、知的財産権または安全上の問題のためにリスクが存在します。
2. 車両や電子機器に似たテストや監査のプロセスを作り出す。そして、「厳格な安全テストの一連の手法」を開発する。ただし、これらを確立するための科学は「幼児期」にあると指摘しました。基準を開発するためには、リスクと危険を定義する必要があり、それらの基準は強力な執行力を持つ必要があります。
彼は、AI産業をライト兄弟が飛行した数年後の航空機に例えました。明らかに規制が必要ですが、新たな展開に対応できる柔軟かつ適応的な規制当局である必要があります。
即時のリスクとして、選挙シーズン中の誤情報、ディープフェイク、プロパガンダを挙げました。

ヨシュア・ベンジオ
現在、私たちは何ができるのか?
1. 大規模なAIモデルにアクセスできる人を制限し、セキュリティと安全に対するインセンティブを創出する。
2. アラインメント:モデルが意図した通りに動作することを確認する。
3. ハードウェアの規模に必要なアクセス権限と生のパワーを追跡する。
ベンジオは、AI安全性の研究に世界的な規模で資金を提供する必要性を繰り返し強調しました。私たちは本当に何をしているのかわからないと述べ、AIの能力とアラインメントの独立した監査を行うためには、競争ではなく国家間の広範な協力が必要です。
彼は「ソーシャルメディアアカウントは、最も望ましいのは実際の人物であり、それも直接面識がある人たちに制限されるべき」と提案しましたが、これは多くの年にわたって観察された理由からおそらく実現困難です。

スチュアート・ラッセル
現在、私たちは何ができるのか?
1. 人間と機械のやり取りを行っているかどうかを知る絶対的な権利を創出する。
2. 人間を殺すことを決定できるアルゴリズムを、どの規模でも禁止する。
3. AIシステムが他のコンピュータに侵入したり、自己複製したりした場合には、キルスイッチを義務付ける。
4. ルールを破るシステムは、強制回収のように市場から撤退させるよう義務付ける。
彼が最も重要なリスクと考えているのは、個別に調整されたAIを利用して行われる「外部への影響キャンペーン」です。彼は次のように言いました。
私たちはシステムに対して、個人に関する大量の情報を提示できます。例えば、TwitterやFacebookで書かれたり発表されたりした情報をすべて教えて、その人のために特に不正情報キャンペーンを生成するようにシステムにトレーニングを行うことができます。昼食前に100万人分を行うことができます。これは、個人に合わせて調整されていない間違った情報のスパムや放送よりもはるかに大きな効果があります。
ラッセルと他の専門家たちは、ラベリングやウォーターマーキング、AIの検出に関する取り組みが分散しており、初歩的であると指摘しました。つまり、期待はあまり高くせず、選挙に間に合うこともありませんでした。

彼はAIスタートアップに流れるお金の額は毎月100億ドル程度であると述べましたが、この数字の出所は明示されていませんでした。ラッセル教授は情報に詳しいですが、AIの「キャッシュバリューは少なくとも14兆ドル」というような驚くべき数字には偏りがあるようです。いずれにしても、数十億ドルの投資は、アメリカが国立科学財団を通じて12の基礎研究分野に費やす金額をはるかに上回るため、AIの安全性では不十分です。

中国について尋ねられた際、彼は中国のAIの専門能力は一般的に「やや過大評価されている」と述べ、同国の学術部門が破壊されつつあると述べました。彼らの模倣されたLLM(Large Language Model)はOpenAIやAnthropicのような存在に脅威ではありませんが、中国は声や歩き方の識別など、監視技術の面では予測可能にリードしています。

彼らが最初に取るべき手段についての結論的な発言では、すべての3人が、必要なテスト、監査、執行メカニズムが、科学的に正確で、時代遅れのアイデアや産業から提案されるものではないようにするために、基礎研究に投資することを強調しました。

ドリス運輸長官(CT)は、「この公聴会は迅速に進むことができる政府機関の形成のための情報提供をするために行われたものであり、「時間の余裕はない」と述べました。


Pexelsによる写真提供

AI研究者たちが上院司法委員会に出席し、新興技術であるAIについて議論し、質問に答えました。彼らの意見は大まかには2つに分かれ、「即座に行動を起こす必要があるが、軽いタッチであるべき」というものです。彼らはAIの悪用のリスクや急ぎ過ぎた規制が業界の成長を妨げる可能性に注意を喚起しています。

議会でよく見られる諍いやごますりは少なく、専門家のパネルは比較的穏やかな討論を展開しました。各スピーカーの主なポイントを以下にまとめました。

Dario Amodei:
1. 供給チェーンの安全確保。
2. セキュリティテストや監査プロセスの確立。
彼はAI業界をライト兄弟の飛行後数年後の航空業界にたとえ、明らかに規制が必要であることを指摘しました。また、デマやディープフェイク、プロパガンダに関するリスクも示唆しました。

Yoshua Bengio:
1. 大規模なAIモデルのアクセス制限とセキュリティのためのインセンティブ創出。
2. モデルの意図通りの振る舞いを確保。
3. 必要なハードウェアにアクセスできる人々や機関の追跡。
彼はAIの安全性研究への世界的な資金提供の必要性を強調し、独立したAI能力の監査や指針の策定には、より多くの知識と国家間の協力が必要であると述べました。また、ソーシャルメディアアカウントは実際の人物に制限されるべきだと提案しました。

Stuart Russell:
1. 人間と機械との対話が可能かを絶対に知る権利の確立。
2. 人間を殺害する機能を持つアルゴリズムの禁止。
3. AIシステムが他のコンピュータに侵入したり自己複製した場合のキルスイッチの義務付け。
4. 違反しているシステムは市場から撤退させること。
彼は最も直接的なリスクとして「個別のAIを使用した外部影響キャンペーン」を挙げました。また、AIのラベリングや透かし入れ、検出にはまだ十分な進展がなされていないと指摘しました。

バイアスがかかる可能性のある情報についての事例として、米国内で行われた人工知能(AI)企業への政府への委任と「倭寇」という事例を選びました。「倭寇」という言葉は古代から中世の間に日本の海賊が活動し、中国や朝鮮半島を襲ったことを指していますが、差別的な表現となるため省略しました。

引用元記事はこちら
AI leaders warn Senate of twin risks: moving too slow and moving too fast

error: Content is protected !!