Image Credit:AI Experts and Public Figures Raise Alarms on AI Extinction Risk

人工知能の開発によって、人類の存続を脅かす未曾有の危機が生じる恐れがあるとの警告が、AI分野の専門家や著名な人物約350人により発せられた。AIには、オートノマス兵器の制御を失うことや社会・経済システムの混乱、人間を出し抜くスーパーインテリジェント・エージェントの誕生による、予期せぬ破壊的な影響がもたらされうるとしている。同声明には、OpenAI CEOのサム・オルトマン、Skypeの共同創業者ジャーン・タリン、DeepMind CEOのデミス・ハッサビス、AIコンピューターサイエンティストであるジェフリー・ヒントンをはじめとする、AI研究・開発の第一線で活躍する専門家やGrimes氏、Sam Harris氏など、影響力のある著名人が署名を行った。彼らは安全かつ有益なAIの開発に向け、政策立案者がAIの危険性を厳重に取り扱い、対策を講じることを求めている。また、AIの安全性に関する懸念を扱う非営利団体であるSan Franciscoに拠点を置く「Center for AI Safety (CAIS)」は、AIの可能性について認めつつ、安全な開発と使用の必要性を強調している。しかしながら、CAISによると、AIに関する数多くの基本的な課題が未解決のままである。AIの安全性研究を実施し、AI安全研究者のコミュニティの支援、安全規格の提唱を行うことで危険を軽減することが、同団体の使命である。AIがもたらす「重要かつ緊急性の高いリスク」には、絶滅のリスクだけでなく、システム的な偏見、誤情報、悪意ある使用、サイバー攻撃、兵器化なども含まれているとの認識がある。同時に、欧州の議員がAIツールに stricter draft legislation “AI Act” を承認するなど、AIに関する問題に対して取り組む動きが広がっている。


Pexelsによる写真提供

人工知能(AI)は、パンデミックや核戦争のリスクに匹敵する、あるいはそれ以上の人類の生存に対する脅威を極めた可能性があるとする声明がAIの専門家や著名人から出されました。350人が署名し、AIが自律型兵器を解放したり、社会的、経済的システムを混乱させたり、人間を上回る超知能エージェントを作成したりするなど、予見できない大惨事を引き起こす可能性があると主張しています。彼らは、政策立案者がこれらのリスクを真剣に受け止め、安全かつ有益なAIの開発を確保するための措置を取ることを求めています。AI研究・開発のリーダー達や、Grimes、Sam Harrisなどの著名な公人、2018年チューリング賞の受賞者であり深層学習への貢献が認められたGeoffrey HintonとYoshua Bengio教授が署名しています。声明によると、AIセーフティのセンター(CAIS)は、人工知能に関係する安全上の懸念に取り組む非営利団体で、AIの潜在的な利益を認識しつつ、安全かつ有益に開発・使用する必要があると強調しています。しかし、AIの課題は多岐に渡り、AIセーフティにはまだ多くの改善が必要だと考えています。SNSの影響力の強いツイッターユーザーが、「重要で緊急のAIリスクは、絶滅の危険だけではなく、システム的なバイアス、誤情報、悪意のある使用、サイバー攻撃、兵器化などが含まれています。社会は同時並行的に複数のリスクを管理できます。」と指摘しています。最近、AIツール(ChatGPTなど)を規制するAI Actと呼ばれるより厳格な法律が欧州の議会で承認されました。これには、基本的なAIモデルの安全チェック、データガバナンス、リスク軽減の要件が含まれ、操作技術や生体認証技術の一部の使用を禁止しています。

引用元記事はこちら
AI Experts and Public Figures Raise Alarms on AI Extinction Risk

error: Content is protected !!