Image Credit:The Morning After: Industry leaders say AI presents ‘risk of extinction’ on par with nuclear war

人工知能のリスクに警鐘を鳴らしてきたエロン・マスク氏ら業界関係者から、次のような声明が発表された。「人工知能(AI)による絶滅のリスクを軽減することは、パンデミック(感染症大流行)や核戦争などの社会規模のリスクと同様に、世界的に優先すべきである」。声明を発表したのは、AIの社会規模のリスクを減らすことを使命とする「AIセーフティセンター」の署名者であり、オープンAIのCEOサム・オルトマン氏、Google DeepMindのトップデミス・ハッサビス氏、AIの父と呼ばれるチューリング賞受賞研究者のGeoffrey Hinton氏、Yoshua Bengio氏らが含まれている。声明では、一般の人々が理解できず、予見や信頼できないデジタルマインドを開発・展開してしまったAIの研究室について、製作者でさえ理解できないほど強力なデジタルマインドを展開するレースに閉じ込められていると述べられている。一方で、そのようなリスクの具体的なシナリオについては言及されておらず、絶滅の危険がAIから起こると考える科学的事実は限られている。
著名なAI技術者や研究者のグループが、AIによる人類のリスク軽減が、パンデミックや核戦争などと同等の重要性を持つ、とする1文の声明を発表しました。この声明は、AIの社会的危険性を減らすことを目的とするAIセーフティセンターが発表したもので、OpenAIのCEOであるSam Altman氏、Google DeepMindのDemis Hassabis氏、AIの父であるGeoffrey Hinton氏、Yoshua Bengio氏といった著名な研究者が署名しています。エロン・マスクらも、AIが人類にとってリスクであると主張する声明を発表しています。具体的にどのような危険があるのかについては言及されていませんが、最悪のシナリオを考える科学的なフィクションが過去に多数存在することから、そのリスクに対する注意は必要であると考えられています。

引用元記事はこちら
The Morning After: Industry leaders say AI presents ‘risk of extinction’ on par with nuclear war

error: Content is protected !!