Image Credit:OpenAI is forming a team to rein in superintelligent AI

OpenAIは、超知能人工知能のリスクを管理するための専任チームを結成することを発表しました。超知能人工知能は、最も才能豊かで知識豊富な人間よりも優れた能力を持ち、様々な領域で優れた成果を上げる仮説上のAIモデルです。OpenAIは、このようなモデルがこの10年の終わりまでに実現する可能性があると考えています。OpenAIによると、「超知能人工知能は、人類がこれまでに発明した中で最も影響力のある技術であり、私たちが世界の重要な問題の解決に役立つことができます。しかし、超知能の広範なパワーは非常に危険であり、人間の無力化や人類の絶滅につながる可能性もあります」と述べています。

新しいチームは、OpenAIの最高科学責任者のIlya Sutskeverと研究所のアライメント責任者であるJan Leikeが共同でリードする予定です。さらに、OpenAIは現在確保されている計算パワーの20%をその取り組みに充てるとし、スーパー知能が安全で人間の価値観と調和していることを確認するための自動アライメント研究者の開発を目指します。OpenAIは、「これは非常に野心的な目標であり、成功を保証するものではありませんが、私たちはこの問題を解決するための集中的な取り組みには希望を持っています。初期の実験で有望なアイデアが多くあり、進捗のために役立つ指標も増えており、今日のモデルを使用してこれらの問題を実証的に研究することができます」と述べています。OpenAIは、将来的にロードマップを共有する予定です。

この発表は、世界の政府が新興のAI産業を規制する方法を検討している中で行われました。OpenAIのCEOであるSam Altmanは、最近数百人の連邦議員と会談しています。公には、AltmanはAIの規制が「必須」であり、OpenAIが「積極的に」政策立案者と協力したいと述べています。しかし、OpenAIのような組織が仮説上のリスクに焦点を当てることで、規制の責任を現実から遠ざける可能性があります。AIと労働、誤情報、著作権といった問題の方が現在直面しているので、政策立案者は即座に対処すべきです。


Pexelsによる写真提供

OpenAIは、超知能AIのリスクを管理するための専門チームの設立を発表しました。超知能AIとは、最も優れた知性を持つ人間をも凌駕し、複数の専門領域で優れた能力を持つAIモデルのことです。OpenAIは、このようなモデルが今後10年以内に実現する可能性を考えています。その非営利団体は、「超知能AIは人類が発明した中で最も影響力のある技術であり、世界の重要な問題を解決する手助けができるが、その巨大な力は危険であり、人間の力を奪い、さらには人類の絶滅をもたらす可能性がある」と述べています。

新チームは、OpenAIの最高科学責任者イリヤ・スツケーバー氏とリサーチラボのアライメント部門責任者ヤン・ライケ氏が共同リードします。また、OpenAIは、プロジェクトに20%のコンピューティングリソースを割り当てると発表しました。その目標は、超知能AIの安全性と人間の価値との調和を保証するための自動化された研究者を開発することです。OpenAIは、「これは非常に野心的な目標であり、成功は保証されていませんが、集中した取り組みで問題を解決できると楽観的です」と述べています。「初期実験で有望なアイデアが多数あり、進捗の指標もますます有用になってきており、今日のモデルを使ってこれらの問題を経験的に研究することができます」と付け加えました。OpenAIは将来的にロードマップを共有する予定です。

この発表がなされたのは、世界中の政府が新興のAI産業をどのように規制すべきかを検討しているタイミングです。米国では、OpenAIのCEOであるサム・オールトマン氏が過去数カ月にわたって少なくとも100人の連邦議員と会談してきました。公には、オールトマン氏はAIの規制が「不可欠」であり、OpenAIは「積極的に」政策立案者と協力したいと述べています。しかし、私たちはこのような主張やOpenAIの超調和チームのような努力には慎重であるべきです。OpenAIのような組織は、現実に実現するかもしれない仮想のリスクに注目させることで、規制の負担を現在から将来へと移しています。AIと労働、誤情報や著作権との関係については、政策立案者が取り組むべき今日のより直近の問題がたくさんあります。

引用元記事はこちら
OpenAI is forming a team to rein in superintelligent AI

error: Content is protected !!