Image Credit:OpenAI Raises Alarm on Superintelligence and AI’s Potential to Surpass Human Capabilities in the Next Decade

オープンAIは、AI(人工知能)の急速な進歩によって、超知能の規制が必要だと訴えています。同社は、AIのシステムが10年以内には専門家や最大企業を超越し、生産性やスキルで上回ると主張し、超知能の規制について重要性を強調しています。オープンAIは、超知能システムの発展には、主要な開発の調整、原子力機関に似た国際機関の設立、安全性のための技術的な能力の開発の3つの重要なアイデアが必要であるとしています。同社は、パブリックオーバーサイトと民主的なコントロールが必要なと考えています。しかし、オープンAIの創設者たちは超知能が生み出す可能性のある利益をも考慮しているため、超知能が作られることの停止は困難であり、リスクもあると述べています。オープンAIは、幅広い人々にAIを利用してもらいたいという信念をもっており、問題が起きる前に対処することが必要であるとしています。しかし、独立した監査や新しいモデルの作成のペースの制限、AIモデルの市場リリース前の安全性の評価委員会の設立などの対策も必要であると認識しています。


Pexelsによる写真提供

OpenAIが、AIの超知能の規制を核エネルギーの規制になぞらえ、問題提起を行いました。OpenAIによれば、AIによる生産性とスキルが10年以内には専門家や最大の企業を超えるということで、AI超知能には、特別な取り扱いと調整が必要だとのことです。AI超知能は、人類の総合知能、あるいは特定の知能のレベルを超えた存在を指し、その影響は積極的であると同時に悲惨なものになる可能性があります。OpenAIは、最善のAI超知能の開発に向けて成功の方針を提唱し、先進的な開発努力の調整、原子力機関に似た国際機関の設立、安全性の技術的能力の開発を強調しています。OpenAIは、AIは重大なリスクを伴うと認識していますが、このリスクはインターネットに関連する技術と同じレベルであり、これまでと同様のアプローチで取り組むことができると考えています。しかし、絶大なパワーを持つAI超知能には、公共の監督と民主的な管理が必要です。オープンな議論によって、OpenAIは知識の共有と多様な視点を促進し、AI超知能に関して提案した規制措置を理解することができます。

引用元記事はこちら
OpenAI Raises Alarm on Superintelligence and AI’s Potential to Surpass Human Capabilities in the Next Decade

error: Content is protected !!