Image Credit:Humans Can Destroy Themselves by Opening This AI Pandora’s Box

ChatGPTと呼ばれる言語モデルは、技術的、テクノ・ヒューマニタリアン、社会政治的な三重の革命を表しており、人工知能(AI)のパンドラの箱を開くことで種の存続を危険にさらすことがある、と専門家たちは警告しています。しかし、ニック・ボストロム教授は、ChatGPTの登場は人類が直面する存在的なリスクを伴いながらも、人類史上最も重要な使命を持つことを示していると認めています。一方、歴史家ニール・ファーガソンは、ChatGPTの影響は、単に自動化ツールの開発ではなく、爆薬、大量コミュニケーション、コンピュータ、ゲノム編集、核兵器の影響と同様に、人類社会に深刻な影響を与える可能性があると警告しています。また、シリコンバレーの「教父」と呼ばれるスティーブ・ブランク氏は、ChatGPTをパンドラの箱と呼び、言語モデルのさらなる強化によって、人類は自らを破壊する可能性があると述べています。したがって、AI分野の専門家だけでなく、哲学、歴史、イノベーション分野の知識人の意見も聞くことが重要だと言えます。


Pexelsによる写真提供

この文章は、弊種をはじめとするあらゆる生物を破滅させることができるAIの危険性や、その発展が人類史上最も重要な使命である一方で、人類の生存にとってのリスクを内包していることを述べています。また、AIに関する専門家の見解だけでなく、哲学、歴史、イノベーションなどの分野の知識人たちの見解も聞く必要があると述べています。具体的には、ニック・ボストロム、ニール・ファーガソン、スティーブ・ブランクの3人のアメリカ人が述べた意見を紹介しています。一方、言語モデルによる人間の自己破壊のリスクについて、ニール・ファーガソンは、凄惨な目に遭うリスクは言語モデルが私たちを消滅させることというより、人間同士が不正な目的で使用して種の破滅に至ることにあるとしています。また、スティーブ・ブランクは、言語モデルの大量投入が情報革命、生物工学、核兵器などと同じく、社会にとって影響を与えるものであると考え、私たちは火遊びをしていると述べています。

引用元記事はこちら
Humans Can Destroy Themselves by Opening This AI Pandora’s Box

error: Content is protected !!