Image Credit:AI isn’t and won’t soon be evil or even smart, but it’s also irreversibly pervasive

人工知能、特に今私たちが熱狂している大規模言語モデルに基づくものは、既にそのハイプサイクルの秋に入っています。しかし、暗号通貨のように、「流行」というステータスが消えてしまうわけではありません。むしろ、すでに普及している場所に落ち着いており、本来は適していない用途にも使用されています。
Doomerism(暗い未来を予測する考え)は、AIが人類を支配し消滅させるほど賢くなると主張していますが、実際の脅威は、私たちの共有の知識に漏れ込むエラーや幻想の氾濫する普遍的なレイヤーとして存在します。
AIに関する議論は、現実的な事実に基づいた議論の両側で続いています。シリコンバレーのエリートたちは、自分たちが賭けているテクノロジーの成功または失敗を絶賛または非難するキャリアを追いながら、たいていの技術は完全あるいは破滅的な状態にはならず、途中で頓挫することが多いことを肝に銘じる必要があります。最近の代表例には、自動運転やVR、メタバースなどがあります。
テクノロジーに関するユートピアとディストピアの議論は、その本来の目的である実際の技術の実際の影響についての真の対話から注意をそらすために行われています。AIは確かに大きな影響を与えてきましたが、特に1年以上前にChatGPTが導入されて以来、その影響は仮想的な神の種を無意識にまかなったかどうかではなく、むしろChatGPTがその創造者の比較的控えめな期待に遥かに応えるほど人気で、ウイルス性があり、定着力があるかどうかについてです。
最近の研究によると、生成的AIの利用はかなり普及しており、特に若いユーザーの間で増加しています。最近のSalesforceによる1年間の利用状況の調査によると、その主な使用目的は、業務タスクやコミュニケーションの自動化です。法的な論理構成の準備など特定の例外を除いて、これらのコミュニケーションや企業的な仕事におけるAIによる幻想による影響はほとんどありませんが、確かな誤りや軽微な不正確さのデジタル層を引き起こしていることも確かです。
これは人々が事実の誤りを排除して情報を伝えることに特に優れているわけではありません。実際、むしろその逆であり、SNSの誤情報経済が急激に増加していることが分かっています。意図的な行為や意図を除いても、エラーは人間の信念やコミュニケーションに固有の要素であり、常に共有される知識の中に息づいています。
違いは、LLMモデルベースのAIが、自己反省せずに常に簡単に行い、権威的な自信を帯びて行うこと、そして、Google検索結果やWikipediaなどによって比較的安定して信頼性のある情報が長年にわたって提供されてきたため、ユーザーがそのような結果に影響を受けやすいことです(「比較的」という言葉が重要な役割を果たしています)。初期の頃は、検索結果やオンラインで共有された情報には批判的な懐疑的な態度が持たれていましたが、Googleの検索ボックスにクエリを入力すると、何が帰ってくるかに対する不信感が薄れてしまいました。
ChatGPTやそれに類するものが、疑わしい正確性を持つ大量のコンテンツを日常的なコミュニケーションのために生成する結果は微妙でありますが、その影響を調査し、可能な限り軽減する価値があります。その最初のステップは、人々が現在の状態のAIにそんなに多くのものを任せることができると感じる理由を調べることです。広範な自動化が行われている場合、重要な問いはおそらく自動化ではなく、タスクに焦点を当てるべきです。
いずれにしても、AIがもたらす実際の、影響力のある大きな変化は既にここにあり、Skynetのようなものではなく、テクノ楽観的な夢が現実になる可能性に依存する可能性よりも研究に値するのです。


Pexelsによる写真提供

人工知能(AI)は、大規模な言語モデルに基づくものが注目されていますが、暗黙のうちに普及し、しばしばその用途には適していない場面でも使用されています。一部の人々は、AIが人類を支配したり滅ぼしたりすると考えていますが、現実的には、AIはエラーや幻覚の普遍的な層として私たちの共有の知識に浸透することで、より脅威となっています。
一方、未来論者とエコ・アクセラレーショニスト(e/acc)との議論は続いていますが、いずれの議論も現実の技術の現状とは関係なく、注目されるです。AIは確かに ChatGPT の導入以来、特に大きな影響を持っていますが、その影響は仮想的な神としてのAIの種をまいてしまったかどうかではなく、ChatGPTが予想以上に人気や注目を集める一方で、その能力は比較的控えめな期待に見合っていたことにあります。
最近の研究によれば、生成型AIの使用は若いユーザーを中心に広まっており、特に仕事上のタスクやコミュニケーションの自動化に用いられています。法的な議論の準備など一部の例外を除いて、AIによるこれらのコミュニケーションや企業の瑣末な作業におけるわずかな誤りの影響は無視できるものですが、それによって見落とされやすい事実の誤りや些細な不正確さが生じていることも間違いありません。
これは、人々が事実の誤りを含まない情報をうまく伝えることができるということではありません。むしろ、むしろ逆の事実で、特にトランプ政権の時代を含むそれ以前の年において、ソーシャルネットワーク上でのデタラメな情報が広まっています。悪意のあるアジェンダや意図的な行為を置いておいても、誤りは人間の信念とコミュニケーションの一部に含まれており、それが共有される知識の中に常に存在しています。
違いは、大規模言語モデル(LLM)に基づくAIが、自己反省することなく、茶化した様子でこれらの誤りを生み出し続けること、そしてそのようなAIが権威的な自信を装っていることです。これは、多くの年にわたり安定して信頼できる Google 検索結果や Wikipedia などによってネット上の情報が提供されてきたため、ユーザーがこれらのAIに対して感心を持つ対象となっているからです。
ChatGPTなどのAIが現在の状態で大量のコンテンツを疑わしい正確さで生成する結果は微妙ですが、それについては調査し、軽減する価値があります。まず、人々がなぜ現在の状態のAIにこれほどの重要な情報を委ねていると感じるのかを調査することが重要です。広範なタスクの自動化に関しては、自動化そのものではなく、タスクに焦点を当てるべきです。いずれにせよ、AIがもたらす本当の影響は既に存在し、スカイネットのような何かとは全く異なるものですが、可能性に依存するよりも研究に値するものです。

引用元記事はこちら
AI isn’t and won’t soon be evil or even smart, but it’s also irreversibly pervasive

error: Content is protected !!