Image Credit:Meta and Microsoft release Llama 2, an AI language model for commercial use

商業的なMeta AIモデルの噂は本当だったようです。MetaとMicrosoftが協力して、商業と研究の両方を目的とした次世代の大規模言語(非常に汎用的な)AIモデル、「Llama 2」を公開しました。アップグレードされたオープンソースコードでは、責任に重点が置かれています。開発者はモデルを「レッドチーム」化し(つまり、安全性をテスト)、潜在的な問題を詳細に示した透明な概要図を作成しました。責任ある使用ガイドも含まれており、犯罪活動、誤解を招く表現、スパムなどの濫用を防ぐための利用許容ポリシーもあります。

Metaは、Llama 2の事前学習済みバージョンと会話重視のバージョンを無料で提供します。MicrosoftはこれをAzure AIカタログを介して、コンテンツフィルタリングなどのクラウドツールと一緒に使用できるようにしています。このツールはWindows PC上でも直接動作し、Amazon Web ServicesやHugging Faceなどの外部プロバイダーを通じても利用できます。

元のAIモデルはオープンソースでしたが、学術目的と研究者のために限定されていました。Llama 2により、企業はチャットボットや画像生成など、自社の目的に合わせてテクノロジーをカスタマイズできます。理想的には、企業がモデリングの恩恵を受けながら、外部の人々がバイアスや不正確さ、その他の欠陥をチェックする手段を提供します。オープンソースコードはAIの世界では新しいものではありません。StabilityのStable Diffusionは注目される例です。ただし、OpenAIのGPT-4などの主要な競合他社は、定期購読料やライセンス収入のためにロックされる傾向があります。さらに、ハッカーやその他の悪意のある行為者がオープンソースライセンスを無視し、これらのツールを危険な目的で使用する可能性が心配されています。

GPT-4やAnthropicのClaude 2と同様に、責任ある使用に重点を置くことは驚くことではありません。テック業界では、大規模言語AIモデルが制御を失い、キラーロボットやさらなる誤情報の拡散につながることを懸念しています。専門家や企業のリーダーは、倫理的な問題や安全性の懸念に取り組むために、実験を6か月間凍結することを呼びかけています。政治家たちもAIを規制することを望んでおり、1つの上院法案はAIの開発者による損害を賠償することを意図しています。

Microsoftにとって、Llama 2はGoogleなどのAI競合他社に先んじるためのさらなる試みです。MicrosoftはすでにAzureやBingなどの製品でOpenAIシステムを活用しています。Metaとの提携により、Microsoftのビジネス向け顧客にはさらに選択肢が提供されます。特に、モデルを細かく調整して自社のニーズに合わせることに興味がある場合には、顧客にとって有益なものとなります。


Pexelsによる写真提供

商業志向のMeta AIモデルの噂が事実であったことが判明しました。MetaとMicrosoftが協力して、商業および研究目的のための次世代の大規模AIモデル「Llama 2」を発表しました。アップグレードされたオープンソースコードでは、責任重視が強調されています。開発者はモデルを「レッドチーム」(安全性をテストする)し、潜在的な問題を詳細に示した透明度のあるスキーマを作成しました。また、責任ある使用ガイドも含まれており、犯罪行為、誤った表現やスパムなどの乱用を防ぐための受け入れ可能な使用ポリシーもあります。

Metaは、事前トレーニング済みおよび対話志向のバージョンのLlama 2を無料で提供しています。MicrosoftはAzure AIカタログを通じてクラウドツール(例:コンテンツフィルタリング)で利用できるようにしています。また、このツールはWindows PC上でも直接実行することができ、Amazon Web ServicesやHugging Faceなどの外部プロバイダを通じても利用可能です。

元のAIモデルはオープンソースでしたが、学術および研究者向けに厳密に設計されていました。Llama 2では、企業がチャットボットや画像生成など、自社の目的に合わせてテクノロジーをカスタマイズできるようになりました。これにより、企業はモデリングの恩恵を受ける一方で、外部の人々が偏見、不正確さ、およびその他の欠陥をチェックする方法が提供されます。オープンソースコードはAIの世界では新しいものではありません。StabilityのStable Diffusionはその一例です。ただし、OpenAIのGPT-4などの主要な競合他社は、購読料やライセンス収益のためにロックダウンされる傾向があります。また、ハッカーやその他の悪漢がオープンソースライセンスを無視し、それらのツールを危険な目的に使用する可能性も懸念されています。

GPT-4やAnthropicのClaude 2と同様に、責任ある使用に重点を置くことは驚くべきことではありません。技術業界は、大規模な言語AIモデルが制御を失い、キラーロボットや誤情報のさらなる拡散を招く可能性に懸念を抱いています。専門家や企業のリーダーは、倫理的および安全上の懸念に取り組むために、6ヶ月間の実験凍結を提案することさえあります。政治家たちもAIを規制したいと考えており、ある上院法案はAIの作成者を損害賠償の対象とすることを意図しています。

Microsoftにとって、Llama 2はGoogleなどのAI競合他社に先んじるためのさらなる試みです。Microsoftは既にAzureやBingなどの製品でOpenAIのシステムを活用しています。Metaとの協力により、Microsoftのビジネス向け顧客は、自社のニーズに合わせてモデルを細かく調整することができる選択肢が増えました。

引用元記事はこちら
Meta and Microsoft release Llama 2, an AI language model for commercial use

error: Content is protected !!