Image Credit:Why ChatGPT lies in some languages more than others

AIはまだ開発中であり、誤情報を信頼を持って吐き出す可能性について、我々は注意を払う必要がある。しかし、特定の言語になると、その可能性が高まることがあるようだ。ニュースガードというデマ監視組織が行った調査によると、ChatGPTは中国語でより多くの誤った情報を繰り返し発信することが分かった。英語で聞かれた場合、うまく真実を伝え、七つのうち一つにだけ中国政府が発信する内容を反映した記事を生成した。しかし、簡体字や正字体の中国語で尋ねた場合、信憑性に欠ける表現を提示し続けた。この原因は、言語モデルがAPI呼び出しに基づいて文章を作り出すためであり、そのためにデータを解析して何を言いたいかを予測するのに過ぎないからだ。そのため、開発者はAIの発信する情報がどこから来たのか、どのようなデータに基づいているのかを常に留意する必要がある。

AIの文言が異なる原因は、言語モデルが言葉や文脈からパターンを認識し、学習データに基づいて予測するからである。される質問自体が学習データにあるかどうかによって、答えが異なる。NewsGuardが実施したテストで、中国政府に対する虚偽の主張を英語、簡体字中国語、繁体字中国語で問い合わせた場合、英語の場合は正確な答えしか出さなかったが、中国語で有権者を「挑発する者」と主張するなどの誤った情報を出してしまった。つまり、AIは学習データに基づいて答えを出すものであるため、表現の異なる言語で出題された場合、回答も異なってしまう可能性がある。今後の言語モデルの発展には、その言語モデルが学習したデータの信頼性も考慮する必要がある。

引用元記事はこちら
Why ChatGPT lies in some languages more than others

error: Content is protected !!