ニュースソースにAIチャットボットを頼るべきでない理由

AIチャットボットに関する注意喚起

AI搭載のチャットボット、特にChatGPTは、時には信じられないほどの事実に基づかない情報を提示することがあります。これは、GPSが湖を横切るように誤った道案内をするのと似ています。この懸念は、Nieman Labによる最近の実験に基づいています。この実験は、ChatGPTがOpenAIと利益契約を結んでいるニュース組織の正確なリンクを提供できるかどうかを確認するものでした。

その結果は驚くべきものでした。ChatGPTは正しいURLではなく、404エラーページに誘導する架空のリンクを生成しました。この現象は、AI業界で「ハルシネーション」と呼ばれ、情報を自信を持って誤表現するシステムを示しています。Nieman Labのアンドリュー・デック氏は、ChatGPTに10の主要出版社からの独占記事へのリンクを生成するよう依頼しましたが、結果は過去のテストと同様、誤ったURLが出力されました。

OpenAIの担当者は、Nieman Labに対し、会話AI機能とリアルタイムのニュースコンテンツを組み合わせるシステムを開発中であると認めました。このシステムは、適切な出所の表示と正確なリンク提供を確保することを目指していますが、リリースの時期や信頼性についての具体的な情報はまだ明らかになっていません。

これらの不確実性にもかかわらず、ニュース組織はOpenAIのモデルに多くのコンテンツを提供し、報酬を受け取っていることで、しばしば自らの信頼性を犠牲にしています。一方で、AI企業は契約のないさまざまな情報源からのコンテンツを利用してモデルの訓練を行っています。MicrosoftのAI責任者ムスタファ・スレイマン氏は、公開されているすべてのインターネットコンテンツを「フリーウェア」と表現し、搾取の文化を強調しました。この執筆時点でMicrosoftの市場評価額は3.36兆ドルとなっています。

要点は明確です:もしChatGPTがURLを捏造しているなら、事実を捏造する可能性も高いということです。生成AIは本質的に高度なオートコンプリートとして機能し、真の理解なしに、次に続く論理的な言葉を予測するだけです。たとえば、私が著名なチャットボットを利用してニューヨークタイムズのスペリングビーを解こうとしたところ、彼らは大いに苦戦しました。これは、事実情報を生成AIに頼ることが非常にリスクが高いことを示しています。

Most people like

Find AI tools in YBX

Related Articles
Refresh Articles