コンテンツにスキップ

画像提供: iStock; セキュリティ管理

カジノサイト

AI ニュースの概要を使用して、検証してから信頼します

人工知能 (AI) アシスタントは便利かもしれませんが、特にニュースに関する場合、問題のある検索結果が表示されることがよくあります。

欧州放送連合 (EBU) の新しい調査によると、対象の言語、地域、AI プラットフォームに関係なく、AI アシスタントがニュース コンテンツを日常的に誤って伝えていることが判明しました。

国際研究、、18 か国の 22 の公共サービス メディア組織 (BBC、ラジオ フランス、CBC ラジオ カナダ、チェコ ラジオ、NPR を含む) が 14 の言語で活動しています。参加組織のプロのジャーナリストが、AI ツール ChatGPT、Copilot、Gemini、Perplexity からの 3,000 件を超える回答を、正確性、情報源、意見と事実の区別、重要なコンテキストの提供などの重要な基準に照らして評価しました。

顕著な問題がありました。すべての AI 回答の 45% には少なくとも 1 つの重大な問題があり、20% には幻覚の詳細や古い情報などの重大な精度の問題が含まれていました。回答の中には、意見や風刺的な内容を事実として表現したものもあります。重大度の低い問題を見ると、回答の 81% に少なくとも 1 つの問題がありました。

ここ数カ月で改善が見られました。あBBC 特有のニュースの質問に対する AI アシスタントの応答の 51 パーセントに重大な問題があることが判明しましたが、EBU の調査では 37 パーセントのみでした。

しかし、情報源は依然として大きな問題です。EBU レポートのために調査された全回答のうち 31% には、ニュースソースに誤った情報を与えるなど、情報源に関する問題があり、報道機関の信頼性が損なわれる可能性があります。 Gemini は調達に関するエラー率が特に高く、他の AI アシスタント プラットフォームでは 25 パーセント未満であったのに対し、回答の 72 パーセントには調達に関する重大な問題がありました。

AI アシスタントはすでに多くのユーザー、特に若いユーザーにとって検索エンジンに取って代わりつつあります。によると、25 歳未満の人の 15% がニュースを入手するために AI アシスタントを使用しています。。今週発表された別の調査では、イギリスの成人のわずか 42% が、AI が情報の正確な要約を作成してくれると完全に信頼していると答えています。 35 歳以下だけを見ると、その数はほぼ半数に達します。

ユーザーは複雑なニュース記事を要約するためにAIを利用する可能性が最も高いが、それらはAIが正確に捉えるのが最も難しいことがEBUの調査で判明した。アシスタントが最も苦労したのは、情報が急速に変化または更新される動きの速いストーリー、複数の関係者が関与する複雑なタイムライン、詳細な情報、または事実と意見の明確な区別と主張の適切な帰属が必要なトピックです。 FIFAワールドカップを開催する国の数やイーロン・マスクの出生地など、事実に基づいた率直な質問への回答には、重大な問題が含まれる可能性は低くなります。

EBU の報告書によると、AI アシスタントが作成したニュース概要の不正確さは、ユーザーの世界観やニュースの認識に重大な影響を与える可能性があります。

ニュース出版社にも影響を与える可能性があります。多くのユーザーは、AI 要約で問題が発生した場合、出版社や規制当局が介入してくれることを期待しており、あらゆる年齢層にわたって、人々は要約で引用されている情報源に誤りの少なくとも一部の責任があると考えている、と BBC が明らかにした。

「この調査は、これらの失敗が単独の事件ではないことを決定的に示しています」と EBU メディアディレクター兼副事務局長ジャン・フィリップ・デ・テンダー氏は次のように述べています。。 「それらは組織的で、国境を越え、多言語を使用しており、これが国民の信頼を危険にさらしていると私たちは考えています。人々は何を信じてよいのか分からないと、結局何も信用しなくなり、それが民主主義への参加を妨げる可能性があります。」

 

arrow_upward