カジノサイト
ユーロポールの調査が、ChatGPT が犯罪の促進と闘いにどのように使用される可能性があるかを共有
チャットに参加しました。 ChatGPT は、一般の人々がプログラムに慣れることを目的として 2022 年 11 月に OpenAI によってリリースされた LLM です。
ChatGPT には現在 1 億人のユーザーがおり、利用可能です。多くのユーザーが、カバーレターの作成から授業計画の作成、買い物リストの作成に至るまで、ChatGPT の使用方法を模索している一方で、法執行機関も、新しい人工知能 (AI) ツールが業務にどのような影響を与えるかを注意深く追跡しています。
最近、ユーロポールのイノベーション ラボは、犯罪者が LLM、特に ChatGPT を悪用する方法を調査するため、業務分析、重大な組織犯罪、サイバー犯罪、テロ対策、情報技術の各分野の専門家とワークショップを開催しました。調査結果は、 にまとめられました。—月曜日に公開されました。
「この報告書の目的は、LLM の潜在的な悪用についての意識を高め、人工知能 (AI) 企業との対話を開始して、より良い安全策の構築を支援し、安全で信頼できる AI システムの開発を促進することです」とユーロポールは述べています
ChatGPT の基本
ChatGPT は LLM、つまりテキストを処理、操作、生成できる AI システムの一種です。機能するには訓練が必要です。 ChatGPT のトレーニングに使用されたマテリアルは、インターネットからの 45 テラバイトのテキストで構成されていました。どちらも教師なし (人間の言語の構造とパターンを学習するために特定のテキスト内の欠落している単語を予測するため) と、人間のフィードバックからの強化学習 (人間の入力により、ChatGPT がパラメーターを調整してパフォーマンスを向上させることを学習するのに役立ちました)。
チャットGPTは現在 4 番目のモデルである GPT-4 を使用しており、以前のバージョンよりも高度な問題を解決できます。ただし、トレーニングに使用されるデータは 2021 年 9 月までのものです。また、次のような答えが得られることもあります。もっともらしいですねしかし実際には不正確か間違っています。
「GPT-4 は一般に、データの大部分が遮断された (2021 年 9 月) 後に発生したイベントに関する知識が不足しており、その経験から学習していない」と OpenAI は、「時として、非常に多くの領域にわたる能力に見合わないと思われる単純な推論上の誤りを犯したり、ユーザーからの明らかな虚偽の発言を過度にだまされやすくしたりすることがあります。また、生成するコードにセキュリティの脆弱性を持ち込むなど、人間と同じように難しい問題で失敗することもあります。」
テクノロジー記者のカーラ・スウィッシャー氏とともに、Open AI CEO のサム・アルトマン氏は、社会がこれらの新しいツールの存在に適応できるように ChatGPT を一般公開することが重要であると述べました。
「さて、私たちがこの取り組みを行っている理由は、社会に大きな利点をもたらしながら、それらの欠点を最小限に抑えたいからであり、それが可能であると考えています」とアルトマン氏は説明した。 「しかし、私たちの信念では、それには世界への継続的な展開が必要です。そこでは人々がこのテクノロジーに徐々に慣れていき、機関、規制当局、政策立案者にそれに反応する時間を与え、人々にそれを感じさせ、エクスプロイトや世界が思いつくであろう創造的なエネルギーを見つけてもらいます。私たちや私たちが雇えるすべてのレッドチームが想像もつかない使用例です。」
OpenAI は、テクノロジーの悪意のある使用を防ぐために、ChatGPT に保護機能も追加しています。たとえば、OpenAI ポリシーにより、ChatGPT は性的、憎悪的、暴力的、または自傷行為を促進するコンテンツのテキスト入力を評価し、これらのプロンプトに応答する能力を制限することができます。ただし、プロンプト エンジニアリングを使用してこれらのポリシーの一部を回避できるため、これはフェイルセーフな方法ではありません。
ユーロポールの調査結果
ユーロポールによる ChatGPT の分析では、ChatGPT が提供する情報はすでにインターネット上で入手可能である一方、「モデルを使用して状況に応じた質問をすることで具体的な手順を提供できるということは、悪意のある攻撃者がさまざまな種類の犯罪をよりよく理解し、その後実行することが非常に容易になることを意味します。」
ユーロポールの研究者は、ChatGPT を使用して、より本物に見えるものを作成してフィッシングを強化する方法に特に興味を持っていましたフィッシングとオンライン詐欺キャンペーンの規模を拡大してより迅速に実施します。
「したがって、ChatGPT は、文脈に応じてメッセージに応答し、特定の文体を採用する能力を考慮すると、特にソーシャル エンジニアリングを伴う犯罪の場合、犯罪者に新たな機会を提供する可能性がある。」と報告書は述べています。 「さらに、ChatGPT を使用して偽のソーシャル メディア エンゲージメントを生成することにより、さまざまな種類のオンライン詐欺にさらなる正当性を与えることができます。たとえば、詐欺的な投資オファーを宣伝するなどです。」
さらに、本物に聞こえるテキストを迅速かつ大規模に生成する ChatGPT の機能により、ユーザーの労力をほとんどかけずにプロパガンダや偽情報キャンペーンを促進できる可能性があります。
「たとえば、ChatGPT は、他の関係者に代わってオンライン プロパガンダを生成し、偽情報やフェイク ニュースであることが暴かれた特定の見解を推進または擁護するために使用される可能性がある」と報告書は説明しています。
ユーロポールの研究者らはまた、ChatGPT を使用すると、技術的知識のない人がフィッシング ページや悪意のあるページの作成などのサイバー犯罪に参加できる可能性があるとの懸念を強調しました
「このタイプの自動コード生成は、コーディングや開発の知識がほとんどまたはまったくない犯罪者にとって特に役立ちます。」と報告書は述べています。 「重要なことに、ChatGPT が潜在的に悪意のあるコードを提供することを防ぐ安全策は、モデルが何をしているのかを理解している場合にのみ機能します。プロンプトが個々のステップに分割されている場合、これらの安全対策を回避することは簡単です。」
これらの能力は現在も存在しますが、ユーロポールの研究者らは将来への懸念も強調しました。たとえば、LLM がより高度になるにつれて、他の AI サービスと統合して、ディープフェイクなどの合成メディアを作成できる可能性があります。
「その他の潜在的な問題としては、何の安全策も講じずにチャットボットを提供するためにダーク Web 上でホストされる可能性がある『ダーク LLM』の出現や、特定の (おそらく特に有害な) データに基づいて訓練された LLM の出現が挙げられます」と研究者らは説明した。 「最後に、LLM サービスが将来ユーザー データをどのように処理するかについては不確実性があります。会話が保存され、機密の個人情報が未承認の第三者に公開される可能性はありますか? また、ユーザーが有害なコンテンツを生成している場合、これを法執行機関に報告する必要がありますか?」
ChatGPT がどのようにして犯罪者に利用され始めるのかを知ったユーロポールの研究者らは、法執行機関と非政府組織が、違法行為への LLM の使用を制限するための新たな強化された保護手段の作成に関与することが重要であると書いています。
彼らはまた、法執行官がChatGPTを含むLLMを最大限に活用するスキルの開発を開始し、知識を構築し、専門知識を拡大し、結果を引き出すためにLLMをどのように活用できるかを理解することを推奨しました。法執行機関は、目的に合わせてカスタマイズされた LLM の作成を検討することもできます。
「技術が進歩し、新しいモデルが利用可能になるにつれ、法執行機関がこれらの開発の最前線に立って悪用を予測して防止し、潜在的な利益を確実に活用できるようにすることがますます重要になる」と報告書は述べている。 「このレポートは、この新興分野の最初の調査です。このテクノロジーの急速なペースを考慮すると、その可能性を最大限に理解するには、対象分野の専門家がこの研究をさらに進め、より深く掘り下げることが依然として重要です。」
ChatGPT が言いたかったこと
ユーロポールの報告書を確認した後、セキュリティ管理ChatGPT 自体がヨーロッパの法執行機関にどのような影響を与える可能性があるかを尋ねることにしました。
ChatGPTは、異なる言語を話す他者とコミュニケーションをとる必要がある警察官の言語翻訳能力の強化など、ヨーロッパの法執行機関にとってのいくつかの機会を強調しました(ヨーロッパでは一般的な状況です)。予測警察機能 (法執行機関がリソースを適切に割り当てるのに役立ちます)。音声およびビデオ記録の自動転写。ソーシャル メディアからの情報収集機能も向上しました。
法執行機関でChatGPTを使用する場合、問題を悪化させる可能性があるため、倫理的な考慮事項を考慮する必要があるとも述べた偏見と差別。
「たとえば、大規模な言語モデルのトレーニングに使用されるデータに、特定の種類の犯罪や特定の種類の容疑者に関するより多くの情報が含まれているなど、何らかの形で偏りがある場合、そのモデルは現実世界のアプリケーションで使用されるときに偏った出力を生成する可能性が高くなります」とChatGPTは書いています。 「偏った出力は特定のグループの人々に対する不公平な扱いにつながる可能性があるため、これは法執行機関に深刻な影響を与える可能性があります。」
ChatGPT が提供した具体的なシナリオは、犯罪が発生する可能性が高い場所を予測するために LLM を使用して説明されましたが、LLM は特定の地域や人口統計に偏ったデータに基づいてトレーニングされていたため、警察の存在を増やすためにそれらのグループを不当にターゲットにする予測を生成しました。
「同様に、犯罪行為に関する情報を収集するためにソーシャルメディアデータを分析するために使用される大規模な言語モデルが、特定の種類の人々や活動に偏ったデータに基づいてトレーニングされた場合、そのモデルは監視や調査の対象としてそれらのグループを不当に標的にする出力を生成する可能性がある」とChatGPTは付け加えた。 「法執行機関にとって、こうした潜在的なバイアスを認識し、それらを軽減するための措置を講じることが重要です。これには、より多様で代表的なデータを使用してモデルをトレーニングすること、モデルの出力を監視して偏った結果が生成されていないことを確認すること、モデルが公正かつ倫理的に使用されていることを確認するためのポリシーと手順を実装することが含まれる可能性があります。」
ChatGPT は、犯罪を促進または奨励するためにどのように使用される可能性があるかについての質問には回答しませんでしたが、他のテクノロジーと同様に、LLM はフェイク ニュースの生成、偽情報の拡散、フィッシング メールの作成に使用される可能性があると述べました。

また、法執行機関がLLMの犯罪目的での利用を制限するために導入できる安全措置があるとも説明した。これらの提案の多くは、LLM に関する教育と認識、その使用方法、製品作成の検出方法など、ユーロポールの研究者の調査結果と重複していました。他の AI テクノロジーを使用して、犯罪目的での LLM の使用を検出および防止します。 LLM の規制と監視。テクノロジー企業、学術界、法執行機関間の協力。
「最終的には、大規模な言語モデルの犯罪目的での使用を防ぐには、法執行機関、テクノロジー企業、政策立案者、一般大衆の協力的な取り組みが必要になるだろう」とChatGPTは述べた。










