カジノサイト
生成 AI を犯罪に利用: 詐欺、偽情報、搾取など
フェイクニュース、操作されたメディア、ディープフェイク - 偽情報は、ますます洗練された生成人工知能 (Gen AI) ツールによってオンラインで進化し続けています。特にディープフェイクは、ビデオまたは音声の形式で個人を模倣し、さまざまな犯罪目的を達成するために使用されてきました。
ディープフェイクでは組織に対する意図的な評判を傷つける可能性は確かにありますが、悪意のある攻撃者は、より具体的で即時の利益を得たり、個人に損害を与えたりすることを目的とすることが多くなります。
Resolver の製品責任者、George Vlasto 氏によると、AI のリスクと機会についてのプレゼンテーションで講演しました。セキュリティ サミット、AI モデルは次のような多くの脅威を可能にします。
- マルウェアの作成。AI は迅速なコーディングに優れており、最小限の技術スキルを持つ悪意のある攻撃者がマルウェアを拡張および変更できるようにします。ただし、AI ツールはコードを幻覚させる可能性があります。つまり、AI を副操縦士として使用する正規のプログラマーによってマルウェアや脆弱性が誤って作成される可能性があります。
- 改変された現実。攻撃者は、既存のビデオに間違った音声を口パクしたり、ビデオのカットを目に見えずにキーフレーズを切り取ったりするなど、非常に現実的にビデオや音声を編集してメッセージを変更することができます。
- ソーシャル エンジニアリング。AI により、攻撃者は既知の声、口調、合図、顔をコピーすることで、フィッシングや感情操作の試みを高度にパーソナライズすることができます。
- ディープフェイク。偽情報や政情不安は、物語を伝える説得力のあるビデオや音声が提供されると、ソーシャルメディア上で非常に急速に広がる可能性があるとブラスト氏は言います。このため、時間が経つにつれて、人々は自分が目にするもの、特にオンラインのものはすべて信頼できないと考えるようになり、社会の絆や制度への信頼が損なわれる可能性があります。
フェイクニュースは新しいものではないが、生成AIツールの送信速度と参入障壁の低さは革命的であり、ディープフェイクや誤解を招くように改変されたメディアは追加コストなしで即座に拡散できることを意味するとヴラスト氏は付け加えた。ディープフェイク検出技術が追いつこうと競い合っている一方で、主な防御線は、いつものように、情報を持った警戒心の強い人々です。
「AI ベースの攻撃のベクトルは人間であることはよく理解されています」とヴラスト氏は言います。ディープフェイクベースの詐欺は、義務付けられたセキュリティ プロトコルから逸脱するように人々を説得しようとします。これは、防衛手段がこれまでと同じ、訓練、教育、よく理解された手順であることを意味します。
その流れで、最近ディープフェイクや操作されたメディアが悪用されている主要な分野のいくつかを掘り下げてみる価値はあります。
詐欺と詐欺
なぜ人はディープフェイクを作るのでしょうか?ほとんどの場合、すべてはお金に関するものです。詐欺師は有名人のディープフェイクを利用して偽物の商品を宣伝し、バイラルビデオの話題で手っ取り早く利益を増やそうとします。詐欺師はまた、生成 AI ツールを使用して音声ディープフェイクを作成し、人々を騙して正当な人物と話していると信じ込ませます。たとえば、香港の設計およびエンジニアリング会社の従業員が会社の最高財務責任者と他の複数のスタッフになりすましたディープフェイク通話の後、詐欺師に送られました。
詐欺師がお金とデータの両方にアクセスできるように、金融サービス会社が特に標的にされています。デロイトのレポートによると、生成 AI は今日の金融業界にとって最大の脅威となっており、米国における詐欺被害は 2023 年の 123 億ドルから 2027 年までに 400 億ドルに達する可能性があります。
「一部の詐欺タイプは、他のタイプよりも生成 AI に対してより脆弱である可能性がある」と報告書は述べています。 「例えば、ビジネスメールの侵害44938_45732
業界を標的とした大規模な詐欺以外にも、AI を利用した詐欺の試みは個人にも及ぶ可能性があります。の 2024 年のレポートによると、ディープフェイク動画は作成が複雑で、人々が詐欺であることを見破りやすい一方で、音声ディープフェイクは安価であり、説得力のあるものを生成するのに誰かの声を数秒だけ必要とします。.
詐欺師たちは、このアクセス可能なテクノロジーを利用して、誘拐され身代金を必要としている家族になりすまして、悲惨なメッセージや電話を送信しました。これら被害者の感情を利用して、迅速な支払いを確保します。
で、ジェニファー・デステファノさんは未知の番号から電話を受け、電話に出ると、抑揚まで娘の声にそっくりな叫び声とすすり泣きが聞こえました。その後、男の声が彼女に娘を誘拐し、薬物を投与して暴行すると脅し、身代金として100万ドルを要求したと告げた。デステファノさんはなんとか夫に連絡を取り、娘が一緒にいて無傷であることを確認した。しかし、電話の向こうの声は恐ろしく現実的で、デステファノさんはジャーナリストに対し、詐欺師たちがソーシャルメディアアカウントやビデオから必要な音声クリップを収集し、AIツールを使って娘の声を複製したと確信していると語った。
その、「詐欺師は AI を使ってあなたの愛する人の声を複製する可能性があります。彼に必要なのは、オンラインに投稿されたコンテンツから入手できる家族の声の短いオーディオ クリップと、音声複製プログラムだけです。詐欺師があなたに電話をかけると…あなたの愛する人の声とまったく同じように聞こえます。」
それで、何ができるでしょうか?デステファノ氏の場合と同様に、FTC は電話の相手の声を信用しないようにとアドバイスしています。 「あなたに連絡してきたと思われる人に電話して、話の内容を確認してください。その人のものであるとわかっている電話番号を使用してください。愛する人に連絡が取れない場合は、別の家族やその友人を通じて連絡してみてください。詐欺師は、返金が困難な方法で支払いや送金を要求します。電話の相手が、電信送金、仮想通貨の送金、またはギフトカードの購入を要求し、カード番号と PIN を伝えた場合は、詐欺の兆候である可能性があります。」
新しい FTC の報告書によると、2023 年に Best Buy またはその Geek Squad 技術サポート ブランドになりすました詐欺師の事例が 52,000 件報告されており、これは 2 番目に多くなりすましたブランドである Amazon (34,000 件の報告) をはるかに上回っています。
— セキュリティ管理 (@SecMgmtMag)
選挙への影響
2024 年は世界中で選挙旋風が巻き起こる。今年は少なくとも 64 か国の人々が国政選挙に投票する予定であり、そのうちのいくつかの人種は特に論争を巻き起こしています。世界経済フォーラム (WEF) のリスク専門家らは、誤った情報と偽情報は、重大な注目を集める短期的なリスクであり、社会の二極化、テロの脅威、国家間の武力紛争、人権の侵食に関連しているということ。テクノロジーを利用した偽情報は、これらすべての要因をさらに悪化させる可能性があります。
AI ツールは使いやすくなっているため、さまざまな人々が利用しやすくなり、プロ並みの画像やコミュニケーションをすばやく作成できます。これらの AI モデルは、「洗練された音声クローンから偽造 Web サイトに至るまで、偽情報やいわゆる『合成』コンテンツの爆発的な増加をすでに可能にしている」と WEF の報告書は説明しています。
ほとんどのテクノロジーを活用した影響力キャンペーンや偽情報と同様、「その一部は私たちがコントロールできますが、一部はコントロールできません」と、Netskope のクラウド戦略およびイノベーション責任者であり、テクノロジー法と政策を専門とする IANS の教育者でもある Shamla Naidoo 氏は言います。 「私の主な取り組みは、有権者の IQ を高め、問題を認識させ、思考と意思決定を導くためのリソースを提供し、被害者になる可能性がある問題と直面する可能性のある課題について教育し、投票者に投票方法を教えるのではなく、自分たちの周りの世界と実際に存在する詐欺についてもっと認識できるようにすることです。」
選挙期間におけるディープフェイクは、直接投票技術やシステムをハッキングするというよりは、選挙がいかに公正であるかについての意見を覆したり、特定の候補者を中傷したりすることを目的としています。
「心理操作というこの考え方は、古くからあるスパイ工作のような手法です」とナイドゥー氏は付け加えた。 「ここに新しいことは何もありません。しかし、テクノロジーのおかげで、人々はそれをはるかに速く、はるかに簡単に行うことができ、そしておそらく最も重要なことは、ほとんどお金をかけずにそれを行うことができるようになります。これにより、脅威が指数関数的に加速しています。単純に、参入障壁がほとんどすべて消え去ったため、たとえ残っていたとしてもです。」
中国の俳優とボットは、1月の台湾総選挙前に台湾にフェイクニュースとディープフェイクの偽情報を大量に送り込み、有権者を中国寄りの候補者に誘導しようとした。。ディープフェイク動画は、大統領候補者に複数の愛人がいたと主張するなど、人格暗殺ツールとして使用されました。
インドでは、一か八かの選挙が、紛らわしいディープフェイクの波によってさらに複雑化した。その中には明らかなもの、下品なもの、冗談めいたものもあれば、不気味なほど説得力のあるものもあった。 AI が口パクしたクリップでは、政治家が政党を辞めたり、有名人が候補者を支持したりする様子が描写され、本物のビデオ映像の上に AI でクローン化された音声が重ねられていました。報告しました。
米国大統領選挙も同様に盛り上がっており、ジョー・バイデンとドナルド・トランプの間の非常に不安定なレースに注目が集まっている。テクノロジーとオンラインの偽情報は、注目と票を獲得する闘争においてすでに注目すべき役割を果たしています。
2024 年 5 月、ルイジアナ州の政治コンサルタントはニューハンプシャー州の民主党予備選挙で人々にジョー・バイデンへの投票を思いとどまらせるために、ジョー・バイデン米国大統領を模倣した偽のロボコールに対して、彼の声の偽バージョンを使用した。これとは別に、米国連邦通信委員会(FCC)は、この通話が不正確な発信者番号情報に関するFCC規則に違反しているとして、AIが生成したバイデン氏の声のディープフェイク音声を使用したとされる通話に対し、コンサルタントに600万ドルの罰金を科すことを提案した。
その4 つの AI 画像生成ツールで 2024 年の米国大統領選挙に関連する数十のテキスト プロンプトをテストしたところ、41% のケースで、ツールは刑務所の独房で悲しそうに座っている候補者や病院のベッドで病気で横たわっている候補者など、説得力のある選挙偽情報画像を生成しました。このツールは、ゴミ箱に捨てられた投票用紙や投票所での暴動などの誤解を招く画像を表示するなど、選挙の不正や脅迫を促進する画像を生成する可能性が最も高かった。
「前回の米国選挙で選挙不正と有権者への脅迫の主張が横行したことを考えると、これは特に憂慮すべき傾向である」とCCDHの報告書は述べている。 「このような AI 生成画像が『証拠写真』として機能する可能性があるため、虚偽の主張の蔓延がさらに悪化する可能性があり、選挙の完全性を維持する上で重大な課題となっています。」
個人は誤解を招くコンテンツや操作されたコンテンツを検出して報告するためのリソースを持っていますが、そのためにはスピードを緩めて懐疑的になる必要があるとナイドゥー氏は言います。
「現在、消費者はかつてないほど影響力を持っています。なぜなら、私たちに届く情報がたくさんあるからです。しかし、人々が何かが事実であるかどうかを判断し、それをフィクションと区別できるようにするために、私たちが人々と共有する必要があるリソースもたくさんあります。」と彼女は言います。
「消費者は、デスクやモバイル デバイス、画面に流れるすべての情報に懐疑的な目を向ける必要があると思います」と Naidoo 氏は続けます。 「彼らは目に見えるものすべてを疑うべきだ。消費者としていくつか疑問があると思います。それは、この情報はどこから来たのかということです。由来は何だったのでしょうか?起源を知っていて信頼できますか?なぜなら、物事が本物に見える可能性があるからです。」
彼女は消費者に、特に選挙や政治関連のコンテンツをオンラインで評価する場合、鋭い質問をするよう勧めています:
- この情報の発信者は誰ですか?誰が作成したかわかりますか?
- この特定の素材に対する著者または作成者の関心は何ですか?利益相反はありますか?
- 視点は 1 つだけですか、それとも他の場所に存在する可能性があるので、探しに行く必要がありますか?
- 情報についてどう感じているかを判断するには、情報をどのように三角測量すればよいですか?
- これを読んだとき、他の人は私がこの情報をどう扱うことを期待しているでしょうか?彼らは私が考えを変えたり、別の投票をしたり、別の方法や場所で支援を提供したりすることを期待しているのでしょうか?
- この情報を見て、私の行動は変わりますか?そうすべきですか?
「決断を下す前に、私たちは立ち止まって、自分が持っている情報と取るべき行動についてよく考える方法として、たくさんの質問をする必要があります」とナイドゥー氏は言います。 「今すぐこの行動を起こす必要がありますか、それとも明日までその行動を起こすのを待ったほうがいいでしょうか?すべてが瞬時に起こるからです。」
地政学的偽情報
ディープフェイクや操作されたメディアは、選挙以外でも、世論に影響を与えるという点では国民国家の武器の一つにすぎません。
米国当局者が、ウクライナがロシア国境内の限定的な攻撃で米国の兵器を使用する可能性があると述べた翌日、米国国務省報道官がロシアの都市ベルゴロドが正当な攻撃目標であると示唆する捏造ビデオを放映した。5月下旬。 49秒のビデオクリップには、時間外の口パクやビデオ全体で色が変わったシャツなど、明らかな操作の兆候があったが、ビデオはテレグラムチャンネルですぐに広まり、ベルゴロド住民に届き、ロシア政府当局者からの反応を引き出した。
ビデオで真似した国務省報道官マシュー・ミラーは声明の中で、「クレムリンは、偽情報の拡散を、ロシア国内だけでなく国境を越えて人々を誤解させるための中核戦略としている。自分たちの決定がうまくいっていない兆候として、自国民を守るために、そして世界の他の国々は言うまでもなく、完全な偽物に頼らなければならないこと以上に説得力のある兆候を考えるのは難しい。」
しかし、戦争や紛争地帯の外では、ディープフェイクは恐怖と混乱を植え付けるために使用されてきました。親ロシア団体は昨年、AIを使ってトム・クルーズの声を偽った国際オリンピック委員会(IOC)に関するフェイクドキュメンタリーを公開した。このグループの偽情報キャンペーンは続いており、パリオリンピックを巡る差し迫った暴力の感覚を醸成するために最近のニュースを利用して、多言語で週に3~8本の偽ビデオを作成し続けている。.
によると、マイクロソフト脅威分析センターのゼネラルマネージャー、「地上では、ロシアの関係者が、抗議活動や現実世界の挑発のような錯覚を作り出し、厳重な警備への重点を悪用しようとしている可能性があり、その結果、IOCとフランスの治安部隊への信頼が損なわれることになります。オリンピック会場の近くまたはその周囲で、実際のイベントか組織されたイベントかを問わず、イベントを対面で演出することは、国民の認識を操作し、恐怖と不安感を生み出すために利用される可能性があります。」
例えば、このグループは、テロの脅威を理由に参加予定者に近づかないように警告する情報機関を装った欺瞞的なビデオを制作したり、パリ市民がテロ被害をカバーするために大会前に追加の損害保険に加入していたり、テロの恐れから大会チケットの 24% が返還されたと主張したりする正当な報道機関を制作した。
ディープフェイクと音声のなりすましにより、これらのキャンペーンはより説得力があり、ソーシャルメディアで共有されやすくなっており、安全なイベントを推進しようとしている当局者にとって、広まった陰謀論の誤りを暴くことはより困難となっている。
ポルノとジェンダーに基づく被害
アン個人情報盗難サービス会社ホーム セキュリティ ヒーローズより、オンラインのディープフェイク ビデオ全体の 98 パーセントがディープフェイク ポルノであることを発見しました。これらのビデオでは、ターゲットにされている個人の 99% が女性です。ディープフェイク ポルノは、女性に対する脅迫の手段として、女性のキャリアを台無しにするために、またはリベンジ ポルノなどの暴行の手段として使用されてきました。
2024年1月下旬、ポップ界のメガスター、テイラー・スウィフトが複数のポルノ的または暴力的なディープフェイク画像に描かれ、ソーシャルメディアプラットフォーム上で拡散し、24時間以内に2,700万回以上の再生回数を集めた。コンテンツは主要なプラットフォームから削除されましたが、誰もが迅速かつ断固とした行動を起こすための法的リソースをスウィフトが持っているわけではありません。
ユニバーサルデジタル著作権同盟(AUDR)からの説明によると、「ディープフェイク画像ベースの性的虐待は、高度な人工知能(AI)を使用して、欺瞞的で同意のない露骨な性的コンテンツを作成する、テクノロジーによって促進された性的搾取と性的虐待の増大する憂慮すべき形態を表している。弱い立場にあるグループ、特に女性と少女は、ディープフェイク画像ベースと戦う際に、増幅されたリスクと特有の課題に直面している」性的虐待。」
これらのビデオや画像の一部は、デジタル セクストーション計画の被害者に対してさらに使用されます。 2023年にFBI悪意のある人物が、加工された写真や動画を使用して被害者から身代金を強要したり、実際の性的なテーマの画像や動画の送信などの他の要求に応じたりすることについて。ディープフェイク技術を使用すると、加害者は説得力の高いコンテンツを作成して、被害者に圧力をかけて従わせることができます。
あからさまなディープフェイクは、オンラインで活動家、政治家、ジャーナリストを黙らせるための脅威としても使用されます。テイラー・スウィフトのディープフェイクを受けて、ネット上で画像に反対の声を上げた女性のディープフェイクを作ると人々が脅迫された。.
「加害者が被害者に物理的に近づく必要がないため、サイバースペースは虐待を促進します」と、Equality Now のデジタル権利アドバイザーであるアマンダ マニャメ氏は、グラマー記事。 「さらに、インターネットが提供する匿名性は、加害者が匿名のままで追跡が困難なまま危害を加えるのに最適な環境を作り出します。」
テクノロジーによって促進された性的搾取に関する法的枠組みは、世界中の複数の法域で構築されていますが、国境を越えた不一致により、被害者の保護が困難になっていると、a。欧州連合の AI 法や英国の新しいオンライン安全法の性犯罪法の規定など、最近提案された法案は、プラットフォームに透明性義務を設けることでディープフェイクにも適用される可能性があります。
米国の一部の州では、ディープフェイク、特に性的に露骨な「改変された描写」に関連する事件や、選挙や政治活動に影響を与えようとするディープフェイクを規定する法律を制定している。 2024 年 2 月、FTC は、なりすまし詐欺に対する保護を個人にも拡張する新しい保護を提案しました。
「当局は、なりすまし詐欺に関する苦情の急増と、消費者やなりすまし個人に生じる損害に対する国民の抗議を考慮して、この措置を講じている」とFTCは述べている。 「AI が生成するディープフェイクを含む新興テクノロジーは、この惨状をさらに加速させる恐れがあり、FTC はなりすまし詐欺を検出、阻止、阻止するためにあらゆるツールを活用することに取り組んでいます。」
AI プラットフォームなどの企業が、なりすましを通じて消費者に損害を与えるために使用されているとわかっている商品やサービスを提供することが違法であると、改正法で宣言する必要がある場合。
クレア・メイヤーはの編集長を務めていますセキュリティ管理。 LinkedIn または電子メールで彼女と連絡を取ってください。[email protected].









