コンテンツにスキップ

イラスト by iStock;セキュリティ管理

トトサイトおすすめ

新しい国際 AI 安全性報告書が新たなリスクに焦点を当てる

そのディープフェイク、生物兵器、サイバー攻撃における人工知能 (AI) の使用に関する懸念が増大し、新たに浮上していることを発見しました。著者らは、汎用 AI のリスクと能力に関する最新の科学的研究をレビューしました。汎用 AI は、特定のシナリオやアプリケーションに適応できるテキスト、画像、音声、その他のデータの作成など、さまざまな状況で幅広いタスクを実行できるモデルとシステムです。

これは、 によって発行された報告書の第 2 版です。(英国科学イノベーション技術省の一部) であり、30 以上の国および国際機関によってサポートされています。

「汎用 AI システムはすでに現実世界に害を及ぼしている」と報告書は述べています。 「…AI 機能の進歩により、まだ顕在化していないさらなるリスクが生じる可能性があります。これらのリスクをそのメカニズム、重大度、可能性を含めて理解することは、効果的なリスク管理とガバナンスにとって不可欠です。」

報告書では、リスクを 3 つのカテゴリに特定し、整理しました: 誤用によるリスク、機能不全によるリスク、およびシステム的リスク。

悪用によるリスクとは、誰かが危害を加えるため、または犯罪目的で AI システムを意図的に使用する場合のリスクです。このカテゴリには、ディープフェイク、生物学的または化学的リスク、サイバー攻撃が含まれます。  

ディープフェイク

これにはの使用が含まれる場合がありますAI が生成した画像、名誉毀損、恐喝の動画、テキスト、または音声、詐欺, 同意のない親密な画像42852_42913

「アクセス可能な AI ツールにより、有害な合成コンテンツを大規模に作成する障壁が大幅に低くなりました。多くのツールは無料または低コストで、技術的な専門知識を必要とせず、匿名で使用できます。」と報告書は述べています。

ディープフェイクの使用は、特に詐欺師や詐欺師の間で増加しています。悪意のある攻撃者は、音声クローンやディープフェイクを使用して幹部や家族になりすまし、被害者を騙して資金を送金させることができます。犯罪者は、この種のコンテンツを個人情報の盗難 (本当の所有者の声や肖像になりすまして銀行振込を許可すること)、脅迫、またはにも使用しています。妨害行為.

「研究者らはまた、ディープフェイクが法廷で提出された証拠の信頼性を損なう危険性があることも指摘している」と報告書は付け加えた。

AI によって生成された性的コンテンツはますます普及しており、これらの画像のリアリティと複雑さは大幅に向上しています。 AI の悪用に関するもう 1 つの懸念事項は、ディープフェイク ポルノ、主に女性と少女をターゲットにしています。

「ある研究では、ディープフェイク動画の96パーセントがポルノであり、英国成人の15パーセントがディープフェイクポルノ画像を見たことがあると報告しており、『ヌード化』アプリの大多数は明らかに女性をターゲットにしていると推定されている」と報告書は述べている。 「…性的なディープフェイクは親密なパートナーへの虐待にも使用されており、やはり女性に不当に影響を与えています。」残念ながら、多くのシステムにはこの種の悪用を防止するための保護手段が備わっていますが、ユーザーはそれらを回避するか、保護のない他のプログラムを使用する方法を見つけています。

生物学的および化学的リスク

AI システムは現在、十分に詳細な科学情報を提供し、専門的な検査方法を支援できるほどに進歩しています。これは、AI システムが実験プロトコルを生成し、技術的障害をトラブルシューティングし、さらには有益な新薬や治療薬の発見を加速し、病気の診断を改善するなどの正当な研究のための分子やタンパク質を設計することにより、科学界にとって前向きな進歩を意味する可能性があります。

しかし、同じ進歩は、脅威アクターが生物兵器や化学兵器を作成するのに役立つ可能性があります。 「兵器開発に関連するインターネット上の既存の複雑な情報を組み合わせて解釈し、特定の悪意のある活動に合わせてアドバイスを調整することにより、AI システムは既存の専門知識の障壁を低くし、より多くの攻撃者が危害を及ぼすことを可能にする」と報告書は述べています。この種の不正行為を防止するために、いくつかの大手開発者は2025 年に追加の安全装置を備えた新しいシステムをリリース.

しかし、AI システムが生物学的および化学的リスクに及ぼす影響を適切に分析して判断すること自体が課題です。なぜなら、この問題に関する研究は限られているか、それ自体が危害を生み出す可能性があるためです。 「例えば、研究者が兵器開発におけるAI支援に関する研究を実施したり、その結果を公表したりすると、国家安全保障法や、生物兵器禁止条約や化学兵器禁止条約などの条約に誤って違反する危険性がある。…特に国家主体によるAIシステムの使用に関連する場合、関連データも機密扱いになることが多い」と報告書は述べている。

サイバー攻撃

サイバー攻撃が行われている間何も新しいことはない、報告書では、犯罪グループと国家支援の攻撃者汎用 AI システムを積極的に使用して、攻撃を実行または支援します。サイバー攻撃の実行には、偵察、脆弱性の特定、攻撃の開発、攻撃の実行、永続的なアクセスの維持、目的の実行などの複数のステップが含まれます。

「広範な研究により、AI システムが『サイバー攻撃チェーン』のいくつかの段階で攻撃者をサポートできることが示されています。」と報告書は述べています。 「…AI システムが有意義な支援を提供するという特に強力な証拠がある分野の 1 つは、『ソフトウェアの脆弱性』、つまりコンピュータ システムのセキュリティを侵害するために悪用される可能性のあるプログラムの弱点の発見です。」

これらのサービスは販売されており、パッケージ化された AI ツールや AI 生成のランサムウェアがアンダーグラウンド マーケットプレイスに出現しています。

その他のリスク

報告書では、汎用 AI システムに関連する他のリスクも特定しました。

故障によるリスク。これらは、捏造された情報(通称:など)の虚偽など、AI システムの障害から生じるリスクです。幻覚)、欠陥のあるコードが生成され、誤解を招く医療アドバイスが行われます。これらの失敗は、ユーザーがチェックしないまま放置したり、額面通りに受け取ったりすると、身体的または精神的な危害をもたらし、ユーザーが風評被害、法的責任、または経済的損失にさらされる可能性があります。

このカテゴリに含まれるもう 1 つのリスクは、少なくとも 1 つの AI システムが誰の制御も超えて動作する、想定される制御不能です。その制御を取り戻すには費用がかかるか、不可能になる場合があります。報告書は、この可能性に関する専門家の意見は大きく異なり、あり得ないと言う人もいれば、十分に可能性が高いと考える人もいると述べた。

「AI システムが『調整されていない』場合、つまり開発者、ユーザー、または社会のより広範な意図と矛盾する目標を持っている場合、制御を失う可能性が高くなります。」と報告書は述べています。

体系的なリスク。AI システムは、特定の機能を自動化および迅速化するツールとして見られ、使用されることがありますが、その利点は労働力や労働者にとってのリスクでもあります。人間の自律性。ただし、これらの影響を予測するのは困難です。

「先進国では雇用の約 60 パーセント、新興経済では 40 パーセントが汎用 AI にさらされていますが、これによる影響は、AI の機能がどのように発展するか、労働者や企業が AI をどれだけ早く導入するか、各機関がどのように対応するかによって異なります」と報告書は述べています。

人間の自律性への影響に関しては、AI システムは、認知スキル、人間の信念や好みの形成方法、意思決定に基づいてどのように行動するかなど、さまざまな形でこれに悪影響を与える可能性があります。 「たとえば、ある研究では、AI サポートの導入から 3 か月後、AI サポートなしで臨床医が腫瘍を検出する能力は 6% 低下したことが判明しました。」と報告書は述べています。

 

arrow_upward