コンテンツにスキップ

イラスト by iStock,セキュリティ管理

スロットサイト

アンスロープ、AIセキュリティと安全ガードレールを撤去するという国防総省の要求を拒否

人工知能 (AI) 企業 Anthropic は今週、米国国防総省 (DOD) からの圧力が高まる中、自社サービスの安全とセキュリティのガードレールを撤去することを拒否し、創業理念を堅持した。

国防総省のピート・ヘグセス長官は、国防総省との契約において、Anthropicに対し、そのの使用禁止を解除するよう要求していた。完全自律型兵器または国内大規模監視プログラムを作成する。 Anthropic が午後 5 時 1 分までに応じなかった場合は、 2月27日、ヘグセスは国防総省によるAnthropicの使用を中止し、国家安全保障権限を利用して同社をさらに罰すると脅迫した。

アンスロピック CEO ダリオ・アモデイ木曜の夕方、会社はヘグセスの要求に応じないとのこと。アモデイ氏は、Anthropic が「良心的に」国防総省の要請を認めることはできず、限られた場合においては AI が民主主義の価値観を擁護するどころか損なう可能性があると書いた。

「一部の用途は、今日のテクノロジーが安全かつ確実に実行できる範囲を単純に超えています」とアモデイ氏は書いています。

アモデイ氏は、自社は合法的な対外諜報活動や対諜報任務でのAIの使用を支持しているが、国内の大規模監視にAIを使用することは民主主義の価値観と相容れないと説明した。

「AI による大規模監視は、私たちの基本的自由に対して深刻かつ新たなリスクをもたらします」とアモディ氏は書いています。 「そのような監視が現在合法であるという点では、これは単に法律が AI の急速に成長する能力にまだ追いついていないという理由にすぎません。」

アモデイ氏はまた、部分自律型兵器は民主主義を守るために使用できるとも付け加えた。例えばロシアとの戦争が続くウクライナで兵器がどのように使用されているかなどだ。彼は、将来の完全自律型兵器が米国の国防にとって重要になる可能性があることを認めた。

「しかし、今日、フロンティア AI システムは、完全自律型兵器を駆動できるほど信頼性が足りません」とアモデイ氏は説明しました。 「私たちは、アメリカの戦闘員や民間人を危険にさらす製品を故意に提供するつもりはありません。」

アモデイ氏は、適切な監督がなければ、「完全自律型兵器は、高度な訓練を受けた専門部隊が日々発揮する重要な判断力を発揮するために信頼することはできない。それらは適切なガードレールとともに配備される必要があるが、現在は存在しない。」

アンスロピック社が国防総省の要請に従わなければ、ヘグセス氏は同社を「サプライチェーンリスク」に指定し、法を発動すると脅していた。Anthropic に安全装置を解除するよう強制するため。

「これら後者の 2 つの脅威は本質的に矛盾しています。1 つは私たちを安全保障上のリスクに分類し、もう 1 つはクロードを国家安全保障に不可欠であると分類します。」とアモデイ氏は付け加えた。

国防総省は応答しませんでしたセキュリティ管理者この記事に関するコメントを求めています。しかしXに関しては、国防総省の広報担当ショーン・パーネル氏は木曜日の夜、同省は人間の関与なしに作動する自律型兵器の開発にAIを使用することを望んでいない、と書いた。

「私たちが求めているのは、国防総省があらゆる合法的な目的でアンスロピックのモデルを使用することを許可することです。」「これは、Anthropic が重要な軍事作戦を危険にさらし、我が国の戦闘員を危険にさらす可能性を防ぐための単純で常識的な要求です。作戦上の決定方法に関する条件をどの企業にも指示させません。」

「すべての合法的な目的」というフレーズが、国防総省とAnthropicとの間の意見の相違の中心にある。米国議会は、国家安全保障の文脈で AI がどのように使用されるかを管理する法案を可決できませんでした。代わりに、国防総省は単純に自律型兵器の開発と使用について。これは、国防総省が政策を変更するだけで、完全自律型兵器の開発と使用を許可したり、大量監視システムを構築したりできることを意味します。

「議会が自律型兵器と監視に関するガイドラインを法制化していれば、アンスロピック社はおそらくはるかに快適にそのシステムを軍に販売できたでしょう。そして[国防生産法]の脅威は決して起こらなかっただろう」とミネソタ大学ロースクールの法学准教授アラン・Z・ローゼンシュタインは書いている。。 「軍事 AI にどのような価値を組み込むかという問題は、冷戦時代の生産法によって解決するにはあまりにも重要です。」

国防総省と Anthropic の間の衝突は、2026 年 1 月にヘグセスが AI 戦略覚書を発行したときに始まりました。この覚書は、国防総省のすべての AI 契約に 180 日以内に標準的な「あらゆる合法的使用」の文言を組み込むよう指示しました。これは、Anthropic と国防総省との既存の契約と矛盾しています。

国防総省は、OpenAI、Google、xAI に対する他の賞と同様に、2025 年 7 月に Anthropic に上限 2 億ドルの取引契約を授与しました。この契約は、Anthropic が米国の国家安全保障を前進させるフロンティア AI 機能のプロトタイプを作成できるように設計されました。

それ以来、米国政府は国立研究所の機密ネットワーク上で Anthropic のモデルを使用し、国家安全保障の顧客向けのカスタム モデルを作成しています。国防総省は現在、インテリジェンス分析、モデリングとシミュレーション、作戦計画、サイバー作戦にクロードを使用しています。

国防総省がAnthropic社をサプライチェーンリスクに指定した場合、時間のかかる保護措置のプロセスが開始され、国防総省のシステムから同社の存在を排除するには少なくとも3か月かかる可能性があります。

「オペレーターは、モデルに入力しているデータ入力を再構成し、同様にクロードを広く使用している情報コミュニティとリアルタイムでデータを共有する方法を再検討し、代替モデルが軍の期待どおりに機能していることを再検証する必要があるでしょう。」

アンスロピックが米国の国家安全保障にも影響を与えるビジネス上の決定を下したのはこれが初めてではない。過去に、同社は中国共産党 (CCP) の活動を遮断しました。そしてシャットダウンクロードを虐待しようとした者。

arrow_upward