ゲートニュースによると、アメリカ・サンフランシスコの連邦判事リタ・リンは、五角大楼がAnthropic社に対して取った措置は憲法修正第1条に違反し、言論の自由に対する報復に当たる可能性があると裁定しました。同社は以前、「戦争部」の行動を公に非難し、政府の強い反応を引き起こしました。この訴訟はカリフォルニア州の裁判所に移送され、Anthropicは政府が同社の人工知能モデルClaudeの使用を禁じた「サプライチェーンリスク」タグの撤回を求めています。
判事は、政府の措置は国家安全保障の必要性とは関係なく、むしろAnthropicに対する罰則のように見えると指摘しました。Anthropicを代表するマイケル・ムガンは、このような措置はこれまでに例がなく、権限も限定的であり、AI技術の全面禁止には適用できないと述べました。判事は、案件の核心は政府の違法性にあり、AIの使用停止の正当性ではないと強調しました。
以前、Anthropicは複数の連邦機関と協力し、五角大楼と2億ドルの契約を締結して、機密ネットワーク内でシステムを運用していました。しかし、ClaudeをGenAI.milプラットフォームに接続する交渉は行き詰まりました。五角大楼は軍事任務に全面的にアクセスできることを望んでいますが、Anthropicはその技術の軍事利用に明確に反対し、より厳格な使用制限を求めています。政府の弁護士ハミルトンは、同社は契約を拒否しているのではなく、軍事利用の合法性に疑問を呈していると述べました。
最近アップグレードされたClaude人工知能システムは、ユーザーのコンピュータを自動操作してプレゼン資料の作成や会議招待の添付などを行うことができ、継続的な入力なしに動作するAIエージェントの競争に加わっています。OpenClawの普及により、この傾向は加速しており、AnthropicやOpenAIのモデルはWhatsAppやTelegramを通じてタスクを受け取り、ローカルファイルにアクセスして効率的な自動化操作を実現しています。
この裁定は、AI技術の軍事利用や契約履行に関わるだけでなく、米国政府がデジタル革新分野で権力を乱用する可能性への懸念も呼び起こしています。Anthropic事件は、人工知能の発展と表現の自由、技術自主権との複雑な駆け引きを浮き彫りにし、今後はより多くの革新的企業やグローバルなAIエコシステムに影響を及ぼす可能性があります。