ClaudeがChatGPTを抜いた。2026年3月に起きた逆転劇
2026年3月、AnthropicのAIチャットボット「Claude」が米国App Storeの無料アプリランキングでChatGPTを上回り、一時1位となった。生成AIブームの象徴ともいえるChatGPTが首位を譲ったことは、AI業界でも大きな話題となった。
きっかけの一つとされるのが、OpenAIが米国防総省とのAI契約を進めていると報じられたことである。AIの軍事利用をめぐる議論がSNSなどで拡散し、一部ユーザーの間で「Cancel ChatGPT」というハッシュタグが広がった。
その結果、AIの安全性を重視する企業として知られるAnthropicへの関心が高まり、Claudeのダウンロード数が増加したとする報道もある。
もちろん、この出来事だけでAI市場の勢力図が変わったわけではない。ChatGPTは依然として世界最大級のユーザー基盤を持つAIサービスである。しかし今回の騒動は、AIサービスの選択が単なる機能比較ではなく、企業の姿勢や価値観と結びつく可能性を示した点で象徴的だった。
国・社会との関係に表れたAnthropicとOpenAIの違い
今回の議論の背景には、AIと国家安全保障の関係をめぐる問題がある。
AIは既にサイバーセキュリティや情報分析などの分野で重要な技術となりつつあり、国家安全保障においても注目されている。一方で、自律兵器や監視社会につながる可能性を懸念する声もある。
Anthropicはこれまで、AIの安全性や社会的影響を重視する研究方針を掲げてきた企業として知られている。一方でOpenAIは、AIを社会インフラとして広く普及させることを掲げ、企業や政府機関との協力を進めてきた。
こうした姿勢の違いは、各社が持つ政府との関係にも影響している。一部報道でも、AnthropicがAIの軍事利用に慎重な姿勢を取ったことが関係に影響した可能性が指摘されている。

また軍事契約をめぐる批判が広がるなか、OpenAIのCEO サム・アルトマン氏は契約内容について、AIの利用範囲には制限が設けられていると説明したと報じられている。さらにこの問題をめぐって同社のロボティクス部門幹部が退職したことも報じられ、社内外で議論が起きた。
こうした一連の出来事は、AI企業が社会や国家とどのような関係を築くべきかという問いを浮き彫りにした。
