한 회사는 군의 요구를 수락했다. 다른 회사는 거부했다. 사용자는 거부한 쪽을 선택했다.

이번 주, AI 업계에서 조용하지만 중요한 분기점이 생겼다.

미국 국방부는 AI 기업 Anthropic에게 두 가지를 요구했다. 자율 살상 무기에 Claude를 탑재하는 것. 그리고 대규모 민간 감시 시스템에 Claude를 쓰는 것. Anthropic은 거부했다. 국방부는 미국 기업 최초로 Anthropic을 ‘공급망 위험’ 기업으로 지정했다. 방산 계약자들이 Claude를 쓰면 정부 계약을 잃는다는 뜻이다.

같은 시기, OpenAI는 국방부의 조건을 받아들였다.

두 회사는 다른 선택을 했다. 시장의 반응은 명확했다.


시장은 어떻게 반응했나

Anthropic의 Claude는 지정 직후부터 App Store 무료 앱 1위를 기록했다. 미국, 캐나다, 유럽 수십 개국에서 동시에. 일일 신규 가입자 수는 지정 이후 매일 기록을 갱신하고 있다.

정부가 ‘위험’이라고 부른 회사를, 사람들이 더 신뢰하기 시작했다.

이건 예외적인 상황이 아니다. 하나의 패턴이다.


앞으로 벌어질 일

AI가 인프라가 될수록, AI 기업의 ‘사용 기준’이 국가 정책만큼 중요해진다.

AI 기업은 이제 단순 소프트웨어 공급자가 아니다. 자신들의 제품이 무엇에 쓰일 수 있는지, 무엇에 쓰여선 안 되는지를 결정하는 주체가 됐다. 이 결정이 기업 이미지를 만들고, 사용자의 선택을 바꾼다.

앞으로 AI 기업들은 두 방향 중 하나를 선택하게 된다. ‘정부와 함께’이거나, ‘사용자와 함께’이거나. 지금까지의 결과는 후자가 더 강했다.

제품을 고를 때, 우리는 이제 기능만 보지 않는다. 그 제품이 어디에 쓰이는지도 본다.


변하는 것

도구를 만드는 사람이 도구의 용도에 책임을 지는 시대가 오고 있다. 개발자 면책이 상식이었던 시대는 끝나가고 있다. 사용자들은 ‘누가 만들었는가’보다 ‘이 회사가 어디에 선을 긋는가’를 본다.

AI가 전쟁에 선을 그었다. 다음은 소셜 미디어, 감시, 채용, 의료다. 각 영역에서 AI 기업들이 어디에 선을 그을지가 — 앞으로 10년의 지형을 바꾼다.


출처: The Verge (2026-03-05~06)