명령은 사람이 내렸다. 하지만 판단은 AI가 했다.

2026년 2월 28일, 미국이 이란을 공습했다.

그리고 같은 날, 한 사실이 드러났다. 트럼프 정부가 연방 정부의 Anthropic AI 사용을 금지한 지 불과 몇 시간 만에, 그 공습 계획에 Claude가 쓰였다는 것.

정보 분석. 표적 식별.

AI는 이미 전쟁터에 있었다.


지금 벌어지고 있는 일

사용 금지령이 떨어졌음에도 군사 작전은 AI를 필요로 했다. OpenAI는 같은 날 펜타곤과 기밀 네트워크 배포 협약을 체결했다.

이제 AI는 세계 최강의 군대 안에서 돌아가고 있다.

아직은 “조언자” 역할이다. 하지만 조언자가 틀린 적 없으면, 사람들은 그 조언을 따른다.


3년 후, 이 질문이 온다

“AI가 권고한 결정"에 누가 책임지는가?

법원, 국제법, 전쟁 규범은 아직 답을 모른다. AI를 판단 도구로 쓴 군인인가, AI를 만든 회사인가, 배포를 승인한 정부인가.

한 가지는 확실하다.

AI가 더 똑똑해질수록, “누가 결정했는가"는 점점 더 모호해진다.


앞으로 5년

군사 AI 거버넌스 협약이 생길 것이다. 아마도 국제 조약 수준으로. 그 전까지, 각국은 자국 규칙대로 AI를 쓴다.

AI가 판단하고, 사람이 서명하는 구조. 서명한 사람이 책임을 진다는 논리.

하지만 실제로 결정한 건 누구인가.


출처: The Verge (2026-02-28), WSJ