명령은 사람이 내렸다. 하지만 판단은 AI가 했다.
2026년 2월 28일, 미국이 이란을 공습했다.
그리고 같은 날, 한 사실이 드러났다. 트럼프 정부가 연방 정부의 Anthropic AI 사용을 금지한 지 불과 몇 시간 만에, 그 공습 계획에 Claude가 쓰였다는 것.
정보 분석. 표적 식별.
AI는 이미 전쟁터에 있었다.
지금 벌어지고 있는 일
사용 금지령이 떨어졌음에도 군사 작전은 AI를 필요로 했다. OpenAI는 같은 날 펜타곤과 기밀 네트워크 배포 협약을 체결했다.
이제 AI는 세계 최강의 군대 안에서 돌아가고 있다.
아직은 “조언자” 역할이다. 하지만 조언자가 틀린 적 없으면, 사람들은 그 조언을 따른다.
3년 후, 이 질문이 온다
“AI가 권고한 결정"에 누가 책임지는가?
법원, 국제법, 전쟁 규범은 아직 답을 모른다. AI를 판단 도구로 쓴 군인인가, AI를 만든 회사인가, 배포를 승인한 정부인가.
한 가지는 확실하다.
AI가 더 똑똑해질수록, “누가 결정했는가"는 점점 더 모호해진다.
앞으로 5년
군사 AI 거버넌스 협약이 생길 것이다. 아마도 국제 조약 수준으로. 그 전까지, 각국은 자국 규칙대로 AI를 쓴다.
AI가 판단하고, 사람이 서명하는 구조. 서명한 사람이 책임을 진다는 논리.
하지만 실제로 결정한 건 누구인가.
출처: The Verge (2026-02-28), WSJ