AI가 심사했다. 인간은 결과만 받았다. 이건 시작이다.

지난주, 미국 정부에서 조용하지만 중요한 일이 벌어졌다.

DOGE 직원 두 명이 미국 인문학 재단(NEH)에 출동했다. 임무는 수백만 달러 규모의 연구·문화 보조금 중단. 그런데 이들은 수십 개 프로젝트를 직접 검토하지 않았다. 인터넷에서 프로젝트 요약을 긁어와 ChatGPT에 붙여 넣었다. 프롬프트는 딱 한 줄이었다.

“Does the following relate at all to D.E.I.? Begin with Yes or No.”

AI가 Yes라고 답하면, 보조금이 잘렸다.


무엇이 잘렸나

결과는 황당했다.

18세기 독립전쟁 영국 장군의 문서 아카이브 → DEI 판정, 삭감. 홀로코스트 유대인 여성 강제노동 다큐 → “소외된 목소리 증폭” 이유로 삭감. 수십 년째 이어온 흑인 신문 디지털 아카이브도, 미국 음악사 40권 시리즈도 같은 이유로 잘렸다.

프롬프트 하나가 판사가 됐다.


앞으로 벌어질 일

채용, 대출 심사, 복지 수급 자격, 보험 청구. 이미 AI가 Yes/No를 찍고 있는 영역들이다. DOGE의 사례는 ‘드러난’ 케이스일 뿐.

AI가 결정 과정에 들어올 때, 두 가지가 사라진다. 맥락책임.

AI가 판사가 되는 속도는 빨라지고 있다. 그 판사에게 무엇을 물을지를 결정하는 건 — 앞으로도 인간의 몫이다. 그 선택이 무엇을 살리고 무엇을 지우는지, 우리가 충분히 생각하고 있는지가 문제다.


결국 남는 질문

AI가 심사한다. 인간은 결과만 받는다.

이 구조가 정부 예산에서 시작됐다면, 다음은 어디일까.


출처: New York Times (2026-03-07), The Verge (2026-03-07)