
다종교 지도자들로 구성된 연합이 군사 분야에서 인공지능(AI) 활용이 확대되는 가운데, 인간의 개입 없이 살상 결정을 내리는 자율무기 사용을 제한해야 한다며 미 의회에 입법 조치를 촉구했다.
미국 크리스천포스트(CP)에 따르면, 이번 서한은 공익 정책 옹호 단체인 ARI(Americans for Responsible Innovation)을 통해 공개됐으며, 총 20명의 종교 지도자들이 미 상원 상임위원회와 미 하원 국방위원회에 전달했다.
이들은 "우리는 공동체를 섬기는 목회자이자 인간 생명의 신성함을 믿는 신앙인으로서 이 서한을 보낸다"며 "군사 영역에서 AI 도구 사용이 증가하는 상황에서, 언제 어떻게 국방부가 AI 기반 자율무기를 사용할 수 있는지에 대한 법적 경계를 설정해야 한다"고 밝혔다.
이어 "생명을 빼앗는 최종 결정은 언제나 군 장병들이 직접 내리도록 보장해야 한다"고 강조했다.
최근 캠브리지 대학(University of Cambridge) 산하 캠브리지 중앙아시아 포럼 연구원인 제럴드 마코(Gerald Mako)는 'The Lieber Institute for Law and Land Warfare' 보고서를 통해 자율무기 시스템이 국제인도법에 새로운 도전을 제기하고 있다고 분석했다.
마코 연구원은 자율무기의 합법성이 제네바 협약(Geneva Conventions)과 추가의정서 I의 핵심 원칙인 구별성, 비례성, 예방 원칙, 마르텐스 조항 등을 충족하는지에 달려 있다고 설명했다. 그러나 AI가 개입되면서 기존 규범이 예상하지 못한 복잡성과 책임 문제를 야기하고 있다고 지적했다.
그는 "민간인과 전투원을 구별하고, 부수적 피해와 군사적 이익을 비교하며, 상황 변화에 따라 공격을 중단하는 판단을 기계가 대신하게 될 경우 국제인도법의 기본 전제가 흔들릴 수 있다"고 밝혔다.
종교 지도자들 역시 이러한 문제를 지적하며, AI가 통제하는 무기는 전쟁에 적합하지 않다고 주장했다. 이들은 "현재 군사 작전에 AI 시스템이 점점 더 활용되고 있음에도 불구하고, 자율무기에 대한 인간의 감독을 보장하는 규정은 사실상 존재하지 않는다"고 비판했다.
또한 "모든 주요 종교 전통은 생명을 앗아가는 행위가 중대하고 엄숙한 결정임을 가르친다"며 "양심의 문제로서 이러한 결정은 결코 기계에 위임되어서는 안 된다"고 강조했다.
AI 기반 자율무기는 일반적으로 ▲반자율 시스템 ▲감독형 자율 시스템 ▲완전 자율 시스템으로 구분된다. 반자율 시스템은 인간이 직접 통제하면서 AI가 일부 기능을 보조하고, 감독형 자율 시스템은 필요 시 인간이 개입할 수 있다. 반면 완전 자율 시스템은 사전 프로그래밍과 AI를 통해 스스로 목표를 탐지하고 공격을 수행할 수 있다.
이스라엘의 '하롭(Harop)'이나 튀르키예의 '카르구-2(Kargu-2)'와 같은 배회형 탄약은 드론과 정밀 타격 기능이 결합된 형태로, 이러한 분류의 경계를 흐리는 사례로 지목된다. 마코 연구원은 이들 기술이 이미 파키스탄, 아제르바이잔, 우크라이나 등 분쟁 지역에서 활용되고 있으며, 향후에는 다수의 드론이 스스로 협력해 방어망을 무력화하는 '군집 드론'으로 발전할 수 있다고 설명했다.
종교 지도자들은 미국이 현재 인간의 감독 없이 AI 자율무기를 사용하는 것을 포괄적으로 제한하는 연방법을 갖고 있지 않다고 지적했다. 국방부가 관련 지침을 보유하고 있지만, 이는 충분하지 않으며 우회될 수 있다는 주장이다.
이들은 "현재의 AI는 생사 결정을 내릴 준비가 되어 있지 않다"며 "이는 기술에 대한 두려움이 아니라 인간 존엄성에 대한 존중에서 비롯된 우려"라고 밝혔다. 이어 "AI는 인간이 세계를 이해하는 방식의 본질적 요소를 결여하고 있으며, 낯선 상황에서 오류를 범할 수 있고, 생명을 끝내는 행위의 도덕적·영적 무게를 이해할 수 없다"고 지적했다.
또한 "표적을 오인하거나 잘못된 시점에 공격을 수행하는 등 오류가 발생할 경우 심각한 도덕적 결과를 초래할 수 있다"며 "그 대상은 누군가의 부모이자 자녀, 이웃, 사랑하는 사람이라는 사실을 기계는 이해하지 못한다"고 강조했다.



































