인공지능(AI)은 어느새 우리 생활의 일부가 됐다. 최근 개발된 GPT 계열 AI는 소설이나 기사를 작성하는 등 자동화·효율화 도구로 자리 잡고 있다.
AI의 군사적 활용 시도도 있다. 그러나 세계 27개국 과학자가 한국과학기술원(KAIST)이 AI기술로 무기를 만들고 있다며 협력 중단을 언급하고, 구글이 살상무기 개발 논란 속 미국 국방부의 영상정보 자동 분석 체계 ‘메이븐(Maven)’프로젝트에서 하차하는 등 저항도 만만치 않다. 이에 AI를 군에서 활용하는 데 필요한 고려사항을 제시하고자 한다.
먼저 AI를 적용한 무기 체계 지침 제정이다. AI는 적용된 사물을 의인화하는 새로운 경지에 이르렀다. 전례 없는 AI 개발과 활용의 시행착오를 줄이기 위해 용어 정의, 적용 목적 및 범위 등 원칙과 기준을 문서화할 필요가 있다. 특히 AI의 군사적 활용 시 원하지 않는 교전을 방지하기 위한 대책과 재학습으로 알고리즘이 변경될 경우 작전 요구 성능 검증도 포함돼야 할 것이다.
두 번째는 AI 윤리원칙 제정이다. 사실 사람의 도리를 의미하는 ‘윤리’를 사물에 적용하는 것은 이치에 맞지 않아보이기도 한다. 그러나 AI가 적용된 사물이 도덕적 행위자로 간주되는 상황에서 윤리적 책임 논의가 필요하다. 인간의 개입이 줄어든 AI 자율 단계에서는 작동 방식을 미리 알고리즘에 정할 필요가 있다. AI 알고리즘은 통계적 추론에 기반해 영향을 받게 되는 만큼 이해관계자의 윤리적 성향이 알고리즘 작성, 데이터 선정 및 학습 과정에 영향을 미칠 수 있다. 통상 AI 윤리에는 알고리즘에 내재된 작동 방식에 따라 행위 결과가 달라지는 ‘트롤리의 딜레마’나 데이터 편향 등의 이슈가 제기되며, 결과에 대한 법적 책임 주체도 함께 언급된다. 이를 고려해 정부와 개발자, 서비스 공급 및 활용자가 공감하는 AI 윤리원칙을 정해야 한다. 미국 또는 16개 유엔 회원국과 연합작전을 수행하는 우리 군은 더욱 복잡해질 수 있으므로 미리 협의가 필요할 것이다.
세 번째는 AI를 적용한 무기 체계의 전쟁법 적용이다. 전쟁법은 군의 무력 사용을 정당화하는 근거로 유엔헌장 체계와 전쟁 당사국이 체결한 조약들로 이뤄진 관습법 체계로 구분된다. 군이 AI를 탑재한 자율·반자율 무기로 전투에 참여할 경우에도 적용된다. 따라서 운영자가 개입하는 반자율 무기는 물론 운영자의 개입 없이 독립적으로 전투를 수행하는 자율 무기도 전쟁법을 위반하지 않도록 개발 단계에서 학습 및 운용 성능을 검증하고, 활용 단계에서 재학습 시 성능을 보장하는 방안을 마련해야 한다.
1960년대부터 AI센터를 설립한 미국은 이미 2017년부터 ‘파이브 아이즈’ 국가들과 함께 전쟁 수행을 조언하는 AI를 개발 중이며, 2020년 ‘알파 도그파이트(AlphaDogfight)’를 개최해 자율적으로 공중전을 수행하는 성과를 공개했다. 이처럼 AI의 살상무기화 반대 목소리에도 군사 분야 활용은 이제 자명한 현실로 보인다. 따라서 AI를 윤리적이고 적법하게 군사 분야에 활용하는 것은 병역자원 부족을 상쇄하고 무기 성능을 향상시키며 활용 과정에서 키운 디지털 인재를 사회에 환원하는 상생 전략이 될 수 있을 것이다.
조재석 중령·전 국방통합데이터센터 자원관리과장
shindw@heraldcorp.com