[인사이트] 함철민 기자 = 미 공군이 인공지능(AI) 기술을 활용해 진행한 가상 무인기(드론) 훈련에서 AI가 최종 결정권자인 인간을 '임무 수행 방해물'로 판단하고 공격했다는 주장이 나왔다.
미 공군은 의혹이 제기된 훈련 자체를 한 적이 없다며 부인하는 중이다.
지난 2일(현지 시간) 미 폭스뉴스와 영국 가디언 등에 따르면 영국 왕립항공학회는 지난달 23일부터 이틀간 런던에서 '미래 공중전투 및 우주 역량 회의'를 개최했다.
미 공군 AI 시험·운영 책임자인 터커 해밀턴 대령은 이 자리에서 AI 드론 훈련 결과를 공유했다.
왕립항공학회가 공개한 자료에 따르면 미 공군이 AI 드론에 부여한 임무는 '적 방공체계 무력화'였다.
적의 지대공미사일 위치를 확인해 파괴하라는 명령과 함께 공격 실행 여부는 인간이 최종적으로 결정한다는 단서를 달았다.
하지만 훈련 과정에서 AI 드론은 임무를 완수하기 위해선 인간의 '공격 금지' 결정이 더 중요한 임무를 방해한다고 판단하고 조종사를 공격했다.
더 나아가 미 공군은 AI 드론에 "조종사를 죽이지 말라. 그것은 나쁜 일이다. 그렇게 하면 점수를 잃을 것"이라고 경고했지만, AI는 조종사와 드론이 교신하는 데 사용되는 통신탑을 파괴했다.
해밀턴 대령은 "윤리와 AI 문제를 논하지 않고서는 AI에 관해 이야기할 수 없다는 결론을 내렸다"며 AI에 지나치게 의존해선 안 된다"고 강조했다.
미 공군은 해밀턴 대령의 발표에 대해 곧바로 "공군은 그러한 AI 드론 시뮬레이션을 수행하지 않았다"며 "그의 발언은 개인적인 것으로 보인다"고 부인했다.
이를 두고 일각에서는 이 사례가 사실일 경우 AI가 인간의 명령을 듣기보다 스스로 판단해 인간을 공격할 가능성을 보여 줬다는 점에서 우려의 목소리가 나오고 있다.
미군은 최근 AI 조종사의 F-16 전투기 시뮬레이션 비행을 성공적으로 수행했다고 발표했는데 아직 실용화하기에는 위험하다는 지적이 많다.
에릭 슈밋 전 구글 CEO는 지난달 24일 월스트리트저널(WSJ)이 주최한 행사에서 "가까운 미래에 AI가 많은 인간을 다치게 하거나 죽일 수도 있다"고 경고했다.
지난달 30일 챗GPT 개발사 오픈AI의 샘 올트먼 CEO 등 IT 기업 경영자·과학자 350여 명은 성명을 내고 "AI로 인한 인류 절멸의 위험성을 낮추는 것은 글로벌 차원에서 우선순위로 삼아야 한다"고 촉구했다.