AI정책

미·중, 핵무기 통제체계에 AI활용 금지해야..AI사고땐 대재앙

AI타임스 2022. 4. 29. 11:38

AI 고도화에 따라 핵 무기체계에서 AI의 적용 비중 높아져
핵무기 지휘 통제체계에 AI를 적용하면 '학습된 발사' 가능성
AI가 일상적 사고를 공격으로 오인해 대응 발사하면 대재앙
미·중 적대 관계 심화로 핵무기 둘러싼 AI사고 우려도 커져
양국이 AI를 핵무기 체계엔 적용하지 말고 신뢰 구축 나서야

 

(사진=셔터스톡)

미국과 중국은 무역 뿐만 아니라 많은 분야에서 대립각을 세우고 있는 가운데  인공지능(AI) 개발에서도 치열한 경쟁을 벌이고 있다. 이 경쟁에서 미국이 세계 1위를 유지하며 여전히 앞서 가고 있지만 최근엔 중국이 빠르게 따라 잡고 있다는 평가가 일반적이다.

 

미국은 오바마 정부에서 시작해서 트럼프와 바이든 정부로 이어지는 ‘AI 이니셔티브’ 정책을 통해 이 분야의 주도권 확보에 주력하고 있고 중국도 국가 주도의 대규모 투자를 통해 AI를 질적 성장의 핵심 동력으로 삼으면서 경쟁력 강화에 집중하고 있다.(한국개발원 경제정보센터 분석)

 

AI 기술이 고도화되면서 오늘날 모든 분야에 적용되고 있지만 그만큼 사고 위험성도 커지고 있다. AI기술이 적용된 도구가 갑자기 작동하지 않거나 잘못 작동하는 경우가 있다. 만일 이런 사고가 핵무기체계에서 발생한다면 인류를 위협하는 대재앙으로 이어질 수 밖에 없다. 이런 우려 때문에 유엔은 2014년부터 각국 정부의 전문가들로 구성된 '정보안보 정부전문가 그룹(GGE : Group of Governmental Experts on Information Security)' 등의 모임을 통해 AI로 인한 위험을 논의하고 문제 해결을 위한 국제 규범 마련에 나서고 있다. 

 

그러나 최근 갈등이 더욱 커지고 있는 미국과 중국 사이에서 AI사고 위험을 방지하기 위해선 양국의 공동 노력이 필요하다는 담론은 주목받기 힘든 실정이다. 이 때문에 전문가들이 이 문제를 환기시키는데 목소리를 내고 있다.

 

미국 워싱턴의 씽크탱크인 ‘신 미국안보센터(Center for New American Security)’에서 기술 및 국가안보 부문 전문가로 일하고 있는 ‘라이언 페더셔크(Ryan Fedasiuk )’는 27일(현지 시간) 외교전문매체인 포린폴리시(Foreign Policy)에 기고한 글에서 ‘자동화된 무기체계가 심각한 전쟁확대 위험을 만들고 있다’고 경고했다.

 

해상에서 발사되는 미사일(사진=셔터스톡)

 그는 “AI기술은 매우 취약하다”면서 “2017년이후 AI시스템이 자율주행차 사고부터 인종 편향적인 고용 결정까지 안전과 공정성, 기타 현실 세계와 관련한 문제들을 일으킨 사례가 1200건 이상”이라고 지적했다. 이어 군사적 환경에서 AI사고의 가능성도 커지고 있다고 전했다.

 

예를 들어 예민한 무기체계는 일상적 사고를 공격으로 오인해 자동적으로 대응할 수 있다.(AI 무기체계라면 '학습된 발사', Learned Launch). 냉전시대에 발생한 핵공격 경보의 오작동 사례에선 사람이 최종적인 결정을 하도록 했기 때문에 맞대응을 피할 수 있었다. 현재 미국과 중국의 핵 지휘와 통제 체계도 여전히 사람의 의사결정을 필요로 한다. 그러나 바다에서 전투를 벌이게 되는 함선에 탑재된 방어 체계는 그렇지 않다고 페더셔크는 지적했다. 

 

페더셔크는 “이 이슈에 대해선 미·중 양국이 서로를 믿지 못한다”고 썼다. 그는 “은퇴한 중국의 군사지도자들과 AI체계가 갖고 있는 위험에 대해 얘기를 나눠봤다”면서 “그들은 미 국방부의 AI윤리 규정이나 ‘책임있는(Responsible) AI’ 지향에 대해 자동 무기 체계 개발을 제한하기 위한 국제 협상을 회피하려는 것으로 보고 있었다”고 전했다.   

 

반면 미국측에선 중국이 치명적인 자동 무기 체계에 대해 매우 협소하게 정의하는 점을 들어 그런 국제협상에 대해 진지하지 않은 것으로 보고 있다고 그는 밝혔다. 워싱턴에서는 두려움의 주된 원천이 중국의 AI군사체계의 시험과 평가를 둘러싼 불확실성이라고 페더셔크는 전했다. 미국은 자동무기체계와 관련한 국방부 지침(  DoD Directive 3000.09)에서 AI시스템에 안전성을 갖추도록 하는 등 소프트웨어 시험과 평가에 매우 엄격하다. 그러나 중국은 군사지도자들이 AI 무기체계에 대해 엄격한 검사를 한다고 말은 하지만 공식적인 증거가 없다고 페더셔크는 지적했다. 

 

이에 띠라 그는 AI의 기술적 혹은 운용상 실패와 관련한 위험을 피하기 위해서 미국과 중국이 3가지 기준에 동의해야 한다고 주장했다. 첫째 AI 군사체계 시험 절차를 각자 엄격하게 강화하고 둘째 위기 상황에서의 상호 소통 채널을 문서화하며 세째 핵 지휘와 통제 체계에 AI를 통합하지 않도록 하는 것이 그가 제시한 기준들이다. 

 

페더셔크는 이들 세 행동 기준이 재앙적 AI사고를 방지할 수 있는 미국과 중국의 첫 걸음이 될 것이라면서 양국은 당연히 훨씬 더 집중적인 신뢰 구축 기준들을 채택하고 정부 대 정부의 대화와 상호 신뢰를 만들어 나가야 한다고 강조했다. 

 

AI타임스 정병일 위원 jbi@aitimes.com

 

Copyright © '인공지능 전문미디어' AI타임스 (http://www.aitimes.com/)
무단전재 및 재배포 금지

 

 

미·중, 핵무기 통제체계에 AI활용 금지해야..AI사고땐 대재앙 - AI타임스

미국과 중국은 무역 뿐만 아니라 많은 분야에서 대립각을 세우고 있는 가운데 인공지능(AI) 개발에서도 치열한 경쟁을 벌이고 있다. 이 경쟁에서 미국이 세계 1위를 유지하며 여전히 앞서 가고

www.aitimes.com