이슈 인사이트  

전장을 바꾸는 AI 무기화와 사이버 안보 위협

윤정현국가안보전략연구원 신안보연구실 연구위원 2024 겨울호

AI 기술 활용이 군사 무기로까지 확대되면서 안보 위협이 빠르게 증가하고 있다. 사이버 공간을 매개로 더욱 은밀하고 고도화된 공격 수단으로 발전하는 중이다. 진화하는 AI의 도전에 대비하기 위해서는 지능형 공격을 효과적으로 방어할 수 있는 물리적 대응체계와 데이터 활용 기준에 대한 제도 정비가 필요하다. 더 나아가 글로벌 차원에서의 거버넌스 구축과 규범 논의가 필요함을 시사한다.

산업 영역을 넘어 군사 무기로 진화하는 인공지능

오늘날 디지털 사회·경제 전반의 혁신을 이끄는 주요 동력은 단연 인공지능(AI)이다. AI의 잠재력은 비즈니스 영역을 넘어 안보와 직결된 국방 분야로 확장되고 있다. 현대의 국방력은 단순한 양적 우위가 아닌, 무기의 질적 수준과 이를 효과적으로 전개할 첨단화된 운용·지원체계의 확립과 직결된다. AI가 미래 전장의 게임체인저로 평가받는 이유다.

이미 AI는 실제 전장에서 살상 무기로 사용되고 있다. 정찰·공격용 드론도 넓은 의미의 AI 기반 무기에 해당한다. 미군의 무인공격기 MQ-9 리퍼는 2020년 바그다드 참수 작전에서 이란 이슬람 혁명수비대 수장을 암살했으며, 2021년에는 카불 공항에서 테러리스트 제거 작전에 투입되어 특수부대의 정밀교전 임무의 성공 가능성을 입증했다. 특히 러시아-우크라이나 전쟁에서는 무인기가 전차와 장갑차를 파괴하거나 군사기지를 공습하는 가성비 높은 공격 수단으로 활발히 사용되고 있다.

AI 공격 무기는 공중뿐 아니라 지상에서도 전개되고 있다. 세계 최초로 완전자율차량을 실전에 배치한 이스라엘은 팔레스타인 가자지구에 중형화기를 탑재한 무인차량을 투입하고 병사와 로봇 차량으로 혼성전투부대를 편성했다. 또한 AI는 후방에서 사회적 혼란을 일으키는 심리전 무기로도 활용되고 있다. 러-우 전쟁 초기 유포된 젤렌스키 우크라이나 대통령의 ‘가짜 항복 선언’ 영상이나 ‘펜타곤 폭발 영상’ 등은 AI로 만든 대표적인 ‘딥페이크(Deep fake)’ 사례이다. 이런 영상은 항전 의지를 꺾고 국제 여론을 뒤흔들기 위한 ‘화염 없는 무기’로 작용했다.

국가안보에 위협을 가하는 인공지능

문제는 AI가 사이버 공간을 통해 평시에도 치명적인 국가안보 위협을 낳을 수 있다는 점이다. 비대면 활동 증가로 사이버 공간은 점차 복잡한 범죄 위험에 노출되고 있다. 지금까지 AI는 주로 사이버 보안의 취약성을 발견하고 해결책을 마련하기 위한 연구에 활용되었으나 언제든 사이버 공격의 무기로 전환될 수 있는 잠재력을 안고 있다. AI는 세 가지 측면에서 사이버 안보 환경의 변화를 초래하게 된다. 첫째, 기존 보안 환경의 위협 범위를 대폭 확장한다. 효율적인 AI 시스템이 확산되면서 공격이 더 쉬워지고 공격자의 수와 속도 또한 급증한다. 동시에 비용 대비 효율이 낮아 공격 대상에서 제외되었던 표적들도 공격 범위에포함되어 위협의 규모가 확대된다. 둘째, 공격자가 익명의 공간에 숨을 기회가 늘어나면서 공격에 대한 주저함이나 거부감이 감소하는 동시에 위협의 강도는 증대될 수 있다. 셋째, AI를 이용한 공격자는 방어자보다 비대칭적 우위를 점하며 공격을 감행할 수 있다. 머신러닝으로 목표 데이터를 학습한 사이버 공격 무기들은 익명성을 유지하면서도 취약점을 정밀하게 노릴 수 있다. 합성 텍스트, 음성, 이미지 등을 사용하는 소셜 엔지니어링 기법은 더 정교한 악성 코드 생성으로 사이버 공격의 효과를 높인다. 특히 목표가 일반인이 아닌 중요 인사, 핵심 인프라 제어시설, 국가보안 기관일 경우 이러한 사이버 공격은 안보와 직결되는 사안이 될 수 있다.

AI를 탑재한 이란 자폭드론 샤헤드-136

출처: THE AI, “러 자살 드론, 인공지능 ‘킬러 로봇’에 무게”, (23.04.05,)

AI 무기화와 사이버 공간에서의 새로운 도전

인공지능은 평시와 전시를 막론하고 치명적인 무기로 활용될 뿐 아니라 자체 진화를 통해 새로운 불확실성을 배가시키고 있다. 사이버 공간에서 AI의 활용이 늘어나면서 피해 규모가 질적·양적으로 확대되는 문제가 발생하고 있다. AI의 발전은 향후 어느 특이점에서 인간의 통제가 극도로 불확실한 단계에 도달할 수 있다는 불안감을 안겨주고 있다.

조작된 젤린스키 대통령의 가짜 항복 영상

출처:매일경제(CNN 캡처), (23.10.12.)

이러한 도전들은 AI의 국가안보적 위협에 대한 대비가 필요함을 시사하며, 특히 비대칭적 위협에 대한 경감 수단이 절실함을 상기시키고 있다. AI 기반 지능형 공격을 방어하려면 능동적 대응체계를 구축해야 한다. 자체 생성형AI 플랫폼으로 잠재적 허위정보를 모니터링하고, 고위험 영향 공작 집단에 대응할 전문 전담팀을 양성하는 등의 시스템을 마련해야 한다. 또한 신뢰 가능한 생성형AI 알고리즘 검증을 위한 테스트베드 표준을 구축하고, 사이버 공간에서 벌어지는 주요 AI 입력 데이터의 이상 신호를 모니터링하는 체계도 마련해야 한다. 이를 통해 AI의 편향성과 환각 등 구조적 한계점을 보완하기 위해서는 유해 알고리즘 발원 분석과 정상적 학습 데이터의 복원을 포함한 데이터 활용 기준을 개선해야 할 것이다. 마지막으로 초국가적 차원에서 데이터의 보호, 활용, 이전 과정을 투명하게 관리하기 위한 글로벌 거버넌스 구축과 규범 논의가 세분화되어야 한다.

기사는 어떠셨나요?
이 기사에 공감하신다면 ‘공감’버튼으로 응원해주세요!

독자 여러분께 더 나은 읽을거리를 제공하는데 도움이 됩니다.

‘공감’으로 응원하기2