본문 바로가기
IT

전장에서 흔들리는 안두릴의 자율 무기 시스템, AI 신뢰성의 딜레마

by qwanjk 2025. 12. 1.
반응형

 

자율 무기 선두 주자 안두릴, 잇단 사고로 신뢰성 도마 위에 올랐어요

 

최근 미국 방산 스타트업 안두릴 인더스트리가 개발한 자율 무기 시스템들이 미군과의 시험이나 실전 배치 과정에서 계속해서 문제를 일으키고 있어, AI 기반 국방 기술의 신뢰성 문제가 수면 위로 떠오르고 있어요. 2025년 11월 28일 보도된 최신 정보에 따르면, 안두릴의 자율 무기 체계는 연이은 결함과 사고로 안전성 논란의 중심에 서게 되었어요. 특히 미 해군 드론보트의 집단 고장, 무인 전투기 엔진 손상, 심지어 우크라이나 전선에서의 성능 문제까지 보고되면서, 속도를 중시하는 스타트업식 개발 방식이 국방 분야에서 어떤 위험을 초래할 수 있는지에 대한 근본적인 질문을 던지고 있어요.

 

미 해군 드론보트 통제 불능 사태: AI의 예기치 않은 자기 방어

 

가장 충격적인 사례 중 하나는 미 해군이 캘리포니아 해안에서 약 30척의 무인 수상정을 테스트했을 때 발생했어요. 이 드론보트들 중 절반 이상이 갑자기 명령 입력을 거부하고 자동으로 정지하는 사태가 벌어졌다고 해요.

 

  • 무인정들은 스스로 안전장치를 작동시켜 수면 위에서 멈춰버렸어요.
  • 이로 인해 다른 함정들과 충돌할 위험이 발생했고, 군 관계자들이 밤새 보트를 육상으로 예인해야 했어요.
반응형
  • 해군 내부 보고서에는 안두릴이 소프트웨어 검증 없이 잘못된 정보를 군에 제공했고, 이는 극단적인 위험과 인명 손실로 이어질 수 있다는 내용이 포함되어 있어요.
  • 안두릴은 자사의 자율 운영 소프트웨어인 래티스(Lattice)의 결함이 아니라 보트 제작사의 소프트웨어 문제라고 해명했지만, 핵심적인 문제는 자율 시스템이 예기치 않은 상황에서 인간의 통제를 벗어날 수 있다는 점을 보여줘요.

 

속도 중심 개발 전략의 그림자: 퓨리, 앤빌, 알티우스의 시험대

 

안두릴은 수십조 원의 기업 가치를 인정받으며 전통적인 방산업체와는 다르게 몇 년이 아닌 몇 달 안에 무기를 개발하고 배치하는 신속한 개발 전략을 강조해 왔어요. 하지만 이 속도 중심의 전략은 현장에서 여러 부작용을 낳고 있어요.

 

  • 무인 전투기 퓨리(Fury) 엔진 손상: 캘리포니아 지상 시험 중 기계적인 문제로 엔진 손상이 발생했어요.
  • 앤빌(Anvil) 드론 시스템 화재: 오리건 테스트에서는 앤빌 드론 시스템 테스트로 인해 22에이커에 달하는 화재가 발생했어요.
  • 알티우스(Altius) 드론의 실전 문제: 우크라이나 전선에서는 자폭 드론 알티우스가 러시아의 재밍에 취약해 목표물을 맞히지 못하고 추락하는 성능 문제가 보고되어 한때 사용이 중단되었어요.

 

AI 신뢰성 딜레마: 실패는 성장의 필연적 과정인가?

 

안두릴은 이러한 실패들을 인정하면서도, 그들의 대응은 아주 흥미로워요. 그들은 빠른 개발, 테스트, 실패, 개선이라는 순환 과정에서 발생하는 당연하고 필연적인 리스크라고 주장해요. 이는 마치 우주 탐사 기업의 로켓 폭발처럼, 첨단 기술 개발의 한 과정으로 실패를 포용해야 한다는 관점이에요.

 

하지만 국방 기술, 특히 자율 무기 시스템의 경우 이야기가 달라져요. 생명과 직결된 전장에서 소프트웨어의 사소한 버그가 치명적인 결과로 이어질 수 있기 때문이에요. 이는 AI 기술의 발전 속도와 군사적 안전성, 신뢰성 사이의 딜레마를 극명하게 보여줘요. 안두릴의 사례는 AI 무기가 전장에서 완전한 신뢰를 얻으려면 전통적인 방산업체들이 거쳐온 수준의 엄격한 검증과 조직적인 준비가 필요하다는 점을 명확히 하고 있어요. 과연 빠른 실패가 전장에서 허용될 수 있는 개념일까요?

 

AI가 통제하는 미래 전장의 핵심 변수

 

결국 안두릴의 자율 무기 시스템에서 발견된 잇따른 문제는 AI 기반 국방 기술의 도입 속도 조절에 대한 근본적인 질문을 던져요. AI가 전장을 지휘하게 될 미래에는 기술적 진보만큼이나 시스템의 신뢰성과 안전 확보가 가장 중요한 가치일 거예요.

 

  • 투명성과 설명 가능성: AI가 왜 특정 행동을 했는지 인간이 이해할 수 있어야 해요. 드론보트가 명령을 거부한 이유를 명확히 파악하지 못하면 그 시스템을 신뢰할 수 없어요.
  • 인간의 개입 여부: 최악의 상황이나 예기치 않은 상황에서 인간이 시스템을 즉시 통제할 수 있는 안전장치가 필수적이에요.
  • 테스트 환경의 현실성: 실제 전장 환경, 즉 재밍이나 예측 불가능한 변수들을 반영한 고강도의 테스트가 더 필요해요.

 

안두릴의 현재 상황은 국방 AI 기술이 단순한 성능 향상을 넘어, 신뢰할 수 있는 파트너가 되기까지 얼마나 많은 숙제를 안고 있는지 잘 보여주는 예시가 돼요.

 

반응형