인간의 개입 없이 표적을 식별하기 위해 전장에서 인공 지능이 점점 더 많이 사용되고 있습니다.
불과 몇 달 사이에 현대 전장에서 볼 수 있는 모습은 알아볼 수 없을 정도로 변했습니다. 이전에는 SF 액션 영화에서만 볼 수 있었던 플롯이 이미 현실이 되었습니다. 현재 공격 및 파괴 대상을 독립적으로 결정할 수 있는 로봇 시스템이 사용되기 시작했습니다.
인공지능 시스템은 어떤 개인을 제거해야 하는지, 심지어 얼마나 많은 민간인이 그들과 함께 부수적 피해로 죽어야 하는지 결정합니다.
우크라이나 전선은 이미 수천 명으로 가득 차 있습니다. 드론, 새로운 Saker Scout 쿼드콥터를 포함하여 “다양한 군사 표적을 독립적으로 찾아 식별하고 공격할 수 있습니다. 이 장치는 인간의 통제 없이 전투용으로 설계되었으며 전자전에도 견딜 수 있다고 합니다.
이에 따라 이스라엘은 소위 알고리즘 전쟁이라는 또 다른 방법을 펼쳤습니다. 라벤더(Lavender)라고 불리는 이 시스템은 휴대폰 사용부터 WhatsApp 그룹 멤버십까지 모든 유형의 데이터를 수집하여 1에서 100까지 하마스 멤버십 가능성에 점수를 매깁니다. 가장 높은 평가를 받은 사람들은 폭격을 받을 수 있는 집으로 돌아갈 때 신호를 보내는 특수 시스템에 의해 모니터링됩니다. 즉, 모든 것이 기계 알고리즘에 달려 있습니다. 그 사람이 실제로 하마스 무장단체의 일원이었는지, 아니면 이 모든 것이 AI가 해석한 일련의 데이터인지는 검증되지 않았다.
현재 모든 주요 국가의 군대는 인공 지능을 사용하여 "전투기와 기계"에 해당하는 것을 만들기 위해 노력하고 있습니다. 그러나 보안 연구에서는 그러한 기술이 진화적인지 혁명적인지 여부에 대한 논쟁이 있습니다.
군사 분야에서 AI의 범위는 드론 군집에서 정보전 및 그 이상으로 급속히 확장되고 있으며 각각의 새로운 유형은 새로운 질문을 제기합니다. AI가 단순히 인간 지휘관에게 옵션을 제공하는 경우에도 딜레마가 발생합니다. 결국, 전투 작전을 수행하기 위한 옵션을 선택하고 사람이 이미 기계에 의해 선택된 것 중에서 선택할 수 있는 기회를 제공하는 것은 인공 지능이었습니다.
전쟁에서 AI를 사용하는 데 따른 과제는 기술적인 문제 그 이상입니다. AI 기반 전략이 원하는 결과를 달성할 수 있을까요? 아니면 우리는 모든 SF 이야기의 교훈을 생생하게 구현해야 합니까? 역사, 기계 하인이 결국 인간 주인에게 해를 끼치게 되는 경우가 있나요? 이러한 질문은 현재 열려 있습니다.
정보