XNUMX 차 군사 혁명 : 기계 지능은 무장해서는 안된다
XXI 세기의 주요 트렌드
"인공 지능"(이하 AI)이라는 용어의 모든 모호함에도 불구하고 세계 군대에서 고도로 생산적이고자가 학습하는 전투 시스템의 출현을위한 모든 전제 조건이 오랫동안 만들어졌습니다.
AI가 존재하지 않았다면 여전히 발명되어야 할 것입니다. 이제 인간 생활의 거의 모든 영역에서 매초 엄청난 양의 정보가 생성되며 처리 할 것이 없습니다.
그리고 군사 문제는 예외가 아닙니다. 군사 작전의 정보 포화의 진정한 규모를 이해하기 위해 Nagorno-Karabakh의 분쟁을 회상하는 것으로 충분합니다.
사진, 비디오 및 레이더 데이터의 흐름과 오디오 및 문자 메시지가이 분야의 주류가되었습니다. 이제야 잘 알려진 표현을 바꿀 수 있습니다
현대로
그리고 "빅 데이터"(또는 빅 데이터)의 운영 처리를 위해서는 매우 심각한 기술이 필요합니다. 운영자의 개입없이자가 학습이 가능한 인공 신경망 등. 신경망의 중요한 장점은 원래 학습 코드에없는 데이터를 기반으로 패턴을 식별하는 기능입니다.
군대의 경우 AI가 불완전하거나 "시끄 럽거나"왜곡 된 데이터를 처리 할 수있는 잠재적 인 능력이 특히 중요합니다. 그렇기 때문에 딥 러닝 신경망은 비디오 및 사진 자료를 빠르게 분석하기 위해 뷰 인텔리전스 시스템에서 대기하고 있습니다. 군부에서 언급했듯이 수십 개의 디코더 작업에 수개월이 걸렸던 작업을 AI로 몇 초 만에 해결할 수 있습니다.
그러나 지금도 데이터 세트에 대한 간단한 분석은 군사 작전에는 충분하지 않은 것 같습니다.
и
잠재적 인 표적.
이러한 "결론"에 따라 운영자는 발사 결정을 내릴 것입니다. 이것은 공격 작전 과정을 심각하게 가속화 할 것입니다.
예를 들어, 몇 년 전, Operation Enduring Freedom 동안 MQ-1 Predator 드론은 적의 장비 수송선에 진입했습니다. 그러나 운영자가 소속을 평가하고 로켓을 발사하기로 결정하는 동안 장비는 영향을받은 지역을 떠났습니다. 그리고 이것은 유일한 예와는 거리가 멀다.
이 경우 AI를 사용하면 파업의 전망과시기에 대한 예측을 빠르게 할 수 있습니다. 그러나 여기에도 함정이 있습니다.
적십자위원회는 AI가 무인 차량에 도입되는 것과 (가장 중요한 것은) AI에 대한 인간의 신뢰 수준에 대해 심각하게 우려하고 있습니다. 예를 들어, 도로 근처에서 파는 사람이 신경망에 의한 비디오 신호 분석만을 기반으로 즉석 폭발 장치 운영자로 확실하게 식별 될 수 있습니까?
이제 드럼 오퍼레이터 드론 전장에서 일어나는 일의 현실을 깨닫지 못하는 경우가 많습니다(플레이스테이션 사고방식). 그리고 AI가 이것으로 그들을 돕는다면?
이미 눈에 띄게 단순화 된 파괴 작업은 실행이 훨씬 더 쉬워 질 것입니다.
자동화하세요!
기술 및 전략적 도전으로 인해 세계 강대국은 군대를 로봇 공학의 레일로 점진적으로 이전해야합니다.
예를 들어, 미국에서 "제XNUMX의 보상 전략"은 군대를 군대로 바꾸겠다고 약속합니다. 로봇 벌써 삼십년 후. 그리고 XNUMX년 안에 펜타곤에 있는 세 번째 비행기는 모두 무인 항공기가 될 것입니다.
러시아도 따라 잡으려고 노력하고 있습니다. 그리고 앞으로 몇 년 동안 그들은 수십 가지 새로운 유형의 원격 제어 무기를 군대에 수용 할 계획입니다. 그러나 미국이나 러시아에는 아직 본격적인 AI 제어 정찰 및 공격 시스템이 부족합니다. 이것은 주로 책임의 위기 때문입니다. 첫 번째 종류의 오류, 즉 적에 대한 잘못 취소 된 공격이 어떻게 든 참을 수 있다면 두 번째 종류의 오류로 모든 것이 훨씬 더 복잡해집니다. 후자의 경우 차량은 "친화적 인 화재"를 결정하거나 민간인을 파괴합니다. 즉, 전쟁 범죄를 저지 릅니다.
이 상황에서 소프트웨어 개발자 또는 시스템 사용 명령을 내린 사령관 등 누가 그러한 행위에 책임이 있는지 완전히 명확하지 않습니다.
수십 년 동안 완전 자율 무인 항공기를 꿈꿔온 자동차 산업에도 유사한 상황이 존재합니다. 자동화 수준의 분류도 개발되어 군사 분야에 매우 적용 할 수 있습니다.
제로 레벨에서 자동차는 조건부 UAZ-496으로 모든 것이 운전자의 제어를 받고 ESP, ABS 등 메카 트로닉 보조자가 없습니다.
가장 높은 XNUMX 단계에서 바퀴 달린 드론은 스티어링 휠이 부족하거나 유료 옵션으로 설치됩니다. 그리고 모든 상황에서 움직임은 자동 조종 장치에 의해 제어됩니다. 현재 일본 Honda만이 레벨 XNUMX 직렬 자동 조종 장치를 인증 할 수있었습니다.
이 "조건부 자동화"기술은 위험한 상황에서 제어 할 수 없습니다. 그리고 정상적인 조건에서는 항상 작동하지 않습니다. Traffic Jam Pilot 시스템은 교통 체증시 자동차를 자동 조종하고 고속도로의 차선 내에 유지하고 추월을 수행합니다. 운전대에서 손을 뗄 수는 있지만 도로에서 눈을 뗄 수는 없습니다. 카메라가 지켜보고 있습니다. 세 번째 수준의 자동 조종 장치는 매우 비싸고 자동차의 총 비용을 XNUMX 배 증가시킵니다.
자동 조종 장치는 이미 대량 생산에서 완전히 구현 될 수 있다는 점을 기억해야합니다. 그리고 그들은 도로 사망자를 정말로 심각하게 줄일 것입니다. 그러나 AI의 실수 (치명적 문제 포함)로 인한 법적 및 윤리적 문제로 인해 자동차 회사는 중단되었습니다.
AI는 무장해서는 안된다
군사 분야에서 완전 자율 전투 시스템이 개발 된 상황도 이상적이지 않습니다.
그리고 그것은 문제의 기술적 측면조차 아닙니다.
한편으로 회의적인 전문가들은 신경망을 기반으로 한자가 학습 시스템이 선제 공격을 제공 할 수있는 잠재적 인 능력을 지적합니다. 예를 들어 AI는 적의 실제 또는인지 된 취약성을 볼 것입니다. 이것이 첫 번째 무장 해제 공격을 제공하는 이유가 아닌 이유는 무엇입니까? 이 외에도 모든 "인공 두뇌"는 경쟁에 취약하고 비판적 사고 요소가 부족하기 때문에 사람에게 자신감을주지 않습니다.
일반적으로 RAND Corporation의 분석가들은 현재 나 미래에 군사 전략 결정을 인공 지능에 맡길 것을 촉구하지 않습니다. AI에 의해 실수로 파괴 된 여러 비전투원을 참을 수는 있지만, 모든 것이 핵 억제력에 적용될 때 훨씬 더 비극적 일 것입니다.
작전 전술로 모든 것이 그렇게 간단하지는 않습니다. 무기 AI 제어.
기존 무기에 비해 충격 드론의 기술적 우월성을 명확하게 보여주는 Nagorno-Karabakh의 영상으로 돌아가 보겠습니다. 여기 모두가 하늘에는 매우 완벽하지만 원격 제어 차량 만 있다는 것을 이해했습니다.
완전히 자율적 인 바이 락 타르가 파업을했다면 대중의 반응은 어떨까요?
AI가 전 세계에 살면 무기를 손에 들고도 사람을 죽일 수 있을까요?
문제의 도덕적 측면은 아직 여기에서 해결되지 않았습니다. 그리고 가까운 장래에 해결 될 것 같지 않습니다.
출처 : mil.ru
일반적으로 군대의 로봇은 물론 좋습니다.
그들은 적의 직접 사격에서 병사를 철수하여 모든 작업을 원격 제어 전투 유닛으로 옮길 수 있습니다. 손실과 비용이 감소합니다. 그리고 전쟁은 점점 더 인도적이되는 것 같습니다.
군사 분야의 완전 자율 로봇이나 치명적인 자율 무기 시스템은 인류와 손실 감소에 관한 것이 아닙니다. 딥 러닝 신경망은 전쟁을 훨씬 더 빠르고 더 많은 비용으로 만듭니다. 실제로 이것은 화약과 핵이라는 군사 문제에서 이전의 두 군사 혁명에 의해 보장 된 것입니다.
이것은 국방 프로젝트에서 국가와 관련된 많은 민간 기업에 의해 이해됩니다.
그래서 2018년에 Google은 7,5억 달러 이상의 고수익 Maven 프로젝트에서 손을 뗐습니다. 실리콘 밸리의 전문가들은 DARPA와 함께 수많은 인텔리전스 정보의 비디오 및 사진 배열을 처리하는 프로그램에 참여했습니다. 무적의. 데이터는 신경망에 의해 처리되었습니다. 그리고 운영자에게 파괴 우선 순위에 따라 "타겟 라이브러리"를 제공했습니다. Google에서 역사... 그리고 이제 DARPA는 자체적으로 대처하려고 노력하고 있습니다.
군대에서 AI의 중요한 측면은 정보 전쟁에서의 사용입니다.
우리는 가까운 장래에 무술 인공 지능 개발에있어 러시아와 (더 큰 범위로) 중국이 단순히 미국에서 쏟아 질 것이라고 어느 정도 확신을 가지고 말할 수 있습니다. 자율적 인 군사 마인드의 필요성을 국내 대중에게 설득 할 수 없다면 우리는 외부 적을 두려워 할 것입니다. 펜타곤은 고대부터이 논리로 유명했습니다. 그들은 이미 AI에 대해 완전히 작업하고 있으며 여기서 우리는 우리 자신의 도덕성에 대처할 수 없다고 말합니다.
마지막으로 전투 AI 위협에 대한 비대칭 대응은 매우 유망 해 보입니다. 요즘에는 인공 지능의 모든 눈에서 사물을 마스킹하는 기술과 고의적 인 속임수가 강해지고 있습니다.
지금까지 AI는 정보가 은색 플래터에 제공되는 평화로운 환경에서 잘 작동합니다.
불완전하고 노이즈가 많은 데이터로 기능하는 것은 매우 어렵습니다. 따라서 의도적으로 수정 된 데이터로 기계 지능을 오도하려는 시도는 매우 논리적으로 보입니다. 무장 된 AI의 응답 시간이 초 단위로 계산되고 사람의 의견에 의존하지 않는 경우, 그러한 잘못된 정보는 예측하기 어려운 결과를 초래할 수 있습니다.
XNUMX 차 군사 혁명은 우호적으로 취소하는 것이 낫습니다.
또는 군사 분야에서 AI의 개발 및 사용을위한 공동 제한 조치를 개발하십시오. 핵무기의 경우에도 비슷한 일을 할 수 있었습니까?
정보