XNUMX 차 군사 혁명 : 기계 지능은 무장해서는 안된다

48

출처 : armflot.ru

XXI 세기의 주요 트렌드


"인공 지능"(이하 AI)이라는 용어의 모든 모호함에도 불구하고 세계 군대에서 고도로 생산적이고자가 학습하는 전투 시스템의 출현을위한 모든 전제 조건이 오랫동안 만들어졌습니다.

AI가 존재하지 않았다면 여전히 발명되어야 할 것입니다. 이제 인간 생활의 거의 모든 영역에서 매초 엄청난 양의 정보가 생성되며 처리 할 것이 없습니다.



그리고 군사 문제는 예외가 아닙니다. 군사 작전의 정보 포화의 진정한 규모를 이해하기 위해 Nagorno-Karabakh의 분쟁을 회상하는 것으로 충분합니다.

사진, 비디오 및 레이더 데이터의 흐름과 오디오 및 문자 메시지가이 분야의 주류가되었습니다. 이제야 잘 알려진 표현을 바꿀 수 있습니다

"정보를 소유 한 사람이 세상을 소유합니다"

현대로

"정보를 빠르게 분석 할 수있는 사람은 세상을 소유합니다."

그리고 "빅 데이터"(또는 빅 데이터)의 운영 처리를 위해서는 매우 심각한 기술이 필요합니다. 운영자의 개입없이자가 학습이 가능한 인공 신경망 등. 신경망의 중요한 장점은 원래 학습 코드에없는 데이터를 기반으로 패턴을 식별하는 기능입니다.

군대의 경우 AI가 불완전하거나 "시끄 럽거나"왜곡 된 데이터를 처리 할 수있는 잠재적 인 능력이 특히 중요합니다. 그렇기 때문에 딥 러닝 신경망은 비디오 및 사진 자료를 빠르게 분석하기 위해 뷰 인텔리전스 시스템에서 대기하고 있습니다. 군부에서 언급했듯이 수십 개의 디코더 작업에 수개월이 걸렸던 작업을 AI로 몇 초 만에 해결할 수 있습니다.


출처 : i.pinimg.com

그러나 지금도 데이터 세트에 대한 간단한 분석은 군사 작전에는 충분하지 않은 것 같습니다.

"가능한 조치 예측"

и

"예측 응답"

잠재적 인 표적.

이러한 "결론"에 따라 운영자는 발사 결정을 내릴 것입니다. 이것은 공격 작전 과정을 심각하게 가속화 할 것입니다.

예를 들어, 몇 년 전, Operation Enduring Freedom 동안 MQ-1 Predator 드론은 적의 장비 수송선에 진입했습니다. 그러나 운영자가 소속을 평가하고 로켓을 발사하기로 결정하는 동안 장비는 영향을받은 지역을 떠났습니다. 그리고 이것은 유일한 예와는 거리가 멀다.

이 경우 AI를 사용하면 파업의 전망과시기에 대한 예측을 빠르게 할 수 있습니다. 그러나 여기에도 함정이 있습니다.

적십자위원회는 AI가 무인 차량에 도입되는 것과 (가장 중요한 것은) AI에 대한 인간의 신뢰 수준에 대해 심각하게 우려하고 있습니다. 예를 들어, 도로 근처에서 파는 사람이 신경망에 의한 비디오 신호 분석만을 기반으로 즉석 폭발 장치 운영자로 확실하게 식별 될 수 있습니까?

이제 드럼 오퍼레이터 드론 전장에서 일어나는 일의 현실을 깨닫지 못하는 경우가 많습니다(플레이스테이션 사고방식). 그리고 AI가 이것으로 그들을 돕는다면?

이미 눈에 띄게 단순화 된 파괴 작업은 실행이 훨씬 더 쉬워 질 것입니다.

자동화하세요!


기술 및 전략적 도전으로 인해 세계 강대국은 군대를 로봇 공학의 레일로 점진적으로 이전해야합니다.

예를 들어, 미국에서 "제XNUMX의 보상 전략"은 군대를 군대로 바꾸겠다고 약속합니다. 로봇 벌써 삼십년 후. 그리고 XNUMX년 안에 펜타곤에 있는 세 번째 비행기는 모두 무인 항공기가 될 것입니다.

러시아도 따라 잡으려고 노력하고 있습니다. 그리고 앞으로 몇 년 동안 그들은 수십 가지 새로운 유형의 원격 제어 무기를 군대에 수용 할 계획입니다. 그러나 미국이나 러시아에는 아직 본격적인 AI 제어 정찰 및 공격 시스템이 부족합니다. 이것은 주로 책임의 위기 때문입니다. 첫 번째 종류의 오류, 즉 적에 대한 잘못 취소 된 공격이 어떻게 든 참을 수 있다면 두 번째 종류의 오류로 모든 것이 훨씬 더 복잡해집니다. 후자의 경우 차량은 "친화적 인 화재"를 결정하거나 민간인을 파괴합니다. 즉, 전쟁 범죄를 저지 릅니다.


출처 : popmeh.ru

이 상황에서 소프트웨어 개발자 또는 시스템 사용 명령을 내린 사령관 등 누가 그러한 행위에 책임이 있는지 완전히 명확하지 않습니다.

수십 년 동안 완전 자율 무인 항공기를 꿈꿔온 자동차 산업에도 유사한 상황이 존재합니다. 자동화 수준의 분류도 개발되어 군사 분야에 매우 적용 할 수 있습니다.

제로 레벨에서 자동차는 조건부 UAZ-496으로 모든 것이 운전자의 제어를 받고 ESP, ABS 등 메카 트로닉 보조자가 없습니다.

가장 높은 XNUMX 단계에서 바퀴 달린 드론은 스티어링 휠이 부족하거나 유료 옵션으로 설치됩니다. 그리고 모든 상황에서 움직임은 자동 조종 장치에 의해 제어됩니다. 현재 일본 Honda만이 레벨 XNUMX 직렬 자동 조종 장치를 인증 할 수있었습니다.

이 "조건부 자동화"기술은 위험한 상황에서 제어 할 수 없습니다. 그리고 정상적인 조건에서는 항상 작동하지 않습니다. Traffic Jam Pilot 시스템은 교통 체증시 자동차를 자동 조종하고 고속도로의 차선 내에 유지하고 추월을 수행합니다. 운전대에서 손을 뗄 수는 있지만 도로에서 눈을 뗄 수는 없습니다. 카메라가 지켜보고 있습니다. 세 번째 수준의 자동 조종 장치는 매우 비싸고 자동차의 총 비용을 XNUMX 배 증가시킵니다.

자동 조종 장치는 이미 대량 생산에서 완전히 구현 될 수 있다는 점을 기억해야합니다. 그리고 그들은 도로 ​​사망자를 정말로 심각하게 줄일 것입니다. 그러나 AI의 실수 (치명적 문제 포함)로 인한 법적 및 윤리적 문제로 인해 자동차 회사는 중단되었습니다.

AI는 무장해서는 안된다


군사 분야에서 완전 자율 전투 시스템이 개발 된 상황도 이상적이지 않습니다.

그리고 그것은 문제의 기술적 측면조차 아닙니다.

한편으로 회의적인 전문가들은 신경망을 기반으로 한자가 학습 시스템이 선제 공격을 제공 할 수있는 잠재적 인 능력을 지적합니다. 예를 들어 AI는 적의 실제 또는인지 된 취약성을 볼 것입니다. 이것이 첫 번째 무장 해제 공격을 제공하는 이유가 아닌 이유는 무엇입니까? 이 외에도 모든 "인공 두뇌"는 경쟁에 취약하고 비판적 사고 요소가 부족하기 때문에 사람에게 자신감을주지 않습니다.

일반적으로 RAND Corporation의 분석가들은 현재 나 미래에 군사 전략 결정을 인공 지능에 맡길 것을 촉구하지 않습니다. AI에 의해 실수로 파괴 된 여러 비전투원을 참을 수는 있지만, 모든 것이 핵 억제력에 적용될 때 훨씬 더 비극적 일 것입니다.

작전 전술로 모든 것이 그렇게 간단하지는 않습니다. 무기 AI 제어.

기존 무기에 비해 충격 드론의 기술적 우월성을 명확하게 보여주는 Nagorno-Karabakh의 영상으로 돌아가 보겠습니다. 여기 모두가 하늘에는 매우 완벽하지만 원격 제어 차량 만 있다는 것을 이해했습니다.

완전히 자율적 인 바이 락 타르가 파업을했다면 대중의 반응은 어떨까요?

AI가 전 세계에 살면 무기를 손에 들고도 사람을 죽일 수 있을까요?

문제의 도덕적 측면은 아직 여기에서 해결되지 않았습니다. 그리고 가까운 장래에 해결 될 것 같지 않습니다.

XNUMX 차 군사 혁명 : 기계 지능은 무장해서는 안된다
출처 : mil.ru

일반적으로 군대의 로봇은 물론 좋습니다.

그들은 적의 직접 사격에서 병사를 철수하여 모든 작업을 원격 제어 전투 유닛으로 옮길 수 있습니다. 손실과 비용이 감소합니다. 그리고 전쟁은 점점 더 인도적이되는 것 같습니다.

군사 분야의 완전 자율 로봇이나 치명적인 자율 무기 시스템은 인류와 손실 감소에 관한 것이 아닙니다. 딥 러닝 신경망은 전쟁을 훨씬 더 빠르고 더 많은 비용으로 만듭니다. 실제로 이것은 화약과 핵이라는 군사 문제에서 이전의 두 군사 혁명에 의해 보장 된 것입니다.

이것은 국방 프로젝트에서 국가와 관련된 많은 민간 기업에 의해 이해됩니다.

그래서 2018년에 Google은 7,5억 달러 이상의 고수익 Maven 프로젝트에서 손을 뗐습니다. 실리콘 밸리의 전문가들은 DARPA와 함께 수많은 인텔리전스 정보의 비디오 및 사진 배열을 처리하는 프로그램에 참여했습니다. 무적의. 데이터는 신경망에 의해 처리되었습니다. 그리고 운영자에게 파괴 우선 순위에 따라 "타겟 라이브러리"를 제공했습니다. Google에서 역사... 그리고 이제 DARPA는 자체적으로 대처하려고 노력하고 있습니다.

군대에서 AI의 중요한 측면은 정보 전쟁에서의 사용입니다.

우리는 가까운 장래에 무술 인공 지능 개발에있어 러시아와 (더 큰 범위로) 중국이 단순히 미국에서 쏟아 질 것이라고 어느 정도 확신을 가지고 말할 수 있습니다. 자율적 인 군사 마인드의 필요성을 국내 대중에게 설득 할 수 없다면 우리는 외부 적을 두려워 할 것입니다. 펜타곤은 고대부터이 논리로 유명했습니다. 그들은 이미 AI에 대해 완전히 작업하고 있으며 여기서 우리는 우리 자신의 도덕성에 대처할 수 없다고 말합니다.

마지막으로 전투 AI 위협에 대한 비대칭 대응은 매우 유망 해 보입니다. 요즘에는 인공 지능의 모든 눈에서 사물을 마스킹하는 기술과 고의적 인 속임수가 강해지고 있습니다.

지금까지 AI는 정보가 은색 플래터에 제공되는 평화로운 환경에서 잘 작동합니다.

불완전하고 노이즈가 많은 데이터로 기능하는 것은 매우 어렵습니다. 따라서 의도적으로 수정 된 데이터로 기계 지능을 오도하려는 시도는 매우 논리적으로 보입니다. 무장 된 AI의 응답 시간이 초 단위로 계산되고 사람의 의견에 의존하지 않는 경우, 그러한 잘못된 정보는 예측하기 어려운 결과를 초래할 수 있습니다.

XNUMX 차 군사 혁명은 우호적으로 취소하는 것이 낫습니다.

또는 군사 분야에서 AI의 개발 및 사용을위한 공동 제한 조치를 개발하십시오. 핵무기의 경우에도 비슷한 일을 할 수 있었습니까?
우리의 뉴스 채널

최신 뉴스와 오늘의 가장 중요한 이벤트를 구독하고 최신 상태로 유지하세요.

48 댓글
정보
독자 여러분, 출판물에 대한 의견을 남기려면 로그인.
  1. +3
    18 March 2021 05 : 11
    AI가 전 세계에 살면 무기를 손에 들고도 사람을 죽일 수 있을까요?

    문제의 도덕적 측면은 아직 여기서 해결되지 않았습니다.

    그. 다른 사람들이 공중에서 사람을 죽일 때-이것이 도덕적 관점에서 정상입니까?!
    1. 0
      18 March 2021 05 : 44
      견적 : 재킷 재고
      그. 다른 사람들이 공중에서 사람을 죽일 때-이것이 도덕적 관점에서 정상입니까?!

      물론 아닙니다.하지만 여기에 도덕적 문제가 있습니다! 우리는 도덕성에 대한 현대적 이해에 "부담이있는"현대인 일뿐입니다. 그리고 이것은 좋습니다. hi
      1. 0
        18 March 2021 18 : 56
        인용구 : A. Privalov
        그리고 그건 좋은거야.

        안녕하세요 교수님! 물론 좋지만 AI는이 "부담"을 제거합니다. 로봇은 극한이 될 것입니다. 영혼이없는 "철 조각"...
        1. +4
          18 March 2021 20 : 33
          그리고 당신에게, 안녕하세요. hi
          저는 교수가 아니라 조교수 일뿐입니다.

          다리미에 대한 수요가 없습니다. 작은 철 조각은 수치심이 없습니다. 심각한 이유없이 그것을 사용하기로 결정한 사람들은 랩을 할 것입니다. 이런 무기를 사용한 경험이없는 인류가 그 자체로 달콤한 동화를 구성하는 것은 오늘 뿐이다. 시간이 지나면 모든 것이 안정 될 것입니다. 한때 전투 요원처럼 비인도적인 무언가가 금지 될 수도 있습니다. 예를 들어 로봇이 훈련을 실시하고 사람을 불 태우 겠다는 결정은 사람이 내릴 수 있습니다. 기타 똑같이, 실수가있을 것이고, 모든 종류의 법적, 철학적 충돌이 발생할 것입니다. 우리는 AI를 가진 인류가 공상 과학 작가들이 많이 쓴 어떤 종류의 함정에 빠지지 않기를 바랄뿐입니다.
    2. 0
      19 March 2021 23 : 05
      견적 : 재킷 재고
      AI가 전 세계에 살면 무기를 손에 들고도 사람을 죽일 수 있을까요?

      문제의 도덕적 측면은 아직 여기서 해결되지 않았습니다.

      그. 다른 사람들이 공중에서 사람을 죽일 때-이것이 도덕적 관점에서 정상입니까?!

      물론 도덕적 관점에서 살인이 허용되는 경우 정당 방위 나 군사 행동이 아니었다면 이는 정상이 아니다. 그러나 첫째로, 살인자는 (그가 제정신이라면) 책임이이 세상 (사회 이전 또는 자신 이전) 또는 다른 세상에서, 아마도-하나님 앞에서 올 수 있다는 것을 이해하고, 둘째로 살인자는 위험이 있습니다. 피해자 "도 살인자를 죽일 수 있습니다. 이것들은 모두 제한 요소입니다. 그리고 온라인에서 보는 사람들은 살인자가 제정신이 아니더라도 처벌받을 가능성이 있음을 이해합니다. 살인자가 AI 인 경우 첫째, 특정 제약 요소가 없으며 둘째, 온라인 시청자는 행위가 인류보다 먼저 무죄로 수행되고 있음을 이해하지만 동시에 의도적, 즉 살인 사람은 의식이 있고 (운석이 아님) 처벌을받지 않습니다. 사람들의 눈에 인간 생명의 가치는 점차 사라지고 있습니다. 따라서 도덕성이 바뀝니다. 우리 모두는 자신의 재량에 따라 변경 될 수있는 (AI는 자체 개발) 자신의 재량에 따라 누구를 살지 결정하는 주체가 있다는 것을 이해할 것입니다. 그리고 일반적으로 사람을 죽이는 임무를받은 AI (인간 살해 금지 프로그램이 없음)가 예를 들어 항복과 같은 인간 희생자를 구할 수 있는지 여부는 명확하지 않습니다. 이것은 사람을 죽이는 무기로 AI를 사용하는 것에 대한 모든 질문과는 거리가 멀다.
      제 생각에는 UN이 최소한 규칙과 규범을 개발하는위원회를 임명하거나 (로봇이나 AI가 다른 사람의 참여없이 사람을 죽이는 결정을해서는 안 됨) AI에 대한 완전한 금지 조치를 취해야합니다. 사람과 다른 생명체를 죽이는 무기 ...
  2. +4
    18 March 2021 05 : 31
    . 그리고 "빅 데이터"(또는 빅 바타)의 운영 처리를 위해서는 매우 심각한 기술이 필요합니다.
    훌륭한 면책 조항. 거의 Freud에 따르면 : "big bata"-필리핀어로 "큰 아이".
    물론 인류는 AI와 관련된 더 많은 문제를 해결해야 할 것입니다. 군사 영역은 많은 것 중 하나 일뿐입니다. 더군다나 반 심한 제한으로 자신을 제한하는 것은 불가능합니다. 진행을 더 이상 멈출 수 없습니다. "철 말이 농민 말을 대체하고있다"(c)
    ... 1865 년 영국 의회는 운송 속도가 6km / h로 제한되는 법을 통과했으며 사람이 붉은 깃발을 흔들며 차 앞을 걸어야했습니다. 마지막 요점은 1878 년에 폐지되었습니다. 다른 소식통에 따르면 "위험 신호"규칙은 제한 속도가 1896km / h로 증가하고 승무원 23 명 (운전자, 조수 및 소방관)에 대한 요구 사항이 폐지되면서 3 년에만 취소되었습니다. 경차 (연석 중량 최대 1903 톤) 말이없는 차량, 즉 자동차와 기관차의 차이가 법적으로 인정되어 영국 자동차 산업의 발전에 박차를가했습니다. 제한 속도는 1896 년에 다시 올렸고 1903 년과 1930 년의 법률은 마침내 XNUMX 년에야 영국에서 취소되었습니다.
  3. +1
    18 March 2021 05 : 48
    XNUMX 차 군사 혁명은 우호적으로 취소하는 것이 낫습니다.
    좋지만 아아 ...
    또는 군사 분야에서 AI 개발 및 사용을위한 공동 제한 조치를 개발합니다.
    그럴 것 같지 않습니다. 자동화 시스템의 개발 및 구현은 너무나 명백한 이점을 제공합니다. 그리고 AI 생성 과정을 제어하는 ​​것은 핵무기 생성 및 배포보다 훨씬 더 어렵습니다.
    가까운 장래에이 방향에 대한 합의가 없을 것이라고 생각합니다. 미국과 러시아가 대인 광산에 관한 오타와 조약에 아직 서명하고 비준하지 않은 경우 ...
  4. 0
    18 March 2021 06 : 19
    아리스토텔레스는 모든 것에 책임이 있습니다. 모든 것은 그의 삼단 론에서 시작되었습니다.
  5. +12
    18 March 2021 06 : 24
    장군들은 지친 미소를 지었다.
    그들은 서로를 바라보며 기쁨의 외침을했습니다. 아마겟돈이 이기고 사탄의 세력이 패배했습니다.
    하지만 그들의 텔레비전 화면에서 뭔가가 일어나고있었습니다.
    - 어떻게! 이것은 ...이 ...-McFee 장군을 시작하고 침묵했습니다.
    전장을 따라 뒤틀리고 부서진 금속 더미 사이에서 그레이스는 걸었다.
    장군들은 침묵했습니다.
    그레이스는 변형 된 로봇을 만졌습니다.
    그리고 로봇은 김이 나는 사막을 뒤흔들 었습니다. 뒤틀리고 불에 녹은 금속 조각이 새로워졌습니다.
    그리고 로봇이 발을 딛었습니다.
    “McFee”최고 사령관 베터 러가 속삭였다. -무언가를 누르십시오-그들 또는 무언가가 무릎을 꿇게하십시오.
    장군이 눌렀지만 리모컨이 작동하지 않았습니다.
    그리고 로봇은 이미 하늘로 치솟았습니다. 그들은 주님의 천사들에 둘러싸여 로봇 탱크, 로봇 보병, 자동 폭격기가 점점 더 높이 올라갔습니다.
    -그는 그들을 하늘로 옮깁니다! Ongin은 히스테리하게 소리 쳤다. -로봇을 천국으로 데려갑니다!
    "실수가있었습니다."Vetterer가 말했습니다. -더 빨리! 연락관을 보내 ... 아니, 우리 스스로 갈게
    즉시 비행기가 보냈고 그들은 전장으로 돌진했습니다. 그러나 이미 너무 늦었습니다. 아마겟돈은 끝났고 로봇은 사라지고 주님은 그의 군대와 함께 집을 떠났습니다. (C) R. Sheckley "Battle"
    1. +3
      18 March 2021 08 : 21
      내가 가장 좋아하는 이야기! :)
  6. +2
    18 March 2021 09 : 36
    로봇에게 영광을! 모든 사람을 죽여라! (c) 오리히메 이노우에
    1. +2
      18 March 2021 10 : 36
      어, 그리고 어느 쪽 이요? 사실 이들은 유명해진 후투 라마 번역가들입니다. 웃음
      1. 0
        18 March 2021 13 : 49
        알아요,하지만 오리히메는 한때 미래의 장대 한 그림을 로봇으로 그렸습니다. 웃음
    2. +4
      18 March 2021 15 : 32
      제품 견적 : Kolin

      로봇에게 영광을! 모든 사람을 죽여라! (c) 오리히메 이노우에


      오리히메는 여전히 평화 롭고 최선을 다했습니다.
      치유되고 심지어 부활했습니다.

      하지만 프로그래머가 무엇이든 할 수 있다면 AI에서 또 무엇을 기대할까요?



      이르쿠츠크 항공기 공장 "Irkut"에서 상트 페테르부르크 설계국 "Electroavtomatika"의 총책임자에게 보낸 편지에서 이름이없는 이상한 버튼을 누르면 "로봇에게 영광! 모든 사람을 죽이십시오!" "이 제어판 화면에 표시되었습니다.


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
    3. +1
      18 March 2021 23 : 27
      제품 견적 : Kolin
      로봇에게 영광을! 모든 사람을 죽여라! (c) 오리히메 이노우에


      법이 있어야합니다.
      "모든 사람 죽이기"버튼
      빨간색으로 만드세요.
      이것은 실수로 누르는 것을 방지합니다.
  7. +7
    18 March 2021 10 : 55
    다음 세계 대전에서는 전쟁 범죄와 반 인도적 범죄의 개념이 존재하지 않을 것이므로 많은 단점에도 불구하고 인쇄 가능한 자치 살인범을 많이 보유한 사람이 승자가 될 것입니다.
    1. 0
      19 March 2021 23 : 11
      다음 세계 대전에서는 전쟁 범죄와 반 인도적 범죄의 개념이 존재하지 않을 것이므로 많은 단점에도 불구하고 인쇄 가능한 자치 살인범을 많이 보유한 사람이 승자가 될 것입니다.

      그리고 자율 살인범은 승자를 죽일 것입니다. 자율적입니까?
  8. +2
    18 March 2021 11 : 16
    전쟁에 참여한 사람은 피곤하고 집중력을 잃고 끊임없이 스트레스를 경험하며 혼란스러워하고 복수를 갈망하며 죽이기를 원합니다. 더욱이 인간의 지각은 극도로 불완전하며 많은 정신 생리 학적 장애를 겪습니다. 그러나 그는 발사를 결정할 수 있습니다!
    그러나 냉정하고 결코 피곤하지 않은 로봇-오, 절대! 웃음
    현재 AI가 단순히 작업을 처리 할 수 ​​없다는 것은 분명하지만 가까운 장래에 모든 것을 해결할 로봇이 될 것입니다.
    1. +1
      18 March 2021 23 : 42
      제품 견적 : Sahalinets
      전쟁에 참여한 사람은 피곤하고 집중력을 잃고 끊임없이 스트레스를 경험하며 혼란스러워하고 복수를 갈망하며 죽이기를 원합니다. 더욱이 인간의 지각은 극도로 불완전하며 많은 정신 생리 학적 장애를 겪습니다. 그러나 그는 발사를 결정할 수 있습니다!
      그러나 냉정하고 결코 피곤하지 않은 로봇-오, 절대! 웃음
      현재 AI가 단순히 작업을 처리 할 수 ​​없다는 것은 분명하지만 가까운 장래에 모든 것을 해결할 로봇이 될 것입니다.


      이기려면->
      최대한 많은 로봇을 적용 / 사용해야합니다->
      이를 위해 생산은 가능한 한 간단해야합니다->
      가장 단순한 AI는 살아있는 사람을 식별 할 수 있지만 민간인이나 전투원은 식별 할 수 없습니다.

      결과적으로 우리는 AI로 대량 살상 무기를 얻습니다.
  9. +2
    18 March 2021 13 : 31
    AI를 개발하는 것이 합리적입니다. 우선, 그는 자신의 나라에 절대적인 충성을 심어 주어야합니다. 그리고 물론 처음에는 화재 가능성을 포함하지 않습니다. 버튼을 누르고 결정을 내리는 것은 항상 그 사람과 함께해야합니다.
    1. 0
      18 March 2021 16 : 56
      그는 자신의 나라에 절대적인 충성을 심어 주어야합니다
      크 바스에 배터리 전원을 공급하여 wassat 또는 코카콜라 웃음
    2. +1
      18 March 2021 23 : 56
      제품 견적 : Basarev
      AI를 개발하는 것이 합리적입니다. 우선, 그는 자신의 나라에 절대적인 충성을 심어 주어야합니다. 그리고 물론 처음에는 화재 가능성을 포함하지 않습니다. 버튼을 누르고 결정을 내리는 것은 항상 그 사람과 함께해야합니다.


      작업자는 1000 대의 로봇을 제어하고
      화면에 팝업 요청 창이 나타납니다.
      "목표 발견. 파괴? 예 / 아니오"
      작업자는 "D"버튼을 조입니다 ...

      이제 그들은 드론을 사용합니다.
      운영자가 영향을 결정합니다.
      테러리스트 집단 대신 결혼식 행렬에 타격이 가해지고 있습니다.

      군대의 경우 "그들의"가 보장되는 영역으로 로봇을 방출하는 것이 더 쉽습니다. 지정된 경계의 모든 대상이 적으로 간주된다는 것을 확인했습니다.
      클러스터 무기 사용의 아날로그.

      집속 탄은 누구의 양심에 의해서도 사용되지 않으며, 군대를위한이 새로운 "장난감"은 동일하지만 훨씬 더 효과적입니다. 그들은 그것을 좋아합니다.
  10. +1
    18 March 2021 13 : 43
    그리고 어떤 사람들은 이것이 도덕적 인 것인지에 대한 질문으로 고군분투하는 반면, 다른 사람들은 이것으로 소비자 시장에 빠르게 진입하는 방법에 대한 질문으로 어려움을 겪고 있습니다. 나는 누가 더 빠를 지 알고 있습니다.
    1. +1
      18 March 2021 17 : 41
      대중의 시장 진입은 더 빨라질 것입니다. 우리 시대에는 인간이 다시 인간에게 늑대가되었을 때 쓴 도덕이 조용한 눈물을 흘립니다.
      1. +1
        18 March 2021 18 : 01
        도덕은 본질적으로 완전히 절대적이지만 개인의 부도덕에는 한계가 없습니다. 예.
        1. +1
          18 March 2021 18 : 15
          그날의 주제에 대해 이해할 수있는 가치와 아이디어가없는 경우 집단 부도덕에 대해 말하는 것이 더 정확할 것입니다. 아아, 궁극의 절대자가 여름에 가라 앉았습니다.
          1. +2
            18 March 2021 18 : 24
            음 ...이 ... 전리품이 악을 이깁니다.
  11. +2
    18 March 2021 17 : 26
    물론 질문은 흥미 롭습니다. 같은 서구에서는 여러 차례 AI 무기의 허용 불가에 대해 사회의 여러 측면에서 경고와 예측을 내놓았습니다. 비디오 게임에서도 이것은 명확하게 표현됩니다 (Horizon zero dawn), 백도어가없는 가장자리에서 바보는 결함을 포착하고 행성을 멸종으로 돌진하고 가메 육으로 죽었습니다. (글쎄요, 많은 단순화와 구멍이 있습니다 , 물론), 그러나 중요한 것은 분리를위한 안정적인 백도어가없고 결코 충분하지 않다는 것입니다. 그리고 양키스는 물론이 사건으로 실패 할 것이고 우리는 여전히 스카이 넷을 보게 될 것임을 암시합니다.
  12. +1
    18 March 2021 17 : 39
    여기서 다시 AI, 신경망이 미래의 강력하고 강력한 AI에 어떻게 부합하는지 완전히 이해할 수 없습니다. 인공 지능이없고, 기계와 알고리즘이 생각하지 않는다, 인공 지능이 대중 매체에 좋다, 왜 동지들을 괴롭히는가?
  13. 0
    18 March 2021 20 : 20
    지옥 같은 쓰레기. 완전히 자율적 인 Bayraktar는 우주에서 방향을 잡을 수 없기 때문에 한 번도 타격을 입지 않았을 것입니다. 우리가있는 곳, 날아갈 곳. 우선, 자신의 입장에 대한 진부한 정의 문제가 해결되지 않았습니다. 다음으로 인식 문제를 해결해야합니다. 이것은 지오메트리 세부 사항을 별도의 개체로 선택하여 고유 한 이름을 부여하는 것입니다. 다음으로, 선택한 개체와 상호 작용하는 문제를 해결해야합니다. 그리고 기본적인 기술적 문제가 해결되지 않은 경우 도덕적 측면은 무엇과 관련이 있습니까?
  14. 0
    20 March 2021 10 : 19
    명확한 기준이 있습니다 .AI가 인간 운영자가 달성 할 수있는 최소 오류 수준보다 훨씬 낮은 잘못된 결정 가능성을 제공한다는 것이 입증되면 AI 결정을 전달하는 것이 합리적입니다.
  15. 0
    21 March 2021 22 : 05
    XNUMX 차 군사 혁명은 우호적으로 취소하는 것이 낫다


    인류는 나쁘게 끝날 것입니다. 이야기는 나선형으로 전개됩니다. 수십만 년이 지난 후, 다음 연구자들은 "그리고 누가 그런 피라미드를 만들었습니까?"라는 질문으로 다시 이마에 주름을 잡았습니다. 그리고 그들은 수 미터의 모래 층 아래에 ​​묻혀있는 우리 쓰레기통을 파고 묻습니다. "대단한 문명이 있었지만 어딘가에갔습니다 ... 무슨 일이 있었나요?"

    욕심, 허영심, 부러움이 이겼다. 그리고 우리는졌습니다. 모두.

"Right Sector"(러시아에서 금지됨), "Ukrainian Insurgent Army"(UPA)(러시아에서 금지됨), ISIS(러시아에서 금지됨), "Jabhat Fatah al-Sham"(이전의 "Jabhat al-Nusra"(러시아에서 금지됨)) , 탈레반(러시아 금지), 알카에다(러시아 금지), 반부패재단(러시아 금지), 해군 본부(러시아 금지), 페이스북(러시아 금지), 인스타그램(러시아 금지), 메타 (러시아에서 금지), Misanthropic Division (러시아에서 금지), Azov (러시아에서 금지), 무슬림 형제단 (러시아에서 금지), Aum Shinrikyo (러시아에서 금지), AUE (러시아에서 금지), UNA-UNSO (금지) 러시아), 크림 타타르족의 Mejlis(러시아에서 금지됨), Legion "Freedom of Russia"(무장 조직, 러시아 연방에서 테러리스트로 인정되어 금지됨), Kirill Budanov(테러리스트 및 극단주의자에 대한 Rosfin 모니터링 목록에 포함됨)

“비영리 단체, 미등록 공공 협회 또는 외국 대리인의 역할을 수행하는 개인” 및 외국 대리인의 기능을 수행하는 언론 매체: “Medusa”; "미국의 목소리"; "현실"; "현재 시간"; "라디오 자유"; 포노마레프 레프; 포노마레프 일리아; 사비츠카야; 마켈로프; 카말랴긴; Apakhonchich; 마카레비치; 멍청아; 고든; 즈다노프; 메드베데프; 페도로프; 미하일 카샤노프; "올빼미"; "의사 동맹"; "RKK" "레바다 센터"; "기념물"; "목소리"; "사람과 법"; "비"; "미디어존"; "도이체 벨레"; QMS "백인 매듭"; "소식통"; "새 신문"