군사 검토

XNUMX 차 군사 혁명 : 기계 지능은 무장해서는 안된다

72

출처 : armflot.ru


XXI 세기의 주요 트렌드


"인공 지능"(이하 AI)이라는 용어의 모든 모호함에도 불구하고 세계 군대에서 고도로 생산적이고자가 학습하는 전투 시스템의 출현을위한 모든 전제 조건이 오랫동안 만들어졌습니다.

AI가 존재하지 않았다면 여전히 발명되어야 할 것입니다. 이제 인간 생활의 거의 모든 영역에서 매초 엄청난 양의 정보가 생성되며 처리 할 것이 없습니다.

그리고 군사 문제는 예외가 아닙니다. 군사 작전의 정보 포화의 진정한 규모를 이해하기 위해 Nagorno-Karabakh의 분쟁을 회상하는 것으로 충분합니다.

사진, 비디오 및 레이더 데이터의 흐름과 오디오 및 문자 메시지가이 분야의 주류가되었습니다. 이제야 잘 알려진 표현을 바꿀 수 있습니다

"정보를 소유 한 사람이 세상을 소유합니다"

현대로

"정보를 빠르게 분석 할 수있는 사람은 세상을 소유합니다."

그리고 "빅 데이터"(또는 빅 데이터)의 운영 처리를 위해서는 매우 심각한 기술이 필요합니다. 운영자의 개입없이자가 학습이 가능한 인공 신경망 등. 신경망의 중요한 장점은 원래 학습 코드에없는 데이터를 기반으로 패턴을 식별하는 기능입니다.

군대의 경우 AI가 불완전하거나 "시끄 럽거나"왜곡 된 데이터를 처리 할 수있는 잠재적 인 능력이 특히 중요합니다. 그렇기 때문에 딥 러닝 신경망은 비디오 및 사진 자료를 빠르게 분석하기 위해 뷰 인텔리전스 시스템에서 대기하고 있습니다. 군부에서 언급했듯이 수십 개의 디코더 작업에 수개월이 걸렸던 작업을 AI로 몇 초 만에 해결할 수 있습니다.


출처 : i.pinimg.com

그러나 지금도 데이터 세트에 대한 간단한 분석은 군사 작전에는 충분하지 않은 것 같습니다.

"가능한 조치 예측"

и

"예측 응답"

잠재적 인 표적.

이러한 "결론"에 따라 운영자는 발사 결정을 내릴 것입니다. 이것은 공격 작전 과정을 심각하게 가속화 할 것입니다.

예를 들어, 몇 년 전, Operation Enduring Freedom 동안 MQ-1 Predator 드론은 적의 장비 수송선에 진입했습니다. 그러나 운영자가 소속을 평가하고 로켓을 발사하기로 결정하는 동안 장비는 영향을받은 지역을 떠났습니다. 그리고 이것은 유일한 예와는 거리가 멀다.

이 경우 AI를 사용하면 파업의 전망과시기에 대한 예측을 빠르게 할 수 있습니다. 그러나 여기에도 함정이 있습니다.

적십자위원회는 AI가 무인 차량에 도입되는 것과 (가장 중요한 것은) AI에 대한 인간의 신뢰 수준에 대해 심각하게 우려하고 있습니다. 예를 들어, 도로 근처에서 파는 사람이 신경망에 의한 비디오 신호 분석만을 기반으로 즉석 폭발 장치 운영자로 확실하게 식별 될 수 있습니까?

요즘 쇼크 드론 운영자는 전장에서 일어나는 일 (플레이 스테이션 사고 방식)의 현실을 잘 모르고 있습니다. 그리고 AI가 이것에 도움이된다면?

이미 눈에 띄게 단순화 된 파괴 작업은 실행이 훨씬 더 쉬워 질 것입니다.

자동화하세요!


기술 및 전략적 도전으로 인해 세계 강대국은 군대를 로봇 공학의 레일로 점진적으로 이전해야합니다.

예를 들어, 미국에서 "XNUMX 차 보상 전략"은 군대를 XNUMX 년 안에 로봇 군대로 만들 것을 약속합니다. 그리고 펜타곤에서 XNUMX 년 안에 세 번째 비행기는 무인화 될 것입니다.

러시아도 따라 잡으려고 노력하고 있습니다. 그리고 앞으로 몇 년 동안 그들은 수십 가지 새로운 유형의 원격 제어 무기를 군대에 수용 할 계획입니다. 그러나 미국이나 러시아에는 아직 본격적인 AI 제어 정찰 및 공격 시스템이 부족합니다. 이것은 주로 책임의 위기 때문입니다. 첫 번째 종류의 오류, 즉 적에 대한 잘못 취소 된 공격이 어떻게 든 참을 수 있다면 두 번째 종류의 오류로 모든 것이 훨씬 더 복잡해집니다. 후자의 경우 차량은 "친화적 인 화재"를 결정하거나 민간인을 파괴합니다. 즉, 전쟁 범죄를 저지 릅니다.


출처 : popmeh.ru

이 상황에서 소프트웨어 개발자 또는 시스템 사용 명령을 내린 사령관 등 누가 그러한 행위에 책임이 있는지 완전히 명확하지 않습니다.

수십 년 동안 완전 자율 무인 항공기를 꿈꿔온 자동차 산업에도 유사한 상황이 존재합니다. 자동화 수준의 분류도 개발되어 군사 분야에 매우 적용 할 수 있습니다.

제로 레벨에서 자동차는 조건부 UAZ-496으로 모든 것이 운전자의 제어를 받고 ESP, ABS 등 메카 트로닉 보조자가 없습니다.

가장 높은 XNUMX 단계에서 바퀴 달린 드론은 스티어링 휠이 부족하거나 유료 옵션으로 설치됩니다. 그리고 모든 상황에서 움직임은 자동 조종 장치에 의해 제어됩니다. 현재 일본 Honda만이 레벨 XNUMX 직렬 자동 조종 장치를 인증 할 수있었습니다.

이 "조건부 자동화"기술은 위험한 상황에서 제어 할 수 없습니다. 그리고 정상적인 조건에서는 항상 작동하지 않습니다. Traffic Jam Pilot 시스템은 교통 체증시 자동차를 자동 조종하고 고속도로의 차선 내에 유지하고 추월을 수행합니다. 운전대에서 손을 뗄 수는 있지만 도로에서 눈을 뗄 수는 없습니다. 카메라가 지켜보고 있습니다. 세 번째 수준의 자동 조종 장치는 매우 비싸고 자동차의 총 비용을 XNUMX 배 증가시킵니다.

자동 조종 장치는 이미 대량 생산에서 완전히 구현 될 수 있다는 점을 기억해야합니다. 그리고 그들은 도로 ​​사망자를 정말로 심각하게 줄일 것입니다. 그러나 AI의 실수 (치명적 문제 포함)로 인한 법적 및 윤리적 문제로 인해 자동차 회사는 중단되었습니다.

AI는 무장해서는 안된다


군사 분야에서 완전 자율 전투 시스템이 개발 된 상황도 이상적이지 않습니다.

그리고 그것은 문제의 기술적 측면조차 아닙니다.

한편으로 회의적인 전문가들은 신경망을 기반으로 한자가 학습 시스템이 선제 공격을 제공 할 수있는 잠재적 인 능력을 지적합니다. 예를 들어 AI는 적의 실제 또는인지 된 취약성을 볼 것입니다. 이것이 첫 번째 무장 해제 공격을 제공하는 이유가 아닌 이유는 무엇입니까? 이 외에도 모든 "인공 두뇌"는 경쟁에 취약하고 비판적 사고 요소가 부족하기 때문에 사람에게 자신감을주지 않습니다.

일반적으로 RAND Corporation의 분석가들은 현재 나 미래에 군사 전략 결정을 인공 지능에 맡길 것을 촉구하지 않습니다. AI에 의해 실수로 파괴 된 여러 비전투원을 참을 수는 있지만, 모든 것이 핵 억제력에 적용될 때 훨씬 더 비극적 일 것입니다.

작전 전술로 모든 것이 그렇게 간단하지는 않습니다. 무기 AI 제어.

기존 무기에 비해 충격 드론의 기술적 우월성을 명확하게 보여주는 Nagorno-Karabakh의 영상으로 돌아가 보겠습니다. 여기 모두가 하늘에는 매우 완벽하지만 원격 제어 차량 만 있다는 것을 이해했습니다.

완전히 자율적 인 바이 락 타르가 파업을했다면 대중의 반응은 어떨까요?

AI가 전 세계에 살면 무기를 손에 들고도 사람을 죽일 수 있을까요?

문제의 도덕적 측면은 아직 여기에서 해결되지 않았습니다. 그리고 가까운 장래에 해결 될 것 같지 않습니다.

XNUMX 차 군사 혁명 : 기계 지능은 무장해서는 안된다
출처 : mil.ru

일반적으로 군대의 로봇은 물론 좋습니다.

그들은 적의 직접 사격에서 병사를 철수하여 모든 작업을 원격 제어 전투 유닛으로 옮길 수 있습니다. 손실과 비용이 감소합니다. 그리고 전쟁은 점점 더 인도적이되는 것 같습니다.

군사 분야의 완전 자율 로봇이나 치명적인 자율 무기 시스템은 인류와 손실 감소에 관한 것이 아닙니다. 딥 러닝 신경망은 전쟁을 훨씬 더 빠르고 더 많은 비용으로 만듭니다. 실제로 이것은 화약과 핵이라는 군사 문제에서 이전의 두 군사 혁명에 의해 보장 된 것입니다.

이것은 국방 프로젝트에서 국가와 관련된 많은 민간 기업에 의해 이해됩니다.

따라서 2018 년 Google은 7,5 억 달러 이상의 가치가있는 매우 수익성이 높은 Maven 프로젝트에서 탈퇴했습니다. 실리콘 밸리의 전문가들은 DARPA와 함께 수많은 정찰 드론의 정보의 비디오 및 사진 배열을 처리하는 프로그램을 개발했습니다. 데이터는 신경망에 의해 처리되었습니다. 그리고 그것은 운영자에게 파괴 우선 순위에 따라 "목표물 라이브러리"를 부여했습니다. Google 종료 역사... 그리고 이제 DARPA는 자체적으로 대처하려고 노력하고 있습니다.

군대에서 AI의 중요한 측면은 정보 전쟁에서의 사용입니다.

우리는 가까운 장래에 무술 인공 지능 개발에있어 러시아와 (더 큰 범위로) 중국이 단순히 미국에서 쏟아 질 것이라고 어느 정도 확신을 가지고 말할 수 있습니다. 자율적 인 군사 마인드의 필요성을 국내 대중에게 설득 할 수 없다면 우리는 외부 적을 두려워 할 것입니다. 펜타곤은 고대부터이 논리로 유명했습니다. 그들은 이미 AI에 대해 완전히 작업하고 있으며 여기서 우리는 우리 자신의 도덕성에 대처할 수 없다고 말합니다.

마지막으로 전투 AI 위협에 대한 비대칭 대응은 매우 유망 해 보입니다. 요즘에는 인공 지능의 모든 눈에서 사물을 마스킹하는 기술과 고의적 인 속임수가 강해지고 있습니다.

지금까지 AI는 정보가 은색 플래터에 제공되는 평화로운 환경에서 잘 작동합니다.

불완전하고 노이즈가 많은 데이터로 기능하는 것은 매우 어렵습니다. 따라서 의도적으로 수정 된 데이터로 기계 지능을 오도하려는 시도는 매우 논리적으로 보입니다. 무장 된 AI의 응답 시간이 초 단위로 계산되고 사람의 의견에 의존하지 않는 경우, 그러한 잘못된 정보는 예측하기 어려운 결과를 초래할 수 있습니다.

XNUMX 차 군사 혁명은 우호적으로 취소하는 것이 낫습니다.

또는 군사 분야에서 AI의 개발 및 사용을위한 공동 제한 조치를 개발하십시오. 핵무기의 경우에도 비슷한 일을 할 수 있었습니까?
저자 :
72 의견
정보
독자 여러분, 출판물에 대한 의견을 남기려면 로그인.
  1. 침입자
    침입자 18 March 2021 03 : 42
    +2
    흠, 흥미로운 프레젠테이션 !!! 저자는 계속해야합니다 ... (그리고 AI의 측면으로 그림을 완성하기 위해 특히 신경 알고리즘 및 기계 학습 분야에서 약간의 물놀이를 제외하고)!?
    1. 이삼 삼촌
      이삼 삼촌 18 March 2021 04 : 52
      +1
      AI는 무장해서는 안된다
      그렇지 않으면 Skynet이 올 것입니다!
      1. 침입자
        침입자 18 March 2021 05 : 06
        +3
        그렇지 않으면 Skynet이 올 것입니다!
        이미 구성 가능한 선택 및 여러 대상을 공격하기위한 우선 순위를 사용하는 군집 관리 최적화, 유연한 뉴 로모 픽 알고리즘은 이러한 작업에 최선을 다하고 있으며, 기계 학습은 이러한 작업을 간단하게 보완하며 향후 소프트웨어 버전 판매를 통해 대량 솔루션에 복사 할 수 있습니다. 업데이트 및 구독, 고객-시장에서 무기 운영자!? 제품 자체의 수명주기에 대한 지속적인 현대화와 오랜 기간의 지원을 통해 최적의 수익 창출, 현재는 공장에서 펌웨어 장치를 사용할 때와 마찬가지로 아무도 신경 쓰지 않습니다. Skynet에 대한 잠재적 인 개발로 미디어에서 칭찬을 받았습니다. , 좀 더 싼 산업용 로봇 공학이 작년에 자신의 업무 효율성을 약간 떨어 뜨린 "유기농"직원들에게 이기고, 어떻게 든 갑자기 ...!? 윙크하는
    2. Winnie76
      Winnie76 18 March 2021 12 : 04
      +1
      인용 : 침입자
      옆으로 조금 떨어 뜨리고

      나는 우리가 어떤 제품에서 떨어질 것인지 묻는 것조차 두려워합니다. 웃음
      인용 : 침입자
      특히 신경 알고리즘 및 기계 학습 분야에서 AI 측면의 완전성을 위해)!?

      알고리즘은 간단합니다. 테스트 단어가 호출됩니다. 귀하의 경우에는 ''blob``이 분명합니다.
      1. 침입자
        침입자 18 March 2021 13 : 24
        +1
        귀하의 경우에는 ''blob``이 분명합니다.
        내 경우에는 아닐 가능성이 높다 윙크하는 , MacOS 11 Big Sur (최신 업데이트 : v.11.2.3 포함)의 한 응용 프로그램에서 다른 러시아어 단어로 "증기"된 맞춤법 검사로 자동 수정! 의뢰
      2. 덴마크
        덴마크 18 March 2021 13 : 43
        0
        제품 견적 : Winnie76
        알고리즘은 간단합니다.
        나는 경우에 그렇게 할 수 있었다 핵무기로? Evgeny Fedorov.
        지진 학자는 핵 실험과 자연 지진을 구분할 수 있습니다.
        전투에서 AI 사용을 제어하는 ​​방법과 방법 ...
        1. 침입자
          침입자 18 March 2021 20 : 40
          0
          전투에서 AI 사용을 제어하는 ​​방법과 방법 ...
          지금까지는 어깨 끈이 달린 또 다른 "EI"와 지휘 통제 단말기의 모니터 앞에 !!!
  2. 재고 재킷
    재고 재킷 18 March 2021 05 : 11
    +3
    AI가 전 세계에 살면 무기를 손에 들고도 사람을 죽일 수 있을까요?

    문제의 도덕적 측면은 아직 여기서 해결되지 않았습니다.

    그. 다른 사람들이 공중에서 사람을 죽일 때-이것이 도덕적 관점에서 정상입니까?!
    1. A. 프리 발로프
      A. 프리 발로프 18 March 2021 05 : 44
      0
      견적 : 재킷 재고
      그. 다른 사람들이 공중에서 사람을 죽일 때-이것이 도덕적 관점에서 정상입니까?!

      물론 아닙니다.하지만 여기에 도덕적 문제가 있습니다! 우리는 도덕성에 대한 현대적 이해에 "부담이있는"현대인 일뿐입니다. 그리고 이것은 좋습니다. hi
      1. 덴마크
        덴마크 18 March 2021 18 : 56
        0
        인용구 : A. Privalov
        그리고 그건 좋은거야.

        안녕하세요 교수님! 물론 좋지만 AI는이 "부담"을 제거합니다. 로봇은 극한이 될 것입니다. 영혼이없는 "철 조각"...
        1. A. 프리 발로프
          A. 프리 발로프 18 March 2021 20 : 33
          +4
          그리고 당신에게, 안녕하세요. hi
          저는 교수가 아니라 조교수 일뿐입니다.

          다리미에 대한 수요가 없습니다. 작은 철 조각은 수치심이 없습니다. 심각한 이유없이 그것을 사용하기로 결정한 사람들은 랩을 할 것입니다. 이런 무기를 사용한 경험이없는 인류가 그 자체로 달콤한 동화를 구성하는 것은 오늘 뿐이다. 시간이 지나면 모든 것이 안정 될 것입니다. 한때 전투 요원처럼 비인도적인 무언가가 금지 될 수도 있습니다. 예를 들어 로봇이 훈련을 실시하고 사람을 불 태우 겠다는 결정은 사람이 내릴 수 있습니다. 기타 똑같이, 실수가있을 것이고, 모든 종류의 법적, 철학적 충돌이 발생할 것입니다. 우리는 AI를 가진 인류가 공상 과학 작가들이 많이 쓴 어떤 종류의 함정에 빠지지 않기를 바랄뿐입니다.
    2. 침입자
      침입자 18 March 2021 20 : 43
      0
      그. 다른 사람들이 공중에서 사람을 죽일 때-이것이 도덕적 관점에서 정상입니까?!
      이것은 본질적으로 정상이 아니지만 종종 "세상을 강요"하고 더러운 피의 일을해야합니다. "사랑하는 도시는 평화롭게 잠들 수 있습니다 ..."그리고 다르게 생각하는 사람은 심리적 테스트는 "흥미로운 부분과 강점"을 받아들이지 않습니다 ... 웃음 눈짓
    3. 이카루스
      이카루스 19 March 2021 23 : 05
      0
      견적 : 재킷 재고
      AI가 전 세계에 살면 무기를 손에 들고도 사람을 죽일 수 있을까요?

      문제의 도덕적 측면은 아직 여기서 해결되지 않았습니다.

      그. 다른 사람들이 공중에서 사람을 죽일 때-이것이 도덕적 관점에서 정상입니까?!

      물론 도덕적 관점에서 살인이 허용되는 경우 정당 방위 나 군사 행동이 아니었다면 이는 정상이 아니다. 그러나 첫째로, 살인자는 (그가 제정신이라면) 책임이이 세상 (사회 이전 또는 자신 이전) 또는 다른 세상에서, 아마도-하나님 앞에서 올 수 있다는 것을 이해하고, 둘째로 살인자는 위험이 있습니다. 피해자 "도 살인자를 죽일 수 있습니다. 이것들은 모두 제한 요소입니다. 그리고 온라인에서 보는 사람들은 살인자가 제정신이 아니더라도 처벌받을 가능성이 있음을 이해합니다. 살인자가 AI 인 경우 첫째, 특정 제약 요소가 없으며 둘째, 온라인 시청자는 행위가 인류보다 먼저 무죄로 수행되고 있음을 이해하지만 동시에 의도적, 즉 살인 사람은 의식이 있고 (운석이 아님) 처벌을받지 않습니다. 사람들의 눈에 인간 생명의 가치는 점차 사라지고 있습니다. 따라서 도덕성이 바뀝니다. 우리 모두는 자신의 재량에 따라 변경 될 수있는 (AI는 자체 개발) 자신의 재량에 따라 누구를 살지 결정하는 주체가 있다는 것을 이해할 것입니다. 그리고 일반적으로 사람을 죽이는 임무를받은 AI (인간 살해 금지 프로그램이 없음)가 예를 들어 항복과 같은 인간 희생자를 구할 수 있는지 여부는 명확하지 않습니다. 이것은 사람을 죽이는 무기로 AI를 사용하는 것에 대한 모든 질문과는 거리가 멀다.
      제 생각에는 UN이 최소한 규칙과 규범을 개발하는위원회를 임명하거나 (로봇이나 AI가 다른 사람의 참여없이 사람을 죽이는 결정을해서는 안 됨) AI에 대한 완전한 금지 조치를 취해야합니다. 사람과 다른 생명체를 죽이는 무기 ...
  3. A. 프리 발로프
    A. 프리 발로프 18 March 2021 05 : 31
    +4
    . 그리고 "빅 데이터"(또는 빅 바타)의 운영 처리를 위해서는 매우 심각한 기술이 필요합니다.
    훌륭한 면책 조항. 거의 Freud에 따르면 : "big bata"-필리핀어로 "큰 아이".
    물론 인류는 AI와 관련된 더 많은 문제를 해결해야 할 것입니다. 군사 영역은 많은 것 중 하나 일뿐입니다. 더군다나 반 심한 제한으로 자신을 제한하는 것은 불가능합니다. 진행을 더 이상 멈출 수 없습니다. "철 말이 농민 말을 대체하고있다"(c)
    ... 1865 년 영국 의회는 운송 속도가 6km / h로 제한되는 법을 통과했으며 사람이 붉은 깃발을 흔들며 차 앞을 걸어야했습니다. 마지막 요점은 1878 년에 폐지되었습니다. 다른 소식통에 따르면 "위험 신호"규칙은 제한 속도가 1896km / h로 증가하고 승무원 23 명 (운전자, 조수 및 소방관)에 대한 요구 사항이 폐지되면서 3 년에만 취소되었습니다. 경차 (연석 중량 최대 1903 톤) 말이없는 차량, 즉 자동차와 기관차의 차이가 법적으로 인정되어 영국 자동차 산업의 발전에 박차를가했습니다. 제한 속도는 1896 년에 다시 올렸고 1903 년과 1930 년의 법률은 마침내 XNUMX 년에야 영국에서 취소되었습니다.
    1. 침입자
      침입자 18 March 2021 13 : 30
      +1
      물론 인류는 AI와 관련된 더 많은 문제를 해결해야 할 것입니다.
      물론, 그렇지 않으면 지역 (무력 충돌, 치명적인 무기 사용 제한) 애플리케이션에서도 불쾌한 순간이 많이 발생할 것입니다. "아기 엉덩이"! 눈짓
  4. 타샤
    타샤 18 March 2021 05 : 48
    +1
    XNUMX 차 군사 혁명은 우호적으로 취소하는 것이 낫습니다.
    좋지만 아아 ...
    또는 군사 분야에서 AI 개발 및 사용을위한 공동 제한 조치를 개발합니다.
    그럴 것 같지 않습니다. 자동화 시스템의 개발 및 구현은 너무나 명백한 이점을 제공합니다. 그리고 AI 생성 과정을 제어하는 ​​것은 핵무기 생성 및 배포보다 훨씬 더 어렵습니다.
    가까운 장래에이 방향에 대한 합의가 없을 것이라고 생각합니다. 미국과 러시아가 대인 광산에 관한 오타와 조약에 아직 서명하고 비준하지 않은 경우 ...
  5. sergo1914
    sergo1914 18 March 2021 06 : 19
    0
    아리스토텔레스는 모든 것에 책임이 있습니다. 모든 것은 그의 삼단 론에서 시작되었습니다.
  6. 파리 루크
    파리 루크 18 March 2021 06 : 24
    + 12
    장군들은 지친 미소를 지었다.
    그들은 서로를 바라보며 기쁨의 외침을했습니다. 아마겟돈이 이기고 사탄의 세력이 패배했습니다.
    하지만 그들의 텔레비전 화면에서 뭔가가 일어나고있었습니다.
    - 어떻게! 이것은 ...이 ...-McFee 장군을 시작하고 침묵했습니다.
    전장을 따라 뒤틀리고 부서진 금속 더미 사이에서 그레이스는 걸었다.
    장군들은 침묵했습니다.
    그레이스는 변형 된 로봇을 만졌습니다.
    그리고 로봇은 김이 나는 사막을 뒤흔들 었습니다. 뒤틀리고 불에 녹은 금속 조각이 새로워졌습니다.
    그리고 로봇이 발을 딛었습니다.
    “McFee”최고 사령관 베터 러가 속삭였다. -무언가를 누르십시오-그들 또는 무언가가 무릎을 꿇게하십시오.
    장군이 눌렀지만 리모컨이 작동하지 않았습니다.
    그리고 로봇은 이미 하늘로 치솟았습니다. 그들은 주님의 천사들에 둘러싸여 로봇 탱크, 로봇 보병, 자동 폭격기가 점점 더 높이 올라갔습니다.
    -그는 그들을 하늘로 옮깁니다! Ongin은 히스테리하게 소리 쳤다. -로봇을 천국으로 데려갑니다!
    "실수가있었습니다."Vetterer가 말했습니다. -더 빨리! 연락관을 보내 ... 아니, 우리 스스로 갈게
    즉시 비행기가 보냈고 그들은 전장으로 돌진했습니다. 그러나 이미 너무 늦었습니다. 아마겟돈은 끝났고 로봇은 사라지고 주님은 그의 군대와 함께 집을 떠났습니다. (C) R. Sheckley "Battle"
    1. 보병 2020
      보병 2020 18 March 2021 08 : 21
      +3
      내가 가장 좋아하는 이야기! :)
  7. 콜린
    콜린 18 March 2021 09 : 36
    +2
    로봇에게 영광을! 모든 사람을 죽여라! (c) 오리히메 이노우에
    1. 바딤
      바딤 18 March 2021 10 : 36
      +2
      어, 그리고 어느 쪽 이요? 사실 이들은 유명해진 후투 라마 번역가들입니다. 웃음
      1. 콜린
        콜린 18 March 2021 13 : 49
        0
        알아요,하지만 오리히메는 한때 미래의 장대 한 그림을 로봇으로 그렸습니다. 웃음
    2. Minato2020
      Minato2020 18 March 2021 15 : 32
      +4
      제품 견적 : Kolin

      로봇에게 영광을! 모든 사람을 죽여라! (c) 오리히메 이노우에


      오리히메는 여전히 평화 롭고 최선을 다했습니다.
      치유되고 심지어 부활했습니다.

      하지만 프로그래머가 무엇이든 할 수 있다면 AI에서 또 무엇을 기대할까요?



      이르쿠츠크 항공기 공장 "Irkut"에서 상트 페테르부르크 설계국 "Electroavtomatika"의 총책임자에게 보낸 편지에서 이름이없는 이상한 버튼을 누르면 "로봇에게 영광! 모든 사람을 죽이십시오!" "이 제어판 화면에 표시되었습니다.


      https://strana.ua/news/231877-slava-robotam-ubit-vsekh-chelovekov-v-rossii-pri-ispytanii-boevoho-samoleta-jak-130-na-ekrane-vsplyla-strannaja-nadpis-foto.html
      1. 침입자
        침입자 18 March 2021 20 : 45
        +2
        이상한 이름없는 버튼에 대한 이야기가 있었는데, 리모콘 화면에 "Glory to the robots! Kill all people"이라는 문구가 표시되었습니다.
        부활절 달걀!? 사람 , 개발자의 블랙 유머로 !!! 윙크하는
    3. 판디 우린
      판디 우린 18 March 2021 23 : 27
      +1
      제품 견적 : Kolin
      로봇에게 영광을! 모든 사람을 죽여라! (c) 오리히메 이노우에


      법이 있어야합니다.
      "모든 사람 죽이기"버튼
      빨간색으로 만드세요.
      이것은 실수로 누르는 것을 방지합니다.
  8. 트랩
    트랩 18 March 2021 10 : 55
    +7
    다음 세계 대전에서는 전쟁 범죄와 반 인도적 범죄의 개념이 존재하지 않을 것이므로 많은 단점에도 불구하고 인쇄 가능한 자치 살인범을 많이 보유한 사람이 승자가 될 것입니다.
    1. 침입자
      침입자 18 March 2021 20 : 46
      +1
      다음 세계 대전에서는 전쟁 범죄와 반 인도적 범죄에 대한 개념이 없을 것입니다.
      물론 더 이상 인류 자체는 없을 것입니다 ... 웃음 눈짓
    2. 이카루스
      이카루스 19 March 2021 23 : 11
      0
      다음 세계 대전에서는 전쟁 범죄와 반 인도적 범죄의 개념이 존재하지 않을 것이므로 많은 단점에도 불구하고 인쇄 가능한 자치 살인범을 많이 보유한 사람이 승자가 될 것입니다.

      그리고 자율 살인범은 승자를 죽일 것입니다. 자율적입니까?
  9. 살리 네
    살리 네 18 March 2021 11 : 16
    +2
    전쟁에 참여한 사람은 피곤하고 집중력을 잃고 끊임없이 스트레스를 경험하며 혼란스러워하고 복수를 갈망하며 죽이기를 원합니다. 더욱이 인간의 지각은 극도로 불완전하며 많은 정신 생리 학적 장애를 겪습니다. 그러나 그는 발사를 결정할 수 있습니다!
    그러나 냉정하고 결코 피곤하지 않은 로봇-오, 절대! 웃음
    현재 AI가 단순히 작업을 처리 할 수 ​​없다는 것은 분명하지만 가까운 장래에 모든 것을 해결할 로봇이 될 것입니다.
    1. 침입자
      침입자 18 March 2021 13 : 36
      +1
      현재 AI가 단순히 작업을 처리 할 수 ​​없다는 것은 분명하지만 가까운 장래에 모든 것을 해결할 로봇이 될 것입니다.
      그는 이미 많은 것을 결정합니다. 특히 평범한 사람의 삶에서! 신용 기관은 "신용 카르마"의 분석 결과, 분자 생물학 및 인간 단백질 분야의 연구 결과 없이는 대출을 제공하지 않습니다. 또한 새로운 세대를 만드는 데 사용되는 많은 곳이 있습니다. 의약품 ... 아이가 태어난 후 심각한 질병, 특히 인간 게놈의 유전 적 이상과 싸우기 위해 !!! 윙크하는
    2. 판디 우린
      판디 우린 18 March 2021 23 : 42
      +1
      제품 견적 : Sahalinets
      전쟁에 참여한 사람은 피곤하고 집중력을 잃고 끊임없이 스트레스를 경험하며 혼란스러워하고 복수를 갈망하며 죽이기를 원합니다. 더욱이 인간의 지각은 극도로 불완전하며 많은 정신 생리 학적 장애를 겪습니다. 그러나 그는 발사를 결정할 수 있습니다!
      그러나 냉정하고 결코 피곤하지 않은 로봇-오, 절대! 웃음
      현재 AI가 단순히 작업을 처리 할 수 ​​없다는 것은 분명하지만 가까운 장래에 모든 것을 해결할 로봇이 될 것입니다.


      이기려면->
      최대한 많은 로봇을 적용 / 사용해야합니다->
      이를 위해 생산은 가능한 한 간단해야합니다->
      가장 단순한 AI는 살아있는 사람을 식별 할 수 있지만 민간인이나 전투원은 식별 할 수 없습니다.

      결과적으로 우리는 AI로 대량 살상 무기를 얻습니다.
  10. 바사 레프
    바사 레프 18 March 2021 13 : 31
    +2
    AI를 개발하는 것이 합리적입니다. 우선, 그는 자신의 나라에 절대적인 충성을 심어 주어야합니다. 그리고 물론 처음에는 화재 가능성을 포함하지 않습니다. 버튼을 누르고 결정을 내리는 것은 항상 그 사람과 함께해야합니다.
    1. 볼트 커터
      볼트 커터 18 March 2021 16 : 56
      0
      그는 자신의 나라에 절대적인 충성을 심어 주어야합니다
      크 바스에 배터리 전원을 공급하여 wassat 또는 코카콜라 웃음
    2. 침입자
      침입자 18 March 2021 20 : 50
      +1
      그리고 물론 처음에는 화재 가능성을 포함하지 않습니다. 버튼을 누르고 결정을 내리는 것은 항상 그 사람과 함께해야합니다.
      다른 사람의 세계로 운영자의 탈출과 함께 치명적!? am 그리고 무엇, 전투가 끝났고 모든 전투 시스템이 수동적으로 상승했습니다!? 이 경우 살아남고 이전과 마찬가지로 뇌의 문제로 스스로 싸우도록하는 것이 더 쉽습니다. 웃음 그리고 방아쇠를 누르십시오 ... 윙크하는
    3. 판디 우린
      판디 우린 18 March 2021 23 : 56
      +1
      제품 견적 : Basarev
      AI를 개발하는 것이 합리적입니다. 우선, 그는 자신의 나라에 절대적인 충성을 심어 주어야합니다. 그리고 물론 처음에는 화재 가능성을 포함하지 않습니다. 버튼을 누르고 결정을 내리는 것은 항상 그 사람과 함께해야합니다.


      작업자는 1000 대의 로봇을 제어하고
      화면에 팝업 요청 창이 나타납니다.
      "목표 발견. 파괴? 예 / 아니오"
      작업자는 "D"버튼을 조입니다 ...

      이제 그들은 드론을 사용합니다.
      운영자가 영향을 결정합니다.
      테러리스트 집단 대신 결혼식 행렬에 타격이 가해지고 있습니다.

      군대의 경우 "그들의"가 보장되는 영역으로 로봇을 방출하는 것이 더 쉽습니다. 지정된 경계의 모든 대상이 적으로 간주된다는 것을 확인했습니다.
      클러스터 무기 사용의 아날로그.

      집속 탄은 누구의 양심에 의해서도 사용되지 않으며, 군대를위한이 새로운 "장난감"은 동일하지만 훨씬 더 효과적입니다. 그들은 그것을 좋아합니다.
  11. 아이러니
    아이러니 18 March 2021 13 : 43
    +1
    그리고 어떤 사람들은 이것이 도덕적 인 것인지에 대한 질문으로 고군분투하는 반면, 다른 사람들은 이것으로 소비자 시장에 빠르게 진입하는 방법에 대한 질문으로 어려움을 겪고 있습니다. 나는 누가 더 빠를 지 알고 있습니다.
    1. 빅터 츠닌
      빅터 츠닌 18 March 2021 17 : 41
      +1
      대중의 시장 진입은 더 빨라질 것입니다. 우리 시대에는 인간이 다시 인간에게 늑대가되었을 때 쓴 도덕이 조용한 눈물을 흘립니다.
      1. 아이러니
        아이러니 18 March 2021 18 : 01
        +1
        도덕은 본질적으로 완전히 절대적이지만 개인의 부도덕에는 한계가 없습니다. 예.
        1. 빅터 츠닌
          빅터 츠닌 18 March 2021 18 : 15
          +1
          그날의 주제에 대해 이해할 수있는 가치와 아이디어가없는 경우 집단 부도덕에 대해 말하는 것이 더 정확할 것입니다. 아아, 궁극의 절대자가 여름에 가라 앉았습니다.
          1. 아이러니
            아이러니 18 March 2021 18 : 24
            +2
            음 ...이 ... 전리품이 악을 이깁니다.
            1. 침입자
              침입자 18 March 2021 20 : 52
              +1
              음 ...이 ... 전리품이 악을 이깁니다.
              그리고 생성, 더 ...!? 의뢰
              1. 아이러니
                아이러니 18 March 2021 21 : 32
                +1
                사실, 언제 어떻게. 전리품은 도구 일뿐입니다. 포크로 먹거나 눈을 뽑을 수 있습니다.
                1. 침입자
                  침입자 18 March 2021 22 : 19
                  0
                  포크로 먹거나 눈을 뽑을 수 있습니다.
                  한 번의 타격, 네 개의 구멍!? 눈짓
                  사실, 언제 어떻게. 전리품은 치료법 일뿐입니다
                  나는 동의하지만 능숙한 손에서만하지만 부적절하고 욕심 많은 ... 악으로 이어집니다 !!!
                  1. 아이러니
                    아이러니 18 March 2021 22 : 38
                    +1
                    선과 악은 또한 누구에 따라 상대적인 개념입니다. 나는 구성 / 파괴라는 용어를 선호합니다.
                    1. 침입자
                      침입자 18 March 2021 22 : 51
                      0
                      선과 악은 또한 누구에 따라 상대적인 개념입니다.
                      네, 철학자!? 윙크하는 위인처럼 : "Mundus intelligibĭlis"... hi
                      1. 아이러니
                        아이러니 18 March 2021 22 : 56
                        +1
                        종교적 패러다임은 이성의 세계가 순전히 영적인 존재 인 천사에게 내재되어 있다고 말합니다. 그러나 영과 물질로 구성된 사람은 천사보다 더 복잡합니다. 미소
                      2. 침입자
                        침입자 19 March 2021 02 : 31
                        0
                        그러나 영적이고 물질적 인 사람은 천사보다 더 복잡합니다.
                        아마도 더 복잡하지는 않지만 육체 문제의 원시주의와 영 존재의 무한을 조화롭게 결합합니다!?
                      3. 아이러니
                        아이러니 21 March 2021 16 : 41
                        +1
                        더 세게, 더 세게. 영의 형상과 육체의 형상으로 세 번 지어졌습니다. 아니요, 나는 처음으로 영과 육, 남자와 여자의 이미지로 거짓말을하고 있습니다. 정확히 더 어렵습니다.
  • evgen1221
    evgen1221 18 March 2021 17 : 26
    +2
    물론 질문은 흥미 롭습니다. 같은 서구에서는 여러 차례 AI 무기의 허용 불가에 대해 사회의 여러 측면에서 경고와 예측을 내놓았습니다. 비디오 게임에서도 이것은 명확하게 표현됩니다 (Horizon zero dawn), 백도어가없는 가장자리에서 바보는 결함을 포착하고 행성을 멸종으로 돌진하고 가메 육으로 죽었습니다. (글쎄요, 많은 단순화와 구멍이 있습니다 , 물론), 그러나 중요한 것은 분리를위한 안정적인 백도어가없고 결코 충분하지 않다는 것입니다. 그리고 양키스는 물론이 사건으로 실패 할 것이고 우리는 여전히 스카이 넷을 보게 될 것임을 암시합니다.
    1. 침입자
      침입자 18 March 2021 20 : 59
      0
      그리고 양키스는 물론이 사건으로 실패 할 것이고 우리는 여전히 스카이 넷을 보게 될 것임을 암시합니다.
      따라서 사이버 보안은 AI와 함께 멈추지 않습니다. 이러한 사이버 보안 영역은 인공 의미론 등의 다른 레일과 액세스 제어 시스템에서도 새로운 개발을 받게 될 것입니다. 엄격한 프로세스 격리 및 외핵 아키텍처를 사용하여 분명히 다른 시스템이있을 것입니다. 등 백도어, 모든 종류의 트로이 목마 및 기타 루트킷이 집에서와 같은 악용으로 장난 치지 않도록 !!! 눈짓
      1. evgen1221
        evgen1221 19 March 2021 05 : 10
        +1
        그러나 누군가는 결함과 교차 연결을 배제하지 않습니다. 하나는 기계가 압도되고 결혼 생활이 개울로 넘쳐나고 다른 하나는 동맥 대대가 릴에서 날아가 도시를 평평하게 만들기 시작할 때입니다. AI의 갈 루나에서 적에게 잡힌 야 카바. 그리고 그것을 끄는 방법?
        1. 침입자
          침입자 19 March 2021 05 : 56
          +1
          AI의 galyuns에서 적에게 잡힌 yakaby. 그리고 그것을 끄는 방법?
          비상 프로토콜에 따라 원격으로, BC가 다 떨어질 때까지 또는 제어 시스템을위한 에너지, 도시의 부상당한 민간인 인구 및 국가 하강에 대한 보상과 함께 특정 지역의 인공 대격변 깃발과 우리 시대에 여전히 존재하는 다른 것들! !!
          1. evgen1221
            evgen1221 19 March 2021 06 : 28
            +1
            AV 프로토콜을 통해 원격으로?-적의 AI가 사용할 수 있으므로 스위치 만 처리됩니다. BC가 끝나고 이것이 Yao 창고 또는 다른 것이라면 도살장을 생각해 내고 AI가 서비스 가능한 기계의 프로토콜을 깨기 시작하면 운송 업체의 화장실을 잡고 전쟁을 시작합니다. 100500 년 동안의 일부 워프 코어는 터미네이터가 친구를 찾는 한 앉지 않을 것입니다. 나는 일반적으로 깃발의 하강에 대해 조용히 지내며 살아있는 사람들은 그것을 실제로 인식하지 못합니다.
            1. 침입자
              침입자 19 March 2021 10 : 59
              0
              그래서 이것과 적의 AI가 그것을 활용할 수 있습니다. 따라서 스위치 만 처리합니다.
              스위치와 적군의 특수 부대가 그것을 찾아서 사용할 수 있기 때문에 지금처럼 원격으로 암호화 랙이있는 매우 효과적인 솔루션이 아닙니다. 침투 사례 (적어도 단일 사례?) 또는 거부 사례를 잘 알고 있습니다. 군사 네트워크 및 인프라에서 서비스, 지난 5-10 년 동안 모든 언론인의 발명품이 아니라 여기 저기!? 윙크하는
              BK가 끝나고 이것이 Yao 창고 또는 다른 것이라면 학살을 떠 올릴 것입니다.
              향후 150-200 년 동안의 사람들과 함께 무기고는 로봇을 거기에 보관할 것입니다. 로봇이 있다면화물 플랫폼 또는 외부 경계, "보호 울타리"및 가장 가까운 영토, 공역 또는 지하 통신 !!! 결국 군대는 다른 지역에 있지만 모두 완전하지는 않습니다 ...
              에너지-100500 년 동안 일종의 워프 코어
              날실 코어로 구부러져 있으면 진부한 반면 하이브리드 발전소 (액체 연료 및 배터리 포함) 또는 모든 종류의 연료 전지 (액화 극저온 ...), 이제는 육상 및 수중 시스템에서 구현 될 예정입니다. 무인 로봇, 그리고 100500 년 동안 무슨 일이 벌어 질지, 이것은 어두운 환상인가!? 웃음
              1. evgen1221
                evgen1221 19 March 2021 12 : 19
                +1
                예를 들어 80 년대에 대한 알림 시스템의 실패. 순전히 사람이 이것이 결함이라고 결정하면 기계는 분명히 빵을 던지기 시작할 것입니다.
                1. 침입자
                  침입자 19 March 2021 16 : 39
                  0
                  예를 들어 80 년대에 대한 알림 시스템의 실패.
                  나는 그 사건을 기억하지만 우리 시대의 기술은 경고 시스템에 사용되지 않았고, 그런데 대량 솔루션이 이미 해결되었고 다른 여러 가지가있었습니다 ... 그리고 긴급 상황이 발생할 수 있습니다. 요소 기반 및 기타 "사물"의 기술적 수준의 특성, 실리콘 마이크로 일렉트로닉스의 통합에서 다중 중복성을 갖는 복잡한 시스템의 내결함성 측면에서 아날로그 시스템과 비교하여 디지털 시스템에 의해 엄청난 도약이 이루어졌습니다.
                  1. evgen1221
                    evgen1221 19 March 2021 18 : 57
                    +2
                    그러나 시스템 자체의 결함은 그대로 남아 있으며 결함은 현대 시스템에도 포착되고 동일한 시스템이 이스라엘에서 입욕하고 있었으며 사람의 최종 결정에 영향을 미칠 가능성없이 결함을 포착 한 기계가 위협을 앞에두고 있습니다. 그 자체로 (그의 뇌에는 위협이 없습니다), 그녀가 이용할 수있는 모든 것에 저항하려는 위협을 시작합니다. 그리고 그녀와 무엇을 할 건가요? 무기와 무기를 사용할 권리는 그 사람에게 달려 있습니다. 기계는 분석가에게 알리고 예측 만 할 수 있지만, 단지 하나의 버튼을 누르거나 카드를 입력하여 체인을 따라 공격 프로토콜을 시작하더라도 사람 만 장치에 있습니다.
                    1. 침입자
                      침입자 19 March 2021 21 : 28
                      0
                      (그녀의 두뇌에는 실제로 위협이 없습니다.) 그리고 그녀가 이용할 수있는 모든 것으로이 위협을 제거하기 시작합니다.
                      유기적 인 인간의 두뇌는 실제 전투 상황에서 스트레스가 많은 상황에서 동일한 문제를 가지고 있으며 어떻게 든 익숙해 졌거나 훈련 및 기타 것들로 보상하려고 ...!? 웃음 눈짓
                      기계는 분석가에게 알리고 예측 만 할 수 있고, 예측할 수 있지만, 버튼 하나를 누르거나 카드를 입력하여 체인을 따라 공격 프로토콜을 시작하더라도 사람 만 장치에 있습니다.
                      전체 초는 반응과 결정을 내리는 데, 칩 키로 키 또는 버튼을 누르는 데 소요되며,이 시간 동안 글라이더의 극 초음속 탄두 또는 에너지 무기 방출로 인해 흡연 주머니가 생성됩니다. UAV 제어 센터 또는 지상 기반 RTK, 해양 BENS 및 기타 무인 항공기의 파편 ..., 인적 요소는 새싹의 모든 것을 망칠 수 있습니다. 매우 느립니다 (스트레스, 전투 중 국부적으로 건강 상태, 알코올 중독 / 마약, 진부한 뇌물 및 협박 ...) 사실, 이미 다른 세계에서 온 사이버 시스템 및 AI와 함께 사용하는 것은 옳지 않습니다. 운영자는 이벤트의 발전을 관찰합니다 ...
  • 빅터 츠닌
    빅터 츠닌 18 March 2021 17 : 39
    +1
    여기서 다시 AI, 신경망이 미래의 강력하고 강력한 AI에 어떻게 부합하는지 완전히 이해할 수 없습니다. 인공 지능이없고, 기계와 알고리즘이 생각하지 않는다, 인공 지능이 대중 매체에 좋다, 왜 동지들을 괴롭히는가?
  • 스미 르 노프 미하일
    스미 르 노프 미하일 18 March 2021 20 : 20
    0
    지옥 같은 쓰레기. 완전히 자율적 인 Bayraktar는 우주에서 방향을 잡을 수 없기 때문에 한 번도 타격을 입지 않았을 것입니다. 우리가있는 곳, 날아갈 곳. 우선, 자신의 입장에 대한 진부한 정의 문제가 해결되지 않았습니다. 다음으로 인식 문제를 해결해야합니다. 이것은 지오메트리 세부 사항을 별도의 개체로 선택하여 고유 한 이름을 부여하는 것입니다. 다음으로, 선택한 개체와 상호 작용하는 문제를 해결해야합니다. 그리고 기본적인 기술적 문제가 해결되지 않은 경우 도덕적 측면은 무엇과 관련이 있습니까?
    1. 침입자
      침입자 18 March 2021 21 : 08
      +1
      우리가있는 곳, 날아갈 곳. 우선, 자신의 입장에 대한 진부한 정의 문제가 해결되지 않았습니다. 다음으로 인식 문제를 해결해야합니다. 이것은 지오메트리 세부 사항을 별도의 개체로 선택하여 고유 한 이름을 부여하는 것입니다. 다음으로, 선택한 개체와 상호 작용하는 문제를 해결해야합니다. 그리고 기본적인 기술적 문제가 해결되지 않은 경우 도덕적 측면은 무엇과 관련이 있습니까?
      내비게이션 시스템과 현대 항공 전자 공학, 친애하는!? 내 쪽의 풍자 나 부정을 위해서가 아니라 몇 세기부터 음료수 , 그러나 귀하의 의견을 읽고 많은 의혹이 들어 왔습니다!? 의뢰 내 전화는 재킷의 위치 정보를 변경할 때 수신 전화의 사운드 레벨을 변경하고 집까지 운전하면 자체적으로 켜지고 문을 나갈 때 WLAN이 꺼지고 기타 필요한 작업을 수행합니다. 공간에서의 위치 변화에!? 그리고 별도의 OpenHAB 모듈이 내 컴퓨터에서 무엇을 할 수 있는지, 공개 정보가 아니기 때문에 아무 말도하지 않겠습니다 .. 죄송합니다 !!!
      1. region58
        region58 19 March 2021 02 : 29
        0
        제품 견적 : Mikhail Smirnov
        지옥 같은 쓰레기

        인용 : 침입자
        귀하의 의견을 읽고 몇 가지 의심이 들어 왔습니다!

        해설을주의 깊게 읽으면 "자율적"이라는 단어를 볼 수 있으며 여기에서는 이미 "그렇게 단순하지 않다"(c)입니다. Tesla의 널리 광고되는 자동 조종 장치 인 잼의 잼을 예로 들어 보겠습니다. 이것은 상세한 로드맵이있는 XNUMX 차원입니다. 삶에는 미리 설명 할 수있는 것보다 더 많은 상황이 있지만, 그들은 여전히 ​​생각하는 방법을 모릅니다. 따라서 익숙하지 않은 상황이 하나 또는 다른 결과로 막 다른 골목이라면. 같은 Bayraktar는 대포에서 통나무를, 레이더에서 비치 파라솔을 구별하지 않을 것입니다 ... 그리고 전화 ... 예 (물론 금지합니다) 그들은 전화를 가져갈 것이고 지문을 찍을 수 있습니다 , 가장 스마트 한 전화가 문을 열고 다른 사람을 위해 TV를 켭니다. 당연히 내 쪽의 풍자 나 부정을 위해서가 아닙니다. hi
        1. 침입자
          침입자 19 March 2021 02 : 42
          0
          그리고 전화 ... 예 (물론 하나님은 금지합니다) 그들은 전화를 가져갈 것이고 지문을 찍을 수 있습니다.
          손가락 절단 후 진피가 변하고 빨리 얼지 않고 정확하지 않으면 작동하지 않을 수 있습니다 ... !!!
          1. region58
            region58 19 March 2021 02 : 48
            +1
            인용 : 침입자
            손가락 절단 후 진피 변화

            그럼 당신은 침착해질 수 있습니다. 그러나 그것은 내가 의미하는 바가 아닙니다. 지금 시끄러운 나이팅게일 "예술 지능"이라고 불리는 것은 당신이 그것을 보면 어떤 종류의 지능이 아니라는 것입니다.
            1. 침입자
              침입자 19 March 2021 03 : 38
              0
              지금 시끄러운 나이팅게일 "예술 지능"이라고 불리는 것은 당신이 그것을 보면 어떤 종류의 지능이 아니라는 것입니다.
              어떤 부분에서 저는 동의합니다. 이제 그들이 기술 자체를 더욱 "홍보"하고 있다는 것입니다.이 기술은 대규모로 개발하고 투자를 유치하기 위해 수행해야하지만 피할 수없는 모든 장단점을 숨겨야합니다. 개발 단계가 다르고 잘못된 정보가 많이 공개됩니다 ...
              1. region58
                region58 19 March 2021 04 : 22
                0
                인용 : 침입자
                많은 부정확 한 정보가 대중에게 던져집니다

                나는 그것이 대부분 틀렸다고 말할 수도 있습니다 ... 그러나 예, 광고가 스윙 어디에 있든 ...
        2. 침입자
          침입자 19 March 2021 02 : 46
          0
          Tesla의 널리 광고되는 자동 조종 장치 인 잼의 잼을 예로 들어 보겠습니다. 이것은 상세한 로드맵이있는 XNUMX 차원입니다.
          그렇기 때문에 사용자 경험 외에도 실시간 원격 측정이 각 머신의 서버로 흐르는 다양한 상황에서 테스트 기간이 길지만 Musk는 이미 머신 비전으로 전환하고 리다 및 기타 활성 위치를 포기하고 싶어합니다. 기계 학습이 분명히 열매를 맺습니다 ...
          1. region58
            region58 19 March 2021 02 : 57
            +1
            인용 : 침입자
            머신 비전

            시각, 공간 방향, 물체 식별은 인간에게는 자연스럽고 단순하며 (한눈에보기) 기계와 컴퓨팅 시스템의 경우 매우 복잡한 프로세스입니다. 그리고 그들을 기반으로 결정을 내리는 ... 사람조차도 항상 성공하지는 않습니다.
            1. 침입자
              침입자 19 March 2021 03 : 42
              0
              시각, 공간에서의 방향, 물체 식별-사람의 자연스럽고 단순함 (첫눈에)
              음, 100 억 개의 뉴런, 1kHz의 주파수에서 이것은 인간의 뇌에있는 뉴런 간의 충격 전달의 평균 주파수입니다. 지금까지 대부분의 사람들은 어떻게 할 수 있습니까!? 눈짓 웃음 또한 유기적 뇌는 복잡한 아날로그 컴퓨터이지만 동시에 가장 완벽하지는 않습니다 ... 또한 현실과 상황에 대한 인식에 많은 문제가 있습니다 !!!
              1. region58
                region58 19 March 2021 04 : 26
                +1
                인용 : 침입자
                100 억 개의 뉴런

                여가를보세요. 내 생각에 일부 요점은 논란의 여지가 있지만 매우 유익합니다.
  • viktor_47
    viktor_47 20 March 2021 10 : 19
    0
    명확한 기준이 있습니다 .AI가 인간 운영자가 달성 할 수있는 최소 오류 수준보다 훨씬 낮은 잘못된 결정 가능성을 제공한다는 것이 입증되면 AI 결정을 전달하는 것이 합리적입니다.
  • 포드 보닉
    포드 보닉 21 March 2021 22 : 05
    0
    XNUMX 차 군사 혁명은 우호적으로 취소하는 것이 낫다


    인류는 나쁘게 끝날 것입니다. 이야기는 나선형으로 전개됩니다. 수십만 년이 지난 후, 다음 연구자들은 "그리고 누가 그런 피라미드를 만들었습니까?"라는 질문으로 다시 이마에 주름을 잡았습니다. 그리고 그들은 수 미터의 모래 층 아래에 ​​묻혀있는 우리 쓰레기통을 파고 묻습니다. "대단한 문명이 있었지만 어딘가에갔습니다 ... 무슨 일이 있었나요?"

    욕심, 허영심, 부러움이 이겼다. 그리고 우리는졌습니다. 모두.