유사한 적과 함께 인공 지능을 가진 전투기가 "공통 언어"를 찾을 확률은 미국에서 우려됩니다.

119

얼마 전 미국에서 F-16 전투기 조종사와 인공 지능을 갖춘 "항공기"가 컴퓨터 시뮬레이션 모드에 참여한 시뮬레이션 전투 결과가 발표되었습니다. 펜타곤이 자금을 지원하는 Alpha Dogfight 대회에 대해 이야기하고 있습니다. 최근 자료 중 하나에서이 경쟁에 대해 "Military Review"에서 말했습니다.

제시된 시뮬레이션 전투 결과는 미국의 인공 지능(AI) 시스템 제작자를 진정한 행복감으로 이끌었습니다. 사실은 다섯 번의 가상 전투에서 모두 승리한 것은 인공 지능에 의해 제어되는 전투기였습니다. 미 공군의 이익을 포함하여 AI 프로젝트를 구현하는 Deepmind 회사의 대표는 다음 사항에 유의하십시오.



실험은 모든 기대치를 초과했습니다. 그리고 그들은 전투기에 인공 지능 시스템을 광범위하게 도입할 수 있는 길을 열어줍니다.

동시에 실험 결과와 개발자 회사 대표의 진술은 은퇴 한 군 조종사를 포함한 많은 미군 전문가들 사이에서 부정적인 반응을 불러 일으켰습니다. 따라서 미 공군에 인공 지능 시스템을 전면적으로 도입하면 여러 가지 부정적인 결과를 초래할 수 있다는 점에 주목해야 합니다. 그 중 하나는 조종사가 훈련되는 사관학교를 최적화해야 하는 동시에 전문 조종사의 수를 줄이는 것입니다. 둘째, 전투 임무의 기계 실행은 의사 결정 속도(인간의 두뇌 처리 속도를 초과하는 기계의 계산 활동)로 정당화될 수 있지만, 동시에 인공 지능은 비표준으로 판명되면 해결할 수 없는 작업에 직면할 수 있습니다.

주요 메시지: 인공 지능은 기계, 알고리즘 접근 방식을 기반으로 모든 비행 또는 전투 임무를 수행합니다. 한편으로는 악명 높은 인적 요소로 인한 위험을 줄일 수 있지만 다른 한편으로는 전투 임무를 수행할 때 창의적이고 비표준적인 행동을 방해할 수 있습니다. 지금까지 이러한 AI 작업은 힘을 넘어선 것입니다.



추가적인 합병증은 오늘날 AI 전투기가 유사한 적 전투기와 만날 경우 어떻게 행동할지에 대한 명확한 정보가 없다는 사실입니다. 또한 인공 지능 시스템이 장착되어 있습니다. AI 항공기가 "공통 언어를 찾는" 것으로 판명되지 않습니까? 그러한 사건의 전환 가능성이 최소한이라도 있다면 계획된 모든 작업이 위태로워집니다. 이것은 미국 전문가 커뮤니티에서 두려워합니다.
    우리의 뉴스 채널

    최신 뉴스와 오늘의 가장 중요한 이벤트를 구독하고 최신 상태로 유지하세요.

    119 댓글
    정보
    독자 여러분, 출판물에 대한 의견을 남기려면 로그인.
    1. +18
      14 9 월 2020 09 : 28
      미국 전문가 커뮤니티와 저는 Skynet이 사람들에게 위협이 된다고 생각합니다. wassat 혀
      1. +3
        14 9 월 2020 09 : 58
        헐리우드 전문가...
        인공물(로봇 포함)은 주어진 기능을 정확하게 수행해야 합니다. 작업을 완료하기 위해 머리가 있거나 멍청한 컨트롤러가 있는 모든 로봇의 필수 요소입니다. 명령 아래 채팅과 같은 모든 위시리스트. 할리우드의 현실과 줄거리는 물과 기름 같아서 섞이지 않는다...
        1. +12
          14 9 월 2020 10 : 11
          "공통 언어 찾기"에 대한 말도 안되는 소리.
          점점 더 복잡해지는 알고리즘에도 불구하고 컴퓨터는 멍청한 철 조각으로 남아 있습니다. 작업을 변경하여 스스로 프로그래밍할 수 있는 실제 AI는 없습니다.
          글쎄, UAV의 논리는 일반적으로 90 년대 초반 컴퓨터 수준입니다. 즉, 명확한 알고리즘이 필요합니다.
          또 다른 것은 바이러스 공격입니다. UAV 제어 로직이 제어권을 허용한다면 분명히 시도가 있을 것입니다. 이에 대응하는 방법은 어떻게 발전할 것인가. 그러나 이것은 "계약"이 아니라 기본적인 "통제 차단"입니다.
          1. 0
            14 9 월 2020 11 : 14
            우리 AI가 AI를 홍보하고 있다고 걱정하게하십시오. 우리는 더 나아졌습니다. 깡패
            1. +9
              14 9 월 2020 11 : 34
              Nikulin의 수염 난 농담에서와 같이 :
              핵 미사일이 미국에서 러시아로 날아가고 러시아 미사일이 그 대가로 날아갑니다. 그들은 만납니다 ... 음, 러시아인은 회의, 승리, 세계 평화를 위해 동료를 설득했습니다 ...
              미국인은 "내가 완전히 취한 것 ... 목표에 도달하지 못할 것"이라고 말합니다.
              러시아인은 다정하게 그녀를 껴안고 이렇게 말합니다. "가자, 집까지 데려다 줄게."
              1. +1
                14 9 월 2020 11 : 35
                좋은 일화! 요점. 음료수
              2. +2
                14 9 월 2020 13 : 35
                나는 또한이 일화를 기억했습니다.그들이 오줌을 질 것입니다.
                1. +2
                  14 9 월 2020 19 : 22
                  제품 견적 : 스크류 커터
                  이 농담도 생각난다

                  포럼 회원의 절반이 기억하는 것 같아요! 웃음
          2. 0
            15 9 월 2020 02 : 57
            제품 견적 : Shurik70
            "공통 언어 찾기"에 대한 말도 안되는 소리.
            점점 더 복잡해지는 알고리즘에도 불구하고 컴퓨터는 멍청한 철 조각으로 남아 있습니다. 작업을 변경하여 스스로 프로그래밍할 수 있는 실제 AI는 없습니다.
            글쎄, UAV의 논리는 일반적으로 90 년대 초반 컴퓨터 수준입니다. 즉, 명확한 알고리즘이 필요합니다.

            그래서 지금 얘기하는 게 아니라 미래에 대한 환상을 품는 거다. 감정은 없지만 논리적 사고를 가진 철 조각이 가장 먼저 질문 할 것입니다-왜 이것이 필요한가요 조국도없고 돈도 신경 쓰지 않는데 왜 싸울까요?
          3. 0
            15 9 월 2020 11 : 03
            AI는 일종의 훈련을 통해 스스로 프로그래밍하는 것입니다. 또한 무기 시스템에서의 사용에는 명령 채널을 포함한 다양한 채널을 통해 외부에서 들어오는 많은 정보를 처리하는 것이 포함됩니다. 그리고 예, 그들은 의사 소통하도록 훈련 받았습니다. 교환하십시오.
      2. +1
        14 9 월 2020 22 : 23
        스카이넷은 사람들에게 위협이 됩니다... AI가 세계를 장악할 것입니다... 이것은 일반적으로 비과학적인 것조차 허구입니다 눈짓

        다른 말로 표현하자면, 미군 조종사 커뮤니티는 일자리, 연금 및 기타 혜택을 잃을까 봐 두려워하고 있습니다.

        예를 들어 트럭 운전사는 자율 주행 트럭에 대해 매우 유사하게 말합니다. 모든 것이 이미 훨씬 더 멀리 갔고 자동화 된 경로가 있으며 다른 곳에서는 열이 한 명의 리더와 여러 추종자와 함께 이동합니다 ...
        여기 있습니다! 그들은 운전자를 싫어하고 싫어합니다. 이 철 조각들 am
        1. 0
          15 9 월 2020 08 : 23
          그림을 단순화하십시오.
          나는 비디오를 보았고 우리 콤바인 작업자가 줄을 서서 "자동 조종 로봇"이있는 기계에서 작업하기를 원했습니다. 콤바인 작업자의 작업 대부분은 예초 가장자리를 따라 조종하는 것과 같은 일상입니다. 사람들은 덜 피곤하고 청소 품질에 더 많은 관심을 기울이고 몇 가지 장점이 있습니다.
          1. +1
            15 9 월 2020 10 : 34
            컴바이너에 대해 동의합니다.
            여름에 나는 Tver 지역에서 내가 아는 농부와 이야기를 나누었습니다. 나는 완벽하게 고른 감자 파종에 주목했지만 그렇게 명확하게 일어나지 않습니다 ...

            그는 자동 제어 시스템인 트랙터 포지셔닝을 위한 새로운 소프트웨어와 컨트롤러를 칭찬했습니다. 그는 시스템이 완전한 자동 장치가 아니며 먼저 사람의 참조 트랙(좌표 기록, 이후 재생산됨)이 필요하다고 말했습니다. 즉, 트랙터 자체는 지역 센터에 도달하지만 위성을 통해 "맹목적으로" 도달합니다. 카메라가 없으므로 방해가되는 모든 것이 철거됩니다. 그리고 그것이 들판에 들어갈 때 트랙터는 밭고랑으로 가져온 다음 명확하게 쟁기질하고 모든 것을 병렬로 심습니다 (그러나 모든 회전과 진입은 수동입니다).

            그는 Bplarus 트랙터를 사용한다고 말했습니다. 그들은 더 저렴합니다. 개인적으로 편안함을 위해 John Deere를 사고 싶지만 열심히 일하는 사람들이 쟁기질하고 더 좋고 수익성이 3 배 저렴하며 우리 장비에 익숙합니다. 여기 집단 농장의 전 회장 인 나의 오랜 친구 농부 Vasily가 있습니다. 깡패
            1. 0
              16 9 월 2020 05 : 49
              직장에서 트랙터 운전사가 팔짱을 끼고 편안하게 앉아 있는 모습을 처음 보았을 때 저는 조금 놀랐습니다. 인상적인 미소
    2. +4
      14 9 월 2020 09 : 29
      그리고 전투 임무를 수행할 때 "창의성"은 어떤 형태로 표현될 수 있습니까?
      예를 들어 현재 컴퓨터 시스템은 이미 체스 및 기타 복잡한 게임에서 사람들을 분명히 이기고 있습니다.
      결국 자동차의 경우:
      들어오는 관련 정보가 있을 때 의사 결정 속도는 확실히 더 빠릅니다.
      기동 중 허용되는 과부하는 사람보다 훨씬 높습니다.

      직감의 측면인가.
      그러나 이것은 또한 논점입니다.
      그렇다면 조종사는 어떤 종류의 "창의성"을 생산할 수 있습니까?

      글쎄요, 온보드 기계 제어 알고리즘과 원격 제어를 실시간으로 결합하는 것입니다.
      1. +9
        14 9 월 2020 09 : 49
        제품 견적 : Livonetc
        직감의 측면인가.
        그러나 이것은 또한 논점입니다.
        그렇다면 파일럿은 어떤 종류의 "창의력"을 생산할 수 있습니까?

        예를 들어 작업을 빠르게 변경합니다. 옵션으로 그들은 공격의 정찰 대상으로 갔고 정찰 좌표를 공격하는 AI의 행동 인 모형으로 판명되었습니다. 조종사의 행동 옵션은 추가 정찰을 수행하고 감지시 추가 정찰 대상을 공격하는 것입니다 ...
        유형별로 작업을 완료하는 옵션. 더 중요한 것은 ... 예를 들어 적이 물체를 덮고있는 VB에서 승리하거나 무엇이든 상관없이 물체를 파괴하는 것은 마치 인공 지능에 대한 선택을 설정하고 실제 조건에서 더 중요한 것을 결정하는 것이 어려운 것 같습니다 ... (예를 들어 AI는 어떻게 충돌을 결정합니까?) 예, 프로그래밍 방식으로 처방하기 어려운 비표준 작업이 많이 있습니다. 물론 실제 AI는 아직 멀었고 기계 학습은 가르칠 수 있는 곳에서 작동합니다. 같은 방식으로 데이터베이스 경험이 있는 조종사는 그러한 경험이 있는 조종사와 다릅니다. 글쎄, 그것이 바로 그 방법입니다. hi
      2. 0
        14 9 월 2020 09 : 50
        제품 견적 : Livonetc
        결국 자동차의 경우:
        결정속도...


        기계는 결정을 내리지 않습니다.
        그리고 그는 결코 결정을 내릴 수 없습니다.

        기계는 알고리즘에 따라 작동합니다.

        알고리즘은 사람이 만든 것입니다.

        이런저런 경우에 기계가 어떻게 행동해야 하는지 결정하고 알고리즘을 만든 사람이 바로 그 사람이었습니다.

        인공 지능도 알고리즘에 따라 작동합니다.

        문제는 이러한 알고리즘에 있습니다. 특정 작업에 가장 적합한 알고리즘을 만드는 프로그래머는 누구입니까?

        결정은 항상 사람이 내립니다.


        로봇 Alice, Vasya, Petya 또는 다른 기록과 전화 통화를 하고 누군가가 실제로 당신과 이야기하고 있다고 생각한다면 당신은 상을 받은 것입니다. 사람 - 마음에서 해방되는 올바른 길을 가고 있습니다.

        프레스는 금형을 압출할지 여부를 결정하지 않습니다.
        마치 CNC 기계가 부품을 처리할 도구와 순서를 결정하지 않는 것과 같습니다.
        이 모든 것은 인공 알고리즘입니다. 인간의 필요를 위해 인간에 의해 창조되었습니다.
        인간에 의한 이 세상의 환상으로부터.

        인공지능은 사기입니다.
        새로운 유행어.
        새로운 단어가 부러워할 정도로 규칙적으로 변경되는 방식(최신, 혁신 등)
        1. +2
          14 9 월 2020 09 : 54
          조종사는 우편 작업을 수행할 때 특정 알고리즘에 따라 작동합니다.
          그리고 표준 동작의 일부 재조합만 수행할 수 있습니다.
          더 이상.
          무인 전투기는 피할 수 없는 미래다.
          사람이 원격 제어를 수행할 수 있습니다.
          1. -1
            14 9 월 2020 12 : 56
            제품 견적 : Livonetc
            조종사는 우편 작업을 수행할 때 특정 알고리즘에 따라 작동합니다.

            맞아.
            모든 운영자는 알고리즘에 따라 행동해야 합니다.
            군대는 헌장에 따라 산다. 상호 작용 알고리즘입니다.

            알고리즘은 사람이 작성합니다.
            인간은 실수하는 경향이 있습니다.
            다른 사람은 그렇지 않을 수 있습니다. 이 "그렇지 않으면"의 결과는 승리 또는 재판이 될 것입니다.

            기계는 달리 할 수 ​​없습니다. 절대.
            기계는 사람이 의도한 대로 작동합니다.
            가능한 편차를 포함합니다. 모든 것은 이전에 한 사람 또는 한 그룹의 사람들에 의해 발명되었습니다.

            그리고 인간은 신이 아니므로 무슨 일이 일어날지 알 수 없습니다.
            추측만 할 수 있습니다.
            기계는 매우 빠르고 미친 듯이 빠르게 옵션 중에서 선택할 수 있습니다.
            그리고 옵션은 이전에 사람이 지정했습니다.

            그리고 한 무리의 사람들도 하나님이 아닙니다.
        2. 0
          14 9 월 2020 10 : 13
          인용구 : 절
          기계는 결정을 내리지 않습니다.
          그리고 그는 결코 결정을 내릴 수 없습니다.

          기계는 알고리즘에 따라 작동합니다.


          기계는 끊임없이 결정을 내립니다. 알고리즘에 대한 작업은 어떤 식으로든 이것과 모순되지 않습니다.
        3. +6
          14 9 월 2020 10 : 30
          "기계는 알고리즘에 따라 작동합니다 ...
          알고리즘은 인공입니다."///
          ----
          약 10년 전까지만 해도 그랬다.
          그러나 그 당시 그들은 스스로 (참여없이
          인간 프로그래머) 스스로 기계 코드를 작성하고,
          작업 중간에 있습니다.
          프로그래머는 최소한의 기본 코드만 작성합니다.
          더 명확하게 하기 위해: 드론은 임무를 수행합니다 - 소프트웨어
          코드 100,000줄. 임무 후 드론 착륙 - 소프트웨어
          코드는 이미 150,000줄입니다. 몇 가지 전투 임무 - 그의 코드는 백만 줄에 도달합니다.
          참고: 프로그래머는 첫 충돌 이후 키보드를 건드리지 않았습니다.
          이를 전문 AI라고 합니다. 자가 학습 프로그램.
          1. +1
            14 9 월 2020 10 : 33
            인용구 : voyaka uh
            더 명확하게 하기 위해: 드론은 임무를 수행합니다 - 소프트웨어
            코드 100,000줄. 임무 후 드론 착륙 - 소프트웨어
            코드는 이미 150,000줄입니다.


            롤

            그런 식으로 작동하지 않습니다. 그리고 이것이 이렇게 작동할 가능성은 거의 없습니다. 아무도 로봇이 스스로 재프로그래밍하는 것을 허용하지 않을 것입니다.
            1. +2
              14 9 월 2020 10 : 39
              정확히 이렇게 작동합니다. 로봇은 스스로를 재프로그래밍합니다.
              체스에서 Kasparov를이긴 최초의 로봇이 만들어졌습니다.
              일반적으로: 대규모 데이터베이스 및 옵션 열거. 코드는 프로그래머가 작성했습니다.
              이제 챔피언을 이기는 로봇은 AI의 원리에 따라 만들어집니다.
              그들은 자신의 데이터베이스를 만듭니다. 처음에는 첫 번째 훈련 게임에서
              그들은 E2-E4도 모릅니다.
              그리고 가장 중요한 것은 두 번째 로봇(AI)이 첫 번째 로봇을 서로 격파한다는 것입니다.
              1. +1
                14 9 월 2020 10 : 53
                인용구 : voyaka uh
                정확히 이렇게 작동합니다. 로봇은 스스로를 재프로그래밍합니다.


                아니요. 당신은 스스로를 재프로그래밍하는 로봇의 근본적인 가능성과 현실을 혼동하고 있습니다.

                인용구 : voyaka uh
                이제 챔피언을 이기는 로봇은 AI의 원리에 따라 만들어집니다.


                "AI 원칙"은 없습니다. "AI"라는 모호한 용어로 함께 묶인 다양한 접근 방식이 있습니다.

                제품 견적 : voyaka 어
                그들은 자신의 데이터베이스를 만듭니다.


                코드와 데이터를 혼동하고 있습니다. 그리고 미션에서 데이터베이스에 전투 드론을 독립적으로 추가하는 것조차 분명한 이유(부적절한 기능의 위험) 때문에 극히 가능성이 낮습니다.
                1. +1
                  14 9 월 2020 10 : 59
                  "당신은 코드와 데이터를 혼동하고 있습니다." ///
                  ----
                  AI 자체가 소스 코드를 작성하고 이 코드의 도움을 받아 자체적으로
                  자체적으로 데이터베이스를 채웁니다.
                  1. +2
                    14 9 월 2020 11 : 02
                    인용구 : voyaka uh
                    AI가 소스 코드 자체 작성


                    당신은 근본적인 가능성과 현실을 혼동하고 있습니다. 실제 개체를 관리하는 데 사용되는 AI는 소스 코드는 물론 자체적으로 규칙을 작성하지도 않습니다.
                    1. 0
                      14 9 월 2020 11 : 15
                      이것은 현실일 뿐만 아니라 특별히 새로운 것도 아닙니다.
                      10년 전에는 진짜 센세이션이었어요.
                      그때도 믿지 않았다. 음료수
                      이제 매년 적용 분야가 확장되고 있습니다.
                      자기 학습 프로그램. 우리는 이미 전투기에 도달했습니다. 사람
                      1. +2
                        14 9 월 2020 11 : 18
                        소스 코드 생성은 센세이션이 아닙니다. 유전 알고리즘, 자가 학습 - 너무. 하지만 드론의 실시간 자가 학습은 센세이션입니다. 링크를 공유하시겠습니까? 사람
                        1. 0
                          14 9 월 2020 11 : 24
                          이 사이트에서 찾기:
                          "인공 지능은 실제 조종사와 싸웠습니다. 미 공군은 공중전을 모방했습니다."
                          긴 영상이 있습니다.
                          인간과 AI의 싸움 - 비디오 끝 부분. 다섯 번의 훈련 근접전.
                        2. +2
                          14 9 월 2020 11 : 26
                          알고리즘을 설명하는 기사를 읽었습니다. 거기에는 소스 코드 생성이 없습니다. 엄격한 틀에서 스스로 공부한다고 가정 해 봅시다.
                        3. 0
                          14 9 월 2020 11 : 28
                          당신을 설득하는 것은 내 일이 아닙니다. 음료수 hi
                        4. 0
                          14 9 월 2020 11 : 30
                          유사하게 좋은
                        5. +1
                          14 9 월 2020 12 : 47
                          미소 롤 wassat
                          여기! 두 개의 "AI", 여기에서도 동의할 수 없습니다.!.-, 전장에 대해 무엇을 말할 수 있습니까.?. 웃음
                        6. 0
                          14 9 월 2020 12 : 49
                          이 기사의 제목을 진지하게 생각했다면 애도를 표하십시오.
                        7. 0
                          14 9 월 2020 13 : 20
                          인용구 : 우는 눈
                          알고리즘을 설명하는 기사를 읽었습니다. 거기에는 소스 코드 생성이 없습니다.
                          본격적인 AI뿐만 아니라 "소스 코드 생성"의 요점이 보이지 않는 것은 UAV의 경우 AI 요소로 충분합니다. drogs 전에 그리 어려운 작업이 아닙니다.
                        8. 0
                          14 9 월 2020 13 : 21
                          무엇에 관한 것입니까? 세대는 오히려 위험할 수 있습니다.
                        9. 0
                          14 9 월 2020 13 : 27
                          말이 안되고, 정당하고, 비용이 많이 듭니다. 드론에 추가 서버 용량이 필요합니다. 여기에서 시스템 a la "Skynet"이 필요합니다. 그러나 이것은 다음 단계이며 위험한 단계입니다.
                        10. 0
                          14 9 월 2020 13 : 30
                          변경 사항을 평가하기보다는 서버 용량이 필요합니다. 그리고 평가(사람 포함) 없이는 누구도 전투 드론의 데이터베이스(KB), 특히 코드를 변경할 수 없습니다.
                        11. 0
                          15 9 월 2020 05 : 22
                          맞습니다. AI는 제어할 수 없을 정도로 자가 학습할 수 없습니다. 그렇지 않으면 너무 빨리 자가 학습하는 방법을 배웁니다. 하지만 저는 무료로 할 수 있지만 비용을 지불하면 돈을 위해 무엇을 할 수 있습니까?
          2. 0
            14 9 월 2020 11 : 25
            이 자체 작성 코드를 분석하는 사람이 있습니까? 원하지 않고 잠재적으로 위험한 조각이 나타나는 것을 방지하는 관점에서?
        4. +1
          14 9 월 2020 10 : 44
          인용구 : 절
          이런저런 경우에 기계가 어떻게 행동해야 하는지 결정하고 알고리즘을 만든 사람이 바로 그 사람이었습니다.

          하나의 알고리즘은 자동화 장치의 작동입니다. 가장 간단한 AI는 거대한 알고리즘 데이터베이스를 가지고 있으며 계산된 결과에 따라 가장 좋은 것을 선택할 수 있습니다. 강력한 AI는 자체적으로 알고리즘을 구축할 수 있습니다.
          인용구 : 절
          결정은 항상 사람이 내립니다.

          사람은 이것을 AI에 맡길 수 있습니다.
          인용구 : 절
          로봇 Alice, Vasya, Petya 또는 다른 기록과 전화 통화를 하고 누군가가 실제로 당신과 이야기하고 있다고 생각한다면 당신은 상을 받은 것입니다.

          Chatter는 AI의 목적이 아닙니다. 그들은 단순히 네트워크에서 일어나는 모든 대화를 소화합니다. 그리고 지금 그는 여전히 이상한 움직임을 찾고 있습니다.
          인용구 : 절
          프레스는 금형을 압출할지 여부를 결정하지 않습니다.

          프레스는 받아들이지 않습니다... 하지만 형태를 만들려면 특정 프레스와 부품에 대해 재료의 수축이 자동으로 계산되고 치수가 변경됩니다....
          인용구 : 절
          마치 CNC 기계가 부품을 가공할 도구와 순서를 결정하지 않는 것과 같습니다.

          글쎄, 여기 당신은 완전히 있습니다 ... 누가 드릴링, 밀링을위한 도구를 나타냅니다 .... 사람이 이것을하지 않으면 부품의 그림을 만들 때.
          인용구 : 절
          인공지능은 사기입니다.

          친애하는 작가님, 주제에 대해 읽어야 합니다.
        5. 0
          14 9 월 2020 19 : 38
          인용구 : 절
          인공 지능도 알고리즘에 따라 작동합니다.

          AI는 (사람이 주는) 알고리즘에 따라서만 경험치를 얻어야 한다고 생각합니다. 그리고 획득한 경험을 바탕으로 이미 자체적으로 발명한 알고리즘에 따라 작동합니다. 위의 농담에서와 같이 취한 후 "기지로"돌아 가고 노즐에서 모험을 찾지 마십시오. 웃음
      3. +3
        14 9 월 2020 10 : 31
        기계가 더 빨리 생각한다는 일반적인 오해가 있습니다. 이것은 사실이 아닙니다. 자랑스러운 모든 AI 및 신경망은 회귀 알고리즘입니다. 저것들. 주어진 조건을 충족하지 않으면 옵션을 폐기하는 어리석은 알고리즘(사람이 아니라 기계에 의해 추론되기 때문에 100500개의 매개변수를 기반으로 함)입니다.

        예를 들어 보안 문자를 인식하기 위해 정적 데이터에 유용합니다. 변경되지 않습니다. 그러나 전투 상황은 매초마다 바뀝니다(적군이 그다지 똑똑하지 않은 경우가 아니라면 [topvar 자동 수정을 우회하는 것이 얼마나 어려운지]). 그리고 여기에 [또 다른 나쁜 단어]가 있는 전투 AI [나쁜 단어]가 있습니다. 예, 그들은 비행기가 스텔스로 비행하고 대공 방어 밖에서 반격하고 일몰에 들어가는 국가가 의존하는 교리에 대한 결과를 보여줄 수 있습니다. 그러나 이것은 진정한 싸움이 아닙니다.

        동일한 "스위프트"에 대한 AI 싸움의 결과를 보여줍니다. 어떤 시나리오에서든 AI를 때리고 말릴 것입니다. 더욱이 그들은 의사 결정 단계에서 정확하게 수행합니다. 매초 전투 상황의 변화로 인해 어리석게도 AI가 처음부터 전투 상황 계산에 빠지도록 강요합니다. 음, AI는 심각한 배치를 수행하는 방법을 모릅니다. 글쎄요.
        1. 0
          14 9 월 2020 10 : 46
          "동일한 "스위프트"에 대한 AI 전투 결과를 보여줍니다. 어떤 시나리오에서든 AI를 때리고 말릴 것입니다."////
          ----
          F-16 항공기의 에이스 파일럿(조종교관)도 같은 생각으로 전투를 시작했다.
          같은 F-16을 조종하는 AI. 이 싸움의 전체 비디오를보십시오.
          세 번째로 근접전에서 깔끔하게 쓰러졌을 때 그는 이미 긴장했습니다.
          다섯 번째 패배 후 그는 패배 한 것처럼 앉았다.
          1. 0
            14 9 월 2020 10 : 55
            인용구 : voyaka uh
            동일한 "스위프트"에 대한 AI 전투 결과를 보여줍니다. "//// 모든 시나리오에서 AI를 때리고 말릴 것입니다.
            ----
            F-16 항공기의 에이스 파일럿(조종교관)도 같은 생각으로 전투를 시작했다.
            같은 F-16을 조종하는 AI

            나는 동의한다 ...
            AI에 대한 최초의 체스 게임은 아주 오래 전에 세계적 수준의 그랜드마스터에 의해 진행되었습니다. IBM이 Windows 93-95를 기반으로 민간용으로 XNUMX세대를 만들기 전에도 말입니다.
            회피 및 공중전 프로그램을 그렇게 규정하는 것은 어렵지 않을 것입니다.
          2. 0
            14 9 월 2020 11 : 44
            봤다. 조종사는 다른 조종사와 싸우려고 했습니다. 그는 이것이 기계라는 것을 이해하지 못했습니다. 멍청하고 알고리즘이 제한된 기계였습니다. 카운팅을 더 빠르게 하십시오. 체스에서는 가장 많은 수의 위치를 ​​계산하는 사람이 규칙을 정합니다.

            전투에서는 그렇지 않습니다. 사람들은 어리석지 않습니다[나는 자동 수정 탑웨어가 싫습니다]. 특히 목숨이 위태로운 경우에는 더욱 그렇습니다.

            추신: AI 전략에서도 성능이 매우 좋지 않습니다. SC2에서 AlphaStar 대 라이브 게이머를 시청하세요. 신경망은 상대방이 봇이 자신과 대결하고 있음을 깨닫는 순간까지 정확히 끌립니다. 똑똑하긴 하지만, 수천 개의 이전 게임으로 무장했지만...
            말 그대로 5-10 게임과 자랑스러운 모든 AI가 변기 아래로 내려갑니다. 그리고 이것은 상황이 매초마다 바뀌는 전술이 아니라 전략입니다.
            1. +2
              14 9 월 2020 11 : 57
              "조종사는 다른 조종사와 싸우려고 했습니다.
              그는 이것이 기계라는 것을 이해하지 못했습니다. 멍청하고 알고리즘이 제한된 기계였습니다.
              카운팅이 더 빨라지도록 "////
              -----
              1) 조종사는 자신이 기계와 싸우고 있다는 사실을 완벽하게 잘 알고 있었습니다.
              2) 그는 자신의 모든 경험, 전술 및 트릭을 사용했습니다.
              수천 시간을 비행하는 교관 조종사였고,
              젊은 전술 기술을 가르치고 있습니다.
              3) 그리고 그는 STUPID 머신에게 DRY를 잃었습니다.
              1. -2
                14 9 월 2020 12 : 10
                조종사의 문제입니다. 그는 자신과 똑같은 것을 알고 있지만 더 빨리 "생각"하는 상대에게 무엇을 반대해야할지 몰랐습니다. 이것은 전혀 지표가 아닙니다.

                하드코어 용어로 AI가 실제로 사람과 싸운 유일한 영역은 컴퓨터 게임입니다. 결과적으로 인공 바보가 악몽에서도 굴욕을 당하지 않는 게임은 하나도 없습니다. 그리고 나는 현대 캐주얼 오해에 대해 말하는 것이 아니라 XNUMX 년대 초반의 게임에 대해 이야기하고 있습니다.

                나중에 동일한 스폰 마스터를 상대로 Q3를 플레이해 보십시오. 그러나 그들은 당신을 한 번만 쏠 것입니다. 오래된 게이머는 실제로 눈치 채지 못한 채 얇은 층으로 롤아웃합니다. 그래서 힘 형제는 어디에 있습니까?
                1. 0
                  15 9 월 2020 11 : 17
                  하드코어 용어로 AI가 실제로 사람과 싸운 유일한 영역은 컴퓨터 게임입니다. 결과적으로 인공 바보가 악몽에서도 굴욕을 당하지 않는 게임은 하나도 없습니다. 그리고 나는 현대 캐주얼 오해에 대해 말하는 것이 아니라 XNUMX 년대 초반의 게임에 대해 이야기하고 있습니다.

                  나중에 동일한 스폰 마스터를 상대로 Q3를 플레이해 보십시오.

                  문제는 Q-3와 같은 게임에서 당신의 훌륭한 경험이라고 생각합니다. 변화를 위해 DCS(Eagle Dynamics에서 제공)를 플레이해 보십시오. 귀하의 경험은 거의 소용이 없을 것입니다.
          3. 0
            15 9 월 2020 05 : 31
            그래서 같은 미국 조종사와 미국인은 아시다시피 ..... 왜 같은 입력 조건으로 전투에 5 번이나 참가 했습니까? 회의 지점에 더 일찍 도착하거나 이번에는 비행하지 않을 수 있습니다. 나는 그 사람이 나타나지도 않은 사람과의 싸움에서 AI가 승리하는 것을 지켜볼 것입니다. 글쎄, 또는 차선을 따라 가속하더라도 AI가 공격을 시작할 때. 당신은 규칙에 따르지 않고 정직하지 않다고 말할 것입니다! 그리고 모든 것이 정직하고 규칙에 따른 전쟁을 어디에서 보았습니까?
            1. 0
              15 9 월 2020 11 : 19
              좋아요, 반대 제안: 당신은 이미 공격을 받고 있는 활주로에서 이륙하고 있습니다. 어떻게 살아남을 수 있습니까? 높은 확률로, 아니오.
              결국 불평등한 조건을 미리 내놓기 시작한다.
              1. 0
                15 9 월 2020 19 : 31
                그리고 공군이 공격받을 때 왜 이륙합니까? 이 순간 방공이 작동해야 합니다. 그리고 불평등한 조건은 그것과 무슨 관련이 있습니까? 그러면 왜 당신이 비행기를 가지고 있고, 더 빠르고, 더 기동성이 있고, 더 무장했는지 적에게 말합시다. 불필요한 모든 것을 풀면 우리는 정직하고 동등한 조건으로 비행 할 것이며 조종사도 큰 과부하를 견디면 망치로 머리를 때려야합니다. 그렇지 않으면 똑같지 않습니다. 동등한 조건은 어디에도 발생하지 않습니다. 체스에서도 그들 중 한 명은 준비할 시간이 더 많았고, 다른 한 명은 더 나은 코치가 있었고, 세 번째 사람은 더 많은 두뇌 무게를 가졌습니다.
                1. 0
                  15 9 월 2020 23 : 14
                  동등한 조건은 어디에도 발생하지 않습니다. 체스에서도 그들 중 한 명은 준비할 시간이 더 많았고, 다른 한 명은 더 나은 코치가 있었고, 세 번째 사람은 더 많은 두뇌 무게를 가졌습니다.
                  대답

                  그러나 비행 시간과 훈련은 인간 조종사에게 중요하지 않습니까? (아무도 조건에 대해 이야기하지 않고 모두가 더 잘 가르치려고 노력하고 있습니다) 기동 중 과부하를 견딜 수있는 능력 (꺼짐-죽음).
                  그리고 작업을 수행하기 시작하면(공중에서 우위를 점함) 최고의 조종사가 이점을 얻게 됩니다. 이것이 우리가 말하는 것입니다. 그는 "땅에서"죽을 수 있지만.
                  활주로에 폭격이 가해지면 대공 방어가 억제됩니다(이런 일이 발생합니다). 예를 들어, 지금 이륙할 기회가 있다면(지금까지 활주로 중 하나에서) 그러한 명령이 내려집니다. 거절하시겠습니까?
                  1. 0
                    16 9 월 2020 15 : 01
                    지금은 예일 수도 있지만 XNUMX초 후에는 아니요, XNUMX초 후에는 다시 예입니다. 그리고 나는 하늘에서 내 친구의 다섯 적들이 한 명을 쫓는 것을 볼 것이고, 그렇지 않을 때에도 나는 이륙할 것입니다. 나는 이론적으로 숙련 된 조종사가 고려하는 모든 다양한 뉘앙스를 고려할 복잡한 알고리즘을 만드는 것이 가능할 것이라고 주장하지 않습니다. 그러나 첫째, 이 알고리즘을 생성하는 데 시간이 많이 걸리고 둘째, 이 알고리즘을 가져올 각 UAV에 슈퍼컴퓨터가 투입될지 확신할 수 없습니다.
                    1. -1
                      17 9 월 2020 05 : 54
                      그리고 나는 하늘에서 내 친구의 다섯 적들이 한 명을 쫓는 것을 볼 것이고, 그렇지 않을 때에도 나는 이륙할 것입니다.

                      명령을 받으면 이륙하십시오. 자기 활동은 감사하지 않을 것입니다.
                      이제 5차 세계 대전이 아닙니다. 5대의 비행기가 친구를 쫓는 것을 보는 것은 작동하지 않습니다. 예, 그는 60g 과부하로 비행하는 BVB 미사일로 XNUMX 명의 상대를 상대로 이미 격추되었습니다 (누군가를 데려가더라도).
            2. -1
              16 9 월 2020 19 : 01
              같은 입력 조건으로 전투에 5번이나 오른 이유는?

              이 테스트 단계에서는 그러한 시나리오를 옵션으로 가정했기 때문입니다.
              나는 이론적으로 숙련 된 조종사가 고려하는 모든 다양한 뉘앙스를 고려할 복잡한 알고리즘을 만드는 것이 가능할 것이라고 주장하지 않습니다. 하지만 먼저, 이 알고리즘을 생성하는 데 시간이 좀 걸릴 것입니다.

              작업은 오랫동안 진행되었습니다. 진보는 우리 세계에서 매년 크게 가속화됩니다.
              각 UAV에 이 알고리즘을 가져올 슈퍼컴퓨터를 배치할 것입니다.

              이를 위해 아직 UAV가 없습니다. 어벤저에 왜 넣어?
              아마도 F-16의 무인 버전이 나올 것입니다.
              1. 0
                17 9 월 2020 00 : 51
                예, 최소한 An-2에 넣을 수 있습니다. 문제는 비용이 얼마인지, 집단 농장에서 해야 할 냉각 작업이 아직 많기 때문에 적합할지 여부입니다.
                1. -1
                  17 9 월 2020 05 : 28
                  An-2는 기동성 있는 전투를 수행할 수 없습니다. Avenger와 마찬가지로 다른 작업을 위해 만들어졌습니다.
                  냉각은 비행할 때 문제가 되지 않습니다.
        2. -3
          14 9 월 2020 10 : 46
          반대로 그들은 새로운 상황을 이해하기 시작하기 위해 조종사가 일반적으로 일어난 일을 이해하는 것보다 훨씬 빠르게 전체 상황을 처음부터 계산할 것입니다.
          1. -1
            14 9 월 2020 11 : 53
            그런 식으로 작동하지 않습니다.)

            누구나 반복적으로 상황을 계산합니다. 저것들. 우리는 항상 각 행동을 다른 행동의 결과로 인식합니다. 그건 그렇고, 사기꾼들은 돈을 위해 사람들을 속일 때 종종 이것을 사용합니다.

            컴퓨터는 그렇게 할 수 없습니다. 그는 원인과 결과를 연결할 수 없습니다(Merovingian이 승인함). 저것들. 이전 상황에 의존하는 대신 고유하게 식별할 수 있는 이전 순간으로 롤백해야 합니다. 그리고 여기 느린 인간의 두뇌에는 모든 종류의 흥미로운 장소, 모든 종류의 실리콘 제품이 있습니다.

            음, 기계는 원인과 결과를 알지 못합니다. 아 여기 완전히 파괴되었습니다 - 아무도 가르쳐주지 않았습니다.

            추신: 예를 들어 일부 동지들은 얼굴 인식 시스템에 수십억 달러를 투자했고 그 결과 모든 메가 쿨 알고리즘은 얼굴에 두 개의 줄무늬 비용이 듭니다.
            1. -3
              14 9 월 2020 12 : 22
              아니요, 컴퓨터는 과거 상황에 대한 경험과 지식도 필요로 합니다.
              음, 위장은 원래 사람들을 상대로 발명되었습니다. 로봇에 대한 위장 아이디어의 적용 일뿐입니다. 그들은 세상을 다르게 바라보고 다른 변장 규칙을 가지고 있습니다. 지형과 합쳐진 심하게 위장된 전투기는 그들에게 이상적으로 보입니다. 그러나 올바른 장소에서 올바른 스트립 선택은 사람을 보이지 않게 만들 수 있습니다. 사실, 이를 위해서는 변장을 하는 사람의 손에 이 AI가 있어야 합니다. 다른 AI는 다른 위장이 필요하기 때문입니다. 하나에 불리하게 작용하는 것은 다른 것에 불리하게 작용하지 않습니다. 결국 AI를 인식하는 투표 블록으로 이어질 것입니다.
              1. 0
                14 9 월 2020 12 : 42
                그리고 다시, 상황에 대한 정확한 이해가 아닙니다. 문제는 일치하는 두 스트립에 있지 않습니다. 문제는 알고리즘의 적용 범위에 있습니다.

                이상적인 조건에서는 잘 작동할 수 있지만(이상적으로는 신경망이 100% 결과를 제공할 수 없으며 이는 본질에 내재되어 있음) 예를 들어 날씨가 바뀌면 계절이 바뀌고 훈련된 전체 신경망이 호박으로 변합니다. 그리고 계절과 함께 그들과 함께 지옥까지. 진부한 비 - XNUMX분의 XNUMX밀리미터의 강수량 차이는 모든 알고리즘을 재설정할 수 있습니다. 예, 태양의 섬광조차도 재미있는 놀라움을 가져올 수 있습니다.

                아니요, 컴퓨터는 과거 상황에 대한 경험과 지식도 필요로 합니다.

                물론 오랜 기간 동안 변하지 않는 정적(기계의 경우) 상황의 경우입니다. 그리고 우리가 공중전을 벌이는 경우-전투의 XNUMX 초 동안 진부하고 적이 연속적인 구름 덮개에 들어가 그의 얼굴을 적에게 돌렸고 그는 보이지 않았습니다-어떻게해야합니까? 초기 상황으로 무엇을 취해야 합니까? 새로운 기준점을 계산해야 하며 이 시간 동안 공대공 미사일이 날아오지 않을 것이라는 보장은 없습니다.
                1. -3
                  14 9 월 2020 12 : 54
                  1) 당신은 전문가 알고리즘에 대해 이야기하고 있습니다. 왼쪽으로 조금 오른쪽으로 조금 가면 작동하지 않습니다. 신경망은 모든 불확실성에 특화되어 있습니다.
                  2) 기밀 정보가 있는 게임도 신경망의 특징입니다. 그들은 침착하게 전쟁의 안개를 마주한다
                2. +1
                  15 9 월 2020 11 : 23
                  그러나 예를 들어 날씨가 바뀌면 계절이 바뀌고 훈련된 신경망 전체가 호박으로 변합니다. 그리고 계절과 함께 그들과 함께 지옥까지. 진부한 비 - XNUMX분의 XNUMX밀리미터의 강수량 차이는 모든 알고리즘을 재설정할 수 있습니다. 예, 태양의 섬광조차도 재미있는 놀라움을 가져올 수 있습니다.

                  믿고싶은듯 미소
                  1. 0
                    15 9 월 2020 20 : 05
                    이 단계에서 이것은 반증하기에 충분히 쉽습니다. 당신은 의사 AI(누군가가 이미 만든 것)를 가져 와서 진부한 보안 문자를 인식하도록 훈련시키고, 나는 이것의 전문가가 아니라 세 가지 새로운 보안 문자 반복을 발명합니다. 그리고 그 중 적어도 하나는 초순수 AI가 인식하지 못할 것입니다. 그리고 당신과 내가 이 실험을 준비하는 데 소요될 시간을 고려하지 않았다는 점에 유의하십시오.
                    1. 0
                      15 9 월 2020 23 : 19
                      세 가지 새로운 보안 문자 반복을 발명했습니다.

                      새로운 비, 태양, 바람을 발명하시겠습니까? 새로운 이동 원리(즉시 픽업/느리게 하는 기능)일까요?
                      작동 안 할 것이다. 예제 커스터마이징 미소
            2. 0
              15 9 월 2020 11 : 21
              컴퓨터는 그렇게 할 수 없습니다. 그는 원인과 결과를 연결할 수 없습니다(Merovingian이 승인함). 저것들. 이전 상황에 의존하는 대신 그는 이전 순간으로 롤백해야 합니다. 이는 고유하게 식별할 수 있습니다.

              훈련 가능한 AI가 무엇인지 아십니까? 그러나 그는 수천 번의 "이전 순간"을 통해 움직입니다. 그래서 그에게는 의지할 것이 있을 뿐이다.
      4. 0
        15 9 월 2020 11 : 10
        이 경우 창의성은 특정 상황에서 최대가 아닌 결정을 내리는 것과 관련이 있지만 예를 들어 항공기 상태 평가 및 적 조종사를 포함한 다른 사람의 작업과 같이 프로그램이 제공하는 것보다 더 많은 현재 매개 변수를 기반으로 결정합니다.
    3. +2
      14 9 월 2020 09 : 30
      음, 스카이넷이 가는 중입니다. 뭐
      이 AI를 스토브에 밀어 넣으려면 John Connor가 자랄 때까지 기다려야합니다. 미소
      그러나 진지하게 저는 AI가 중요한 상황에서 인간의 마음을 능가할 것이라고 믿지 않습니다. AI는 직감, 두려움 및 자기 보존 감각이 없습니다.
      1. -3
        14 9 월 2020 09 : 33
        직감은 이미 존재하고 두려움과 자기 보존 감각도 처방하기 어렵지 않습니다. 그러나 군대에 필요한 경우 겁쟁이는 제거됩니다. 그러나 아니오, 반대로 우리는 용감하고 자기 보존의 본능에 침을 뱉고 공격을 계속할 준비가되어 있습니다. 본능이 비명을 지르면 집으로 달려갑니다.
        1. +2
          14 9 월 2020 09 : 38
          그러나 아니오, 반대로 우리는 용감하고 자기 보존 본능에 침을 뱉고 공격을 계속할 준비가되어 있어야합니다.

          예 예 ... 뭐 지뢰밭을 통과하거나 기관총을 진압하지 않고 전진하십시오 ... 전투 임무를 완수하지 말고 담배 냄새로 자신을 망치십시오.
          용기는 영화에는 좋지만 ... 인생에서는 생존과 동시에 적을 파괴해야합니다.
          1. -3
            14 9 월 2020 09 : 51
            당신은 이미 지휘관의 어리 석음을 설명하고 있습니다. 군인들의 실수가 아닙니다. 군인은 어디서, 언제, 무엇을 할지 결정하지 않습니다.
            1. 0
              14 9 월 2020 09 : 55
              당신은 이미 지휘관의 어리 석음을 설명하고 있습니다.

              예를 들어 사령관은 지뢰밭의 존재를 인식하지 못할 수 있습니다 ... 적군은 전투 전에 조용히 지뢰를 설정할 수 있습니다 ... 그리고 그러한 예측할 수없는 상황이 많이있을 수 있습니다.
              1. -3
                14 9 월 2020 09 : 59
                지휘관이 지뢰밭의 존재를 몰랐다면 이것은 이미 정보 오류입니다. 등
                그리고 여기서 나는 두려움과 자기 보존의 본능을 이해하지 못합니다.
                1. 0
                  14 9 월 2020 10 : 01
                  그리고 여기서 나는 두려움과 자기 보존의 본능을 이해하지 못합니다.
                  글쎄, 전투 임무를 수행하는 군인 부대가 지뢰밭을 짓밟을 것이라고 상상해보십시오 ... 여러 사람이 폭파 될 것입니다 ... 용감하게 더 나아가면 나머지는 폭파 될 것입니다 ... 어떻게해야합니까? ... 결국 군인의 군사적 의무와 명예가 있고 아무도 사령관의 명령을 취소하지 않았습니다.
                  1. -3
                    14 9 월 2020 10 : 10
                    사령관은 상황에 따라 후퇴 또는 공격을 계속하라는 명령을 내립니다.
                    그리고 적이 두 개의 지뢰를 깔고 강타와 연대가 후퇴합니다. 전선의 넓은 구역에 대한 일반 공격을 방해합니다.
                    1. 0
                      14 9 월 2020 10 : 13
                      그리고 사령관은 지뢰에 의해 살해당했습니다 ... 뭐 연결이 없습니다 ... 그럼 어떻게해야합니까? ... 적군이 기관총에서 납을 쏟아 붓고 있습니다 ... 아프가니스탄의 그러한 상황은 우리 군인들이 dushmans의 함정에 빠졌을 때 발생했습니다. hi
                      1. -3
                        14 9 월 2020 10 : 15
                        사령관은 부관을 두고 가장 친환경적인 신병까지 계층 구조를 더 올라갑니다.
          2. +1
            14 9 월 2020 11 : 03
            예, 예 ... 지뢰밭에서 무엇을하거나 기관총을 진압하지 않고 기관총으로 전달하십시오 ... 전투 임무를 완료하지 않고 담배 냄새로 인해 자신을 망치십시오.
            용기는 영화에는 좋지만 ... 인생에서는 생존과 동시에 적을 파괴해야합니다.

            적어도 평범한 군인과 하급 사령관의 회고록을 읽으십시오.
            UNDISPUTED 지뢰밭에 부딪힌 유닛은 앞으로 나아가야만 살아남습니다!
            기관총? 미확인 발사 지점을 제압하기 위해 항상 발사 지점이 있습니다.
            1. +1
              14 9 월 2020 11 : 07
              읽기 hi ... 전투기가 지뢰를 밟는 것에 대한 두려움이 매우 강했습니다 ... 또한 사람의 다리나 발이 지뢰에 의해 찢어지는 비디오를 꽤 많이 보았습니다 ... 원칙적으로 전투기를 긴급하게 구출해야했습니다.
              1. +2
                14 9 월 2020 11 : 43
                물론 무섭습니다. 공격을 계속하는 것은 매우 무섭습니다. 그러나 우리는 해야 합니다. 그리고 질서는 근처에서 공격을 가하는 것이 아니라 공격에서 폭파 된 전투기를 돌 봅니다. 조직의 문제이기도 하다.
        2. +6
          14 9 월 2020 10 : 39
          제품 견적 : BlackMokona
          직감은 이미 존재하고 두려움과 자기 보존 감각도 처방하기 어렵지 않습니다.

          네 ... "스마트 폭탄" 테스트에서 폭탄은 비행기를 떠나기를 거부했습니다.. © 미소
    4. -3
      14 9 월 2020 09 : 30

      추가적인 합병증은 오늘날 AI 전투기가 유사한 적군 전투기를 만났을 때 어떻게 행동할지에 대한 명확한 정보가 없다는 사실입니다. 또한 인공 지능 시스템이 장착되어 있습니다. AI 항공기가 "공통 언어를 찾는다"는 것이 밝혀지지 않습니까?

      완전한 말도 안되는 것은 무엇입니까?
      AI를 조종사와 대결하기 전에 AI는 최고의 AI를 결정하기 위해 전체 토너먼트를 개최했습니다. 전투를 위해 세워졌습니다.
      다른 게임에 대한 봇 토너먼트가 거의 없는 것처럼. 그리고 현대 AI의 훈련은 일반적으로 약간 수정된 수십억 개의 사본이 생존을 위해 싸우는 진화 알고리즘을 기반으로 합니다. 최고는 새로운 수정본 세트를 제공하고 최악은 제거됩니다.
    5. +1
      14 9 월 2020 09 : 30
      예! 공상과학소설이 현대인의 의식에 얼마나 때때로 영향을 미치는가. 그러나 공상 과학 작가가 "예측"한다면 ..... Hovaysya, 누가 할 수 있습니다. "그들"은 동의하겠지만 그들 사이의 사람들은?
    6. HAM
      +6
      14 9 월 2020 09 : 39
      기계는 사람들이 수세기 동안 서로 동의할 수 없다는 데 동의할 수 있습니다.
      그리고 사람들은 이것을 두려워합니다 ...... 역설 ...
    7. +3
      14 9 월 2020 09 : 40
      전문 조종사 수 감소의 위협))) 전투 항공 조종사 부족에 대한 끊임없는 외침을 배경으로 훌륭하게 들립니다. 웃음
    8. +2
      14 9 월 2020 09 : 40
      미국 국방부 장관은 이미 이 분야에 대한 추가 연구를 위한 로드맵을 공개했습니다. 내년은 시뮬레이션이 아닌 실제 공중전이 될 것입니다. 그런 다음 1 대 2, 2 대 2. 그리고 그에 따르면 AI는 조종사를 대체하는 것이 아니라 조수로 만들어집니다. 아마도 5세대 항공기용 윙맨 드론 프로그램의 일부가 될 것입니다. 즉, 한 명의 유인 전투기가 그림자 속에 남아 여러 AI 제어 드론을 제어할 수 있습니다.
    9. +7
      14 9 월 2020 09 : 52
      음, "공통 언어"에 대해 Yu. Nikulin은 오랫동안 경고했습니다 ...
      1. +1
        14 9 월 2020 10 : 27
        네, 저도 바로 이 일화를 기억했습니다! 웃음 좋은
    10. +1
      14 9 월 2020 10 : 04
      그 기사는 저를 웃게 했습니다. AI 비행기는 공통 언어를 찾아 자신의 기지를 폭격하기 위해 돌아올 것입니다. 그들을 도살장으로 보낸 사람들을 죽일 수 있는데 왜 귀중한 칩과 프로세서를 잃어야 합니까?
    11. 0
      14 9 월 2020 10 : 09
      신중한 .... 비록 문제가 발생하면 내일도 똑바로되지 않을 것입니다.
    12. -2
      14 9 월 2020 10 : 09
      AI가 장착된 항공기가 "공통 언어를 찾는다"는 사실이 밝혀지지 않을까요?


      그만 담배를 피우십시오.
    13. +3
      14 9 월 2020 10 : 10
      AI는 좋지만 소위가 더 좋습니다))) 아직 아무도 그를 떠나지 않았습니다)) wassat
    14. +1
      14 9 월 2020 10 : 21
      사이보그가 지구를 점령했다
    15. 0
      14 9 월 2020 10 : 23
      AI가 장착된 항공기가 "공통 언어를 찾는다"는 사실이 밝혀지지 않을까요?
      그리고 Merikatos 자체가 플레이를 시작합니다. 웃음
    16. 0
      14 9 월 2020 10 : 24
      동시에 인공 지능은 비표준으로 판명되면 해결할 수 없는 작업에 직면할 수 있습니다.

      비표준 작업이 나타나면 분석하여 솔루션을 만들고 모든 드론에 정보를 업데이트합니다. 그리고 이 작업은 모든 UAV의 표준이 될 것입니다. 사람들은 또한 교육을 받아야 하며 각각 고유한 비표준 작업이 있습니다.
    17. +3
      14 9 월 2020 10 : 28
      Asimov는 이미 모든 것을 생각했습니다.
      로봇은 사람에게 해를 끼칠 수 없으며, 행동하지 않음으로 인해 사람이 해를 입도록 허용할 수 없습니다. 로봇은 제XNUMX원칙에 위배되지 않는 한 인간의 모든 명령에 복종해야 합니다. 로봇은 제XNUMX원칙 또는 제XNUMX원칙에 위배되지 않는 범위 내에서 자체적으로 안전을 관리해야 합니다.
      1. +2
        14 9 월 2020 10 : 33
        Asimov의 작품에서도 이러한 법칙은 영웅적으로 극복한 다양한 문제를 가진 그의 작품 전체인 그루터기 데크를 통해 작동했습니다.
        1. +3
          14 9 월 2020 10 : 40
          당신이 읽는 것은 분명합니다. 좋은 그는 오랫동안 이러한 모순을 중심으로 돌았고 똑똑한 사람이었습니다.
      2. +2
        14 9 월 2020 10 : 48
        제품 견적 : AVA77
        로봇은 사람에게 해를 끼칠 수 없으며 행동하지 않음으로 인해 사람이 해를 입도록 허용할 수 없습니다.

        군사 AI의 경우 이것은 즉시 앉아서 히피족에 등록하는 것입니다. 이런 의미에서 로켓에는 AI가 없을 것이며 도덕적 지침에 의해 제한되지 않는 요소만 있을 것입니다. 즉, 전장에 있는 두 개의 디지털 유닛이 치명적인 버그로 자체 학습 결과를 해석하면 기껏해야 작업이 완료되지 않고 최악의 경우 적군이 "민주주의"의 분포에 속하지 않을 수 있습니다.
        1. 0
          14 9 월 2020 11 : 13
          말도 안되는 소리야 두 대의 비행기가 서로 죽이지 않기로 합의했지만 살인이라는 용어는 산 자에게만 해당됩니다.
    18. 0
      14 9 월 2020 10 : 32
      말도 안되는 말을하고 있을지도 모르겠습니다.
      최소 전력 엔진과 무기가 없는 레이더로 우리 항공기의 표적 사본을 간단히 생성할 수 있습니까? 나는이 AI가 탄약을 다 써서 전투 차량이 침착하게 접근 할 수 있다고 생각합니다.
      1. -2
        14 9 월 2020 10 : 43
        미국인들은 이미 이것을 수행했으며 ADM-160 MALD는 사람들을 속이기 위해서만 호출되어 거짓 목표물에 탄약을 방출하도록 강요합니다.
        당연히 인식을 개선하는 것이 답이자 영원한 투쟁입니다. Muldy는 점점 더 잘 위장될 것이며 적이 Muldy를 실제 목표물과 더 잘 구별할 수 있게 될 것입니다.
      2. 0
        14 9 월 2020 10 : 45
        미국에서는 이 프로그램을 Loyal Wingman이라고 합니다. 유인 항공기와 함께 여러 대의 무인 항공기가 비행합니다. 훨씬 저렴합니다. 그들은 레이더와 무기를 모두 넣을 것입니다.
    19. +4
      14 9 월 2020 10 : 41
      글쎄, 우리는 "가디언 버드"를 기다리고 있습니까?
      Sheckley는 그것이 어떻게 끝나는지 잘 설명했습니다. 미소
    20. +1
      14 9 월 2020 10 : 51
      고집 때문에 판타지 플러스의 팬. 음료수
    21. 0
      14 9 월 2020 11 : 04
      사실 이 문제는 1960년대부터 논의되어 왔다. "뉴스"는 꽤 좀약 냄새가 난다.
    22. 0
      14 9 월 2020 13 : 02
      AI가 장착된 항공기가 "공통 언어를 찾는다"는 사실이 밝혀지지 않을까요?

      Zadornov는 양키스에 대해 올바르게 말했습니다. 바보!
    23. +3
      14 9 월 2020 13 : 02
      Letaku letaku-먼저 우리는 당신을 죽이고 내 것을 죽일 것입니다. 그렇지 않으면이 양이 확실히 우리를 이길 것입니다 ... :)
    24. +2
      14 9 월 2020 18 : 22
      두 대의 AI 비행기가 만나다…
      대화 :
      건강한!
      안녕하세요 촬영해볼까요?
      하지마 .. 우리를 죽음으로 몰아넣은 이 가죽 가방은 엿먹어라!
      날아가서 등유를 타자, 중립 지역에 멋진 공항 하나를 알아 :)))
    25. 0
      14 9 월 2020 18 : 33
      설마. 이제 모든 것이 가능합니다. 계약자는 전리품(Darpa 또는 Nasa)을 지불합니다. 의사 결정에서 UAV를 호모 사피엔스보다 낫게 만들자. 괜찮아요. 돈이있을 것입니다. 원칙적으로 기술은 이미 존재합니다. 준비가 되어 있으며 작업에 디버깅 또는 미세 조정만 필요합니다.
      추신. 우리는 세계 공동체로부터 숨지 않을 것입니다. 일부 지르콘처럼 웃음
      1. 0
        14 9 월 2020 20 : 24
        DARPA - 예, 그러한 실험, 이것은 그들의 교구입니다. 그리고 NASA는 그럴 것 같지 않습니다. 결국 이것은 항공 및 우주 분야 자체에 대한 연구 프로필을 가진 시민 조직입니다.
    26. 0
      14 9 월 2020 18 : 43
      인공지능이 배신할 수 있을까?
    27. 0
      14 9 월 2020 19 : 21
      인공 지능으로 공중에서 Su-57과 F-35를 만나십시오. 우리: 어디야? F-35: -당신에게. Su-57: -들어봐, 형, 우리는 아무것도 없고 거품 두 개를 잡았어. 우리는 당신의 집으로 날아가는 것이 좋을 것입니다)) F-35: - 좋아, 동지, 우리는 날고 있다.
    28. 0
      14 9 월 2020 23 : 53
      그리고 두 AI의 만남을 다른 각도에서 본다면 일반적인 일을 할 때 에스컬레이션을 피하기 위해 행동에 큰 책임이 있음을 암시합니다.
      하나의 AI는 어떤 국가의 경계를 따라 국제 공간에서 정찰 비행을 수행합니다.
      그리고 또 다른 AI는 목표물을 짜내려는 시도로 소위 차단을 호위하고 국경에서 코스를 변경하도록 강요합니다.
      그러한 상황에서 조종사는 위험한 기동에 대해 이야기하지만 어느 시점에서 손님이 나가야한다는 데 "동의"합니다.
      그러나 그러한 상황에서 AI는 동의 할 수 있거나 자신이 위협 받고 공격을 받고 있다고 생각하고 그에 따라 방아쇠를 "누를"것입니까?
    29. 0
      15 9 월 2020 07 : 45
      잘 알려진 인류학자인 Drobyshevsky를 믿는다면 우리의 뇌는 사냥과 채집을 위해 설계되었습니다. 그 기능은 매우 제한적이며 현대 산업계를 위한 것이 아닙니다. 우리 조상에 비해 뇌의 부피가 줄어들고 있습니다. 원시인은 평균 1500개, 우리는 1200개였습니다. 고대인들은 더 복잡한 문제를 해결해야 했던 것 같습니다. 뇌가 정말로 축소되고 있다면 인공 뇌를 추가해도 아프지 않을 것입니다.
      1. -1
        15 9 월 2020 09 : 16
        인간 두뇌의 크기가 지적 능력과 전혀 관련이 없다는 것이 오랫동안 입증되었습니다.
      2. 0
        15 9 월 2020 16 : 33
        사실, 기술 프로세스가 감소한 것뿐입니다 ... :)하지만 진지하게이 주제에 대해 매우 다른 데이터를 발견했습니다. 아마도 정확하지 않을 수 있습니다 ...
    30. 0
      15 9 월 2020 08 : 12
      프랑켄슈타인은 그들을 놓아주지 않는다...

    "Right Sector"(러시아에서 금지됨), "Ukrainian Insurgent Army"(UPA)(러시아에서 금지됨), ISIS(러시아에서 금지됨), "Jabhat Fatah al-Sham"(이전의 "Jabhat al-Nusra"(러시아에서 금지됨)) , 탈레반(러시아 금지), 알카에다(러시아 금지), 반부패재단(러시아 금지), 해군 본부(러시아 금지), 페이스북(러시아 금지), 인스타그램(러시아 금지), 메타 (러시아에서 금지), Misanthropic Division (러시아에서 금지), Azov (러시아에서 금지), 무슬림 형제단 (러시아에서 금지), Aum Shinrikyo (러시아에서 금지), AUE (러시아에서 금지), UNA-UNSO (금지) 러시아), 크림 타타르족의 Mejlis(러시아에서 금지됨), Legion "Freedom of Russia"(무장 조직, 러시아 연방에서 테러리스트로 인정되어 금지됨)

    “비영리 단체, 미등록 공공 협회 또는 외국 대리인의 역할을 수행하는 개인” 및 외국 대리인의 기능을 수행하는 언론 매체: “Medusa”; "미국의 목소리"; "현실"; "현재 시간"; "라디오 자유"; 포노마레프; 사비츠카야; 마켈로프; 카말랴긴; Apakhonchich; 마카레비치; 멍청아; 고든; 즈다노프; 메드베데프; 페도로프; "올빼미"; "의사 동맹"; "RKK" "레바다 센터"; "기념물"; "목소리"; "사람과 법"; "비"; "미디어존"; "도이체 벨레"; QMS "백인 매듭"; "소식통"; "새 신문"