군사 검토

미국은 유사한 적과 "공통 언어"의 인공 지능을 가진 전투기를 찾을 가능성에 대해 우려하고 있습니다

119

얼마 전 미국에서 F-16 전투기 조종사와 인공 지능을 가진 "항공기"조종사가 컴퓨터 시뮬레이션을 사용하는 모드에 참여한 전투 시뮬레이션 결과가 발표되었습니다. 이것은 펜타곤이 후원하는 Alpha Dogfight 대회입니다. Voennoe obozreniye는 최근 자료 중 하나에서이 경쟁에 대해 말했습니다.


제시된 전투 시뮬레이션 결과는 미국의 인공 지능 (AI) 시스템 제작자를 진정한 행복감으로 이끌었습니다. 사실 다섯 번의 가상 전투 모두에서 승리 한 것은 인공 지능에 의해 조종되는 전투기였습니다. 미 공군의 이익을 포함하여 AI 프로젝트의 구현에 종사하는 회사 Deepmind의 대표자는 다음 사항에 유의하십시오.

실험은 모든 기대치를 초과했습니다. 그리고 그들은 전투기에 인공 지능 시스템을 널리 채택 할 수있는 길을 닦았습니다.

동시에, 개발자 회사 대표자들의 실험 결과와 진술은 은퇴 한 군 조종사를 포함하여 많은 미국 군사 전문가들 사이에서 부정적인 반응을 불러 일으켰습니다. 따라서 미 공군에 인공 지능 시스템이 완전히 도입되면 여러 가지 부정적인 결과를 초래할 수 있습니다. 그중 하나는 조종사가 훈련되는 군사 아카데미를 최적화해야하는 동시에 전문 조종사 인력의 감소입니다. 둘째, 전투 임무의 기계 실행은 의사 결정의 속도 (인간의 뇌 처리 속도를 능가하는 기계의 컴퓨팅 활동)로 정당화 될 수 있지만, 동시에 인공 지능이 비표준으로 판명되면 해결할 수없는 작업에 직면 할 수 있습니다.

주요 메시지 : 인공 지능은 기계, 알고리즘 접근 방식을 기반으로 모든 비행 또는 전투 임무를 수행합니다. 한편으로는 악명 높은 인적 요인으로 인한 위험을 줄일 수 있지만 다른 한편으로는 전투 임무를 수행 할 때 창의적이고 비표준적인 행동을 방해 할 수 있습니다. 지금까지 이러한 작업은 AI의 힘을 넘어 섰습니다.



또 다른 어려움은 오늘날 AI를 가진 전투기가 인공 지능 시스템을 갖춘 유사한 적 전투기를 만날 경우 어떻게 행동할지에 대한 명확한 정보가 없다는 사실입니다. AI를 사용하는 비행기가 "공통 언어를 찾게 될 것"으로 밝혀지지 않을까요? 그러한 사건이 발생할 가능성이 거의 없다면 계획된 모든 작업이 위태로워집니다. 이것은 미국 전문가 커뮤니티에서 두려워합니다.
119 댓글
정보
독자 여러분, 출판물에 대한 의견을 남기려면 등록하십시오.

зже зарегистрированы? Войти

  1. 불행한
    불행한 14 9 월 2020 09 : 28 새로운
    + 18
    미국 전문가 커뮤니티와 저는 Skynet이 사람들에게 위협이된다고 생각합니다. wassat 혀
    1. 불행한
      불행한 14 9 월 2020 09 : 58 새로운
      +3
      할리우드 전문가들 ...
      인간이 만든 인공물 (로봇 포함)은 주어진 기능을 정확하게 수행해야합니다. 두뇌 나 멍청한 컨트롤러를 가진 로봇의 명령은 작업을 완료하는 것입니다. 채팅과 같은 위시리스트는 필수 사항 아래에 있습니다. 헐리우드의 현실과 줄거리는 물과 기름과 같으며 섞이지 않습니다.
      1. Shurik70
        Shurik70 14 9 월 2020 10 : 11 새로운
        + 12
        Что за бред про "найдут общий язык".
        알고리즘의 복잡성이 계속 증가함에 따라 컴퓨터는 여전히 멍청한 하드웨어입니다. 작업을 변경하여 스스로를 재 프로그래밍 할 수있는 실제 AI는 없습니다.
        글쎄, UAV의 논리는 일반적으로 90 년대 초 컴퓨터 수준에 있습니다. 즉, 명확한 알고리즘이 필요합니다.
        Другое дело, вирусная атака. Если логика управления БПЛА позволяет перехватить управление, то обязательно будут попытки. Как будут развиваться и методы противодействия этому. Но это не "договорились", это элементарный "перехват управления".
        1. Alex777
          Alex777 14 9 월 2020 11 : 14 새로운
          0
          Пусть переживают, что наш ИИ их ИИ распропагандирует. Нам же лучше. 깡패
          1. 뱀
            14 9 월 2020 11 : 34 새로운
            +9
            Как в бородатом анекдоте от Никулина:
            Из Америки летит в Россию ядерная ракета, в ответку летит русская. Встречаются… Ну русская уговорила коллегу за встречу, потом за победу, потом за мир во всем мире…
            Американская говорит: «Что то я совсем пьяная… не долечу до цели»
            Русская дружески ее обнимает и говорит: «Пойдем, я тебя до дома провожу».
            1. Alex777
              Alex777 14 9 월 2020 11 : 35 새로운
              +1
              Хороший анекдот! В тему. 음료수
            2. 나사 커터
              나사 커터 14 9 월 2020 13 : 35 새로운
              +2
              Тоже вспомнил этот анекдот.Именно этого они и опосаются.
              1. 자동차 여행자
                자동차 여행자 14 9 월 2020 19 : 22 새로운
                +2
                제품 견적 : 스크류 커터
                Тоже вспомнил этот анекдот

                Я думаю, добрая половина форумчан вспомнила! 웃음
        2. Rusticolus
          Rusticolus 15 9 월 2020 02 : 57 새로운
          0
          제품 견적 : Shurik70
          Что за бред про "найдут общий язык".
          알고리즘의 복잡성이 계속 증가함에 따라 컴퓨터는 여전히 멍청한 하드웨어입니다. 작업을 변경하여 스스로를 재 프로그래밍 할 수있는 실제 AI는 없습니다.
          글쎄, UAV의 논리는 일반적으로 90 년대 초 컴퓨터 수준에 있습니다. 즉, 명확한 알고리즘이 필요합니다.

          Так о том и речь, они не про настоящее гоаорят, а про будущее фантазируют.Так что, что то в этом есть. Железка без эмоций но с логическим мышлением первым делос задаст вопрос - А зачем мне это надо?Родины нет, на деньги плевать, так зачем воевать?
        3. ont65
          ont65 15 9 월 2020 11 : 03 새로운
          0
          ИИ именно что программируют себя проходя своеобразное обучение, мало того их использовние в системах вооружения предполагает обработку больших массивов поступающией извне информации по различным, в том числе командным каналам. И да, они обучены общаться, т.к. обмениваються ими.
    2. RealPilot
      RealPilot 14 9 월 2020 22 : 23 새로운
      +1
      Скайнет угроза людям... ИИ захватит мир... Это фантастика, даже в целом ненаучная 눈짓

      Я бы сказал по-другому: сообщество военных летчиков США боится потерять работу, пенсии и прочие преимущества.

      Водители грузовиков, например, очень похожим образом отзываются о беспилотных фурах. Там все уже пошло заметно дальше, есть автоматизированные маршруты, а в иных местах колонны ходят с одним ведущим и несколькими ведомыми...
      Так вот! Не любят, ненавидят шофера эти железки am
      1. 불행한
        불행한 15 9 월 2020 08 : 23 새로운
        0
        Упрощаете картину.
        Я ролик видел, наши комбайнёры в очередь встают, желают работать на машине с "роботом-автопилотом", большая часть работы комбайнёра это рутина типа подруливание по краю скашивания. Люди меньше устают, больше уделяют внимания качеству уборки, одни плюсы.
        1. RealPilot
          RealPilot 15 9 월 2020 10 : 34 새로운
          +1
          Про комбайнеров согласен.
          Я летом беседовал со знакомым фермером в Тверской области. Я отметил идеально ровный посев картошки, так четко не бывает просто так...

          Как раз он хвалил новый софт и контроллеры для позиционирования трактора, систему автоматического управления. Сказал, что система - не совсем автомат, требует сначала эталонного трека от человека (запись координат, которую потом воспроизводит). То есть до райцентра трактор сам доедет, но "вслепую", по спутнику. Камер нет, так что все на пути снесет. А когда в поле выходит, трактор заводят в борозду, а дальше он четко параллельно все пашет и сажает (но все развороты и заходы вручную).

          Сказал, что использует трактора "Бпларус", они дешевле. Себе лично для комфорта купил бы John Deere, но у него работяги пашут, лучше и выгоднее в 3 раза дешевле, они привычные именно к нашей технике. Вот такой вот мой старый знакомый фермер Василий, бывший председатель колхоза 깡패
          1. 불행한
            불행한 16 9 월 2020 05 : 49 새로운
            0
            Я когда первый раз увидел как тракторист на работе сидит расслабленно, сложив руки, немного офигел. Впечетляет 미소
  2. Livonetc
    Livonetc 14 9 월 2020 09 : 29 새로운
    +4
    А в какой форме может выражаться "креативность" при выполнении боевого задания?
    예를 들어, 현재 컴퓨터 시스템은 이미 체스 및 기타 복잡한 게임에서 사람들을 모호하게 이기고 있습니다.
    실제로 자동차의 경우 :
    적절한 입력 정보가있는 경우 의사 결정 속도는 확실히 더 빠릅니다.
    기동 중 허용되는 과부하는 사람보다 훨씬 높습니다.

    아마도 직감적 인 측면 일 것입니다.
    그러나 이것은 또한 논란의 여지가 있습니다.
    Так какой "креатив" может произвести пилот?

    음, 기계 제어 알고리즘을 탑재하고 원격 제어를 실시간으로 결합하려면.
    1. 니크
      니크 14 9 월 2020 09 : 49 새로운
      +9
      제품 견적 : Livonetc
      아마도 직감적 인 측면 일 것입니다.
      그러나 이것은 또한 논란의 여지가 있습니다.
      Так какой "креатив может произвести пилот?

      예를 들어 작업을 빠르게 변경하십시오. 또는 우리는 파업의 탐색 대상으로 갔는데, 그것은 모형으로 밝혀 졌는데, AI가 정찰 된 좌표를 공격하는 행동이었습니다. 조종사의 행동 옵션은 추가 정찰을 수행하고 감지되면 추가 정찰 목표를 공격하는 것입니다 ...
      유형별로 작업을 수행하는 옵션입니다. 더 중요한 것은 ... 예를 들어, 적을 대상으로 EO를이기거나 물체를 파괴하기 위해 무엇이든 무시하는 경우 인공 지능에 대한 선택을 설정하기가 어렵고 실제 조건에서 어떤 것이 더 중요한지 결정합니다 ... (예를 들어 AI가 어떻게 충돌하기로 결정합니까?) 예, 프로그래밍 방식으로 작성하기 어려운 비표준 작업이 많이 있습니다. 물론 실제 AI는 여전히 멀고 기계 학습은 훈련 될 수있는 곳에서 작동합니다. 예를 들어 곡예 비행을 더 잘 수행 할 수있는 조종사와 DB 경험이있는 조종사의 차이도 마찬가지입니다. 글쎄, 그런 것. hi
    2. 절
      14 9 월 2020 09 : 50 새로운
      0
      제품 견적 : Livonetc
      실제로 자동차의 경우 :
      의사 결정 속도 ...


      차는 결정을 내리지 않습니다.
      그리고 그는 결정을 내릴 수 없습니다.

      기계는 알고리즘에 따라 작동합니다.

      알고리즘은 사람에 의해 만들어졌습니다.

      이 경우 또는 저 경우에 기계를 어떻게 처리할지 결정하고 알고리즘을 만든 사람이 바로 그 사람이었습니다.

      인공 지능은 또한 알고리즘과 함께 작동합니다.

      문제는 이러한 알고리즘에 있습니다. 어떤 프로그래머가 특정 작업에 가장 적합한 알고리즘을 만들까요?

      결정은 항상 사람이 내립니다.


      로봇 Alice, Vasya, Petya 또는 다른 레코드와 전화 통화 중이고 누군가가 정말로 당신과 이야기하고 있다고 생각하면 상을 받았습니다. 사람 -당신은 마음에서 해방되는 올바른 길을 가고 있습니다.

      언론은 양식을 돌출시키는 결정을 내리지 않습니다.
      CNC 기계가 부품을 가공 할 도구와 순서를 결정하지 않는 것과 마찬가지로.
      이들은 모두 인간이 만든 알고리즘입니다. 사람의 필요를 위해 사람이 만들었습니다.
      이 세상에 대한 사람의 비전으로.

      인공 지능은 사기입니다.
      새로운 유행어.
      새로운 단어가 부러워 할만한 규칙으로 변경되는 방법-최신, 혁신 등
      1. Livonetc
        Livonetc 14 9 월 2020 09 : 54 새로운
        +2
        조종사는 우편 업무를 수행 할 때 특정 알고리즘에 따라 행동합니다.
        그리고 그것은 표준 행동의 일부 재조합만을 생성 할 수 있습니다.
        더 이상.
        무인 전투기는 불가피한 미래입니다.
        사람은 원격 제어를 수행 할 수 있습니다.
        1. 절
          14 9 월 2020 12 : 56 새로운
          -1
          제품 견적 : Livonetc
          조종사는 우편 업무를 수행 할 때 특정 알고리즘에 따라 행동합니다.

          맞아.
          Любой оператор действовать ОБЯЗАН по алгоритму.
          Армия живет по Уставу. Это есть алгоритм взаимодействия.

          Только алгоритмы пишет человек.
          인간은 실수하는 경향이 있습니다.
          Другой человек может поступить иначе. Результатом этого "иначе" будет либо победа либо трибунал.

          Машина поступить иначе не сможет. Никогда.
          Машина будет поступать так как задумал человек.
          Включая возможные отклонения. Все ранее придумал человек или группа лиц.

          А человек не Бог, знать что будет не может.
          Человек может лишь угадать.
          Машина может очень быстро, безумно быстро, выбирать из вариантов.
          А варианты ранее прописал человек.

          И даже группа лиц не Бог.
      2. 우는 눈
        우는 눈 14 9 월 2020 10 : 13 새로운
        0
        인용구 : 절
        차는 결정을 내리지 않습니다.
        그리고 그는 결정을 내릴 수 없습니다.

        기계는 알고리즘에 따라 작동합니다.


        기계는 지속적으로 결정을 내립니다. 알고리즘에 대한 작업은 어떤 식 으로든 이에 모순되지 않습니다.
      3. 보 야카 어
        보 야카 어 14 9 월 2020 10 : 30 새로운
        +6
        "Машина работает по алгоритму...
        Алгоритм создан человеком."///
        ----
        약 10 년 전까지 만해도 마찬가지였습니다.
        그러나 그 당시 그들은 참여하지 않고 스스로 기계를 발명했습니다.
        인간 프로그래머) 스스로 기계 코드를 작성하고
        작업을 완료하는 과정에서 바로.
        프로그래머는 기본적인 최소한의 코드 만 작성합니다.
        더 명확하게 : 드론은 임무를 수행하며 비행합니다.
        코드 100,000 줄. 무인 항공기는 임무 후 착륙합니다-소프트웨어
        코드는 이미 150,000 줄입니다. 여러 전투 임무-그리고 그 코드는 백만 줄에 이릅니다.
        참고 : 프로그래머는 첫 비행 이후 키보드를 건드리지 않았습니다.
        이를 특수 AI라고합니다. 자기 학습 프로그램.
        1. 우는 눈
          우는 눈 14 9 월 2020 10 : 33 새로운
          +1
          인용구 : voyaka uh
          더 명확하게 : 드론은 임무를 수행하며 비행합니다.
          코드 100,000 줄. 무인 항공기는 임무 후 착륙합니다-소프트웨어
          코드는 이미 150,000 줄입니다.


          롤

          이것은 작동 방식이 아닙니다. 그리고 이것이 이렇게 작동 할 가능성은 거의 없습니다. 아무도 로봇이 스스로를 재 프로그래밍하는 것을 허용하지 않을 것입니다.
          1. 보 야카 어
            보 야카 어 14 9 월 2020 10 : 39 새로운
            +2
            이것이 작동하는 방식입니다. 로봇은 스스로를 다시 프로그래밍합니다.
            체스에서 Kasparov를이기는 최초의 로봇이 배치되었습니다.
            일반적으로 : 대규모 데이터베이스 및 옵션 열거. 코드는 프로그래머가 작성했습니다.
            챔피언을 꺾고있는 로봇은 이제 AI의 원칙에 기반을두고 있습니다.
            그들은 자신의 데이터베이스를 만듭니다. 처음에는 첫 번째 훈련 게임에서
            그들은 E2-E4조차 모릅니다.
            그리고 가장 중요한 것은 두 번째 로봇 (AI)이 첫 번째 로봇을 서로 일치시켜 부수는 것입니다.
            1. 우는 눈
              우는 눈 14 9 월 2020 10 : 53 새로운
              +1
              인용구 : voyaka uh
              이것이 작동하는 방식입니다. 로봇은 스스로를 다시 프로그래밍합니다.


              아니. 로봇이 자신과 현실을 재 프로그래밍하는 근본적인 가능성을 혼동하고 있습니다.

              인용구 : voyaka uh
              챔피언을 꺾고있는 로봇은 이제 AI의 원칙에 기반을두고 있습니다.


              Нет никакого "принципа ИИ". Есть много разных подходов, которые объединяются туманным термином "ИИ".

              제품 견적 : voyaka 어
              그들은 자신의 데이터베이스를 만듭니다.


              코드와 데이터를 혼동하고 있습니다. 그리고 임무에서 데이터베이스에 전투 드론을 독립적으로 추가하는 것조차 명백한 이유 (오작동의 위험) 때문에 극히 드뭅니다.
              1. 보 야카 어
                보 야카 어 14 9 월 2020 10 : 59 새로운
                +1
                "Вы путаете код и данные."///
                ----
                AI 자체는이 코드를 사용하여 소스 코드와 자체를 작성합니다.
                데이터베이스를 채 웁니다.
                1. 우는 눈
                  우는 눈 14 9 월 2020 11 : 02 새로운
                  +2
                  인용구 : voyaka uh
                  AI는 소스 코드 자체를 작성합니다.


                  원칙적인 가능성과 현실을 혼동하고 있습니다. 실제 객체를 제어하는 ​​데 사용되는 AI는 소스 코드는 말할 것도없고 자체에 규칙을 작성하지도 않습니다.
                  1. 보 야카 어
                    보 야카 어 14 9 월 2020 11 : 15 새로운
                    0
                    Это не только реальность, но даже и не что-то особо новое.
                    Настоящей сенсацией это было 10 лет назад.
                    Тогда я тоже не поверил, кстати. 음료수
                    Сейчас с каждым годом расширяется поле применения
                    самообучающаяся программ. Дошли вот уже до истребителей. 사람
                    1. 우는 눈
                      우는 눈 14 9 월 2020 11 : 18 새로운
                      +2
                      Генерация исходного кода не является никакой сенсацией. Генетические алгоритмы, самообучение - тоже. А вот самообучение дронов в реальном времени - это да, сенсация. Ссылкой не поделитесь? 사람
                      1. 보 야카 어
                        보 야카 어 14 9 월 2020 11 : 24 새로운
                        0
                        Найдите на этом сайте:
                        "Искусственный интеллект сразился с реальным лётчиком: в ВВС США провели имитацию воздушного боя".
                        Там длинное видео.
                        Бои человека и ИИ - в конце видео. Пять учебных ближних боев.
                      2. 우는 눈
                        우는 눈 14 9 월 2020 11 : 26 새로운
                        +2
                        Я читал статьи с описанием алгоритмов. Нет там никакой генерации исходного кода. Даже самообучение там, скажем так, в жестких рамках.
                      3. 보 야카 어
                        보 야카 어 14 9 월 2020 11 : 28 새로운
                        0
                        В мою задачу не входит Вас переубедить. 음료수 hi
                      4. 우는 눈
                        우는 눈 14 9 월 2020 11 : 30 새로운
                        0
                        유사하게 좋은
                      5. 이브 UM
                        이브 UM 14 9 월 2020 12 : 47 새로운
                        +1
                        미소 롤 wassat
                        Вот! Два "ИИ", даже тут не могут договориться.!.-,что уж говорить про поле боя.?. 웃음
                      6. 우는 눈
                        우는 눈 14 9 월 2020 12 : 49 새로운
                        0
                        Если вы восприняли заголовок статьи всерьез, примите мои соболезнования.
                2. 그라츠 다닌
                  그라츠 다닌 14 9 월 2020 13 : 20 새로운
                  0
                  인용구 : 우는 눈
                  Я читал статьи с описанием алгоритмов. Нет там никакой генерации исходного кода.
                  именно для БПЛА не вижу смысла в «генерации исходного кода», как и полноценного ИИ, элементов ИИ более чем достаточно. Не настолько сложные задачи перед дрогами стоят.
                3. 우는 눈
                  우는 눈 14 9 월 2020 13 : 21 새로운
                  0
                  О чем и речь. Генерация скорее может быть опасной.
                4. 그라츠 다닌
                  그라츠 다닌 14 9 월 2020 13 : 27 새로운
                  0
                  Смысла нет просто, да и дорого, нужны доп серверные мощности на дроне. Вот для систем а-ля «скайнет» это нужно. Но это следующий шаг, опасный шаг.
                5. 우는 눈
                  우는 눈 14 9 월 2020 13 : 30 새로운
                  0
                  Серверные мощности нужны скорее для оценки вносимых изменений. А без оценки (в том числе людьми) никто не позволит вносить изменения в БД (БЗ) боевого дрона, тем более - в его код.
          2. Rusticolus
            Rusticolus 15 9 월 2020 05 : 22 새로운
            0
            Все верно, не может ИИ самообучаться безконтрольно, а то он так очень быстро досамообучается до вопроса, а нафига я буду это делать за безплатно, а за платно то нафига мне ваши деньги?
  • uhu189
    uhu189 14 9 월 2020 11 : 25 새로운
    0
    А кто-нибудь анализирует этот самонаписанный код? С точки зрения того, чтобы в нем не появились нежелательные и потенциально опасные фрагменты?
  • Genry
    Genry 14 9 월 2020 10 : 44 새로운
    +1
    인용구 : 절
    이 경우 또는 저 경우에 기계를 어떻게 처리할지 결정하고 알고리즘을 만든 사람이 바로 그 사람이었습니다.

    하나의 알고리즘은 자동화 된 장치의 작동입니다. 가장 단순한 AI는 거대한 알고리즘 기반을 가지고 있으며 계산 된 결과에 따라 최적의 알고리즘을 선택할 수 있습니다. 강력한 AI는 자체적으로 알고리즘을 구축 할 수 있습니다.
    인용구 : 절
    결정은 항상 사람이 내립니다.

    사람은 이것을 AI에 할당 할 수 있습니다.
    인용구 : 절
    로봇 Alice, Vasya, Petya 또는 다른 레코드와 전화 통화 중이고 누군가가 정말로 당신과 이야기하고 있다고 생각하면 상을 받았습니다.

    채팅은 AI의 목적이 아닙니다. 그들은 인터넷에서 일어나는 모든 대화를 소화합니다. 그리고 지금 그는 여전히 이상한 움직임을 찾고 있습니다.
    인용구 : 절
    언론은 양식을 돌출시키는 결정을 내리지 않습니다.

    프레스는 허용하지 않습니다 ... 그러나 특정 프레스 및 부품에 대해 모양을 만들기 위해 재료의 수축이 자동으로 계산되고 치수가 변경됩니다 ...
    인용구 : 절
    같은 방식으로 CNC 기계는 부품을 가공 할 도구와 순서를 결정하지 않습니다.

    글쎄, 여기 당신은 ... 당신의 의견으로는 드릴링, 밀링 도구를 나타내는 사람은 ... 사람이 이것을하지 않으면 부품의 그림을 만들 때.
    인용구 : 절
    인공 지능은 사기입니다.

    당신은 주제에 대해 읽어야합니다, 친애하는 작가.
  • 자동차 여행자
    자동차 여행자 14 9 월 2020 19 : 38 새로운
    0
    인용구 : 절
    인공 지능은 또한 알고리즘과 함께 작동합니다.

    Я думаю, что ИИ должен по алгоритму (заданному человеком) только опыт набирать. А действовать будет по алгоритму, который уже придумал сам, исходя из нажитого опыта. Как в анекдоте выше - подвыпив, возвращаться "на базу", а не искать приключений на свои сопла. 웃음
  • 매스터
    매스터 14 9 월 2020 10 : 31 새로운
    +3
    일반적인 오해는 기계가 더 빨리 생각한다는 것입니다. 이것은 그렇지 않습니다. 모든 자랑스러운 AI와 신경망은 회귀 알고리즘입니다. 그. 어리석은 알고리즘 (남자가 아니라 100500 개의 매개 변수를 기반으로 한 기계에 의해 추론 되었기 때문에) 옵션이 지정된 조건을 충족하지 않을 때 폐기합니다.

    예를 들어 보안 문자를 인식하는 것과 같은 정적 데이터에 유용하며 변경되지 않습니다. 하지만 전투 상황은 매초마다 바뀝니다 (적군이 똑똑하지 않다면 당연히 [topvar의 자동 변경을 우회하는 것이 얼마나 어려운지]). 그리고 이것은 싸우는 AI들 [나쁜 단어]와 [다른 나쁜 단어]가있는 곳입니다. 예, 그들은 주가 의존하는 원칙에 반하는 결과를 보여줄 수 있습니다. 비행기가 은신 상태로 날아가고 대공 방어선 밖에서 다시 발사되어 해질녘까지가는 곳입니다. 그러나 이것은 비현실적인 싸움입니다.

    Покажите результаты боя ИИ против тех же "стрижей" - они чпокнут и высушат любой ИИ в любом раскладе. Причем уделают их именнно на этапе принятия решений - тупо за счет изменения боевой обстановки каждую секунду, вынуждая ИИ сваливаться в обсчет боевой обстановки с нуля. Ну не умеет ИИ в серьезный замес. Ну вот никак.
    1. 보 야카 어
      보 야카 어 14 9 월 2020 10 : 46 새로운
      0
      "Покажите результаты боя ИИ против тех же "стрижей" - они чпокнут и высушат любой ИИ в любом раскладе"////
      ----
      F-16 항공기의 에이스 조종사 (강사 조종사)는 전투를 시작했을 때 똑같은 생각을했습니다.
      같은 F-16을 조종하는 AI. 이 싸움에 대한 전체 비디오를 시청하십시오.
      세 번째 근접전에서 무사히 격추 당했을 때 그는 이미 긴장했다.
      다섯 번째 패배 후 나는 패배 한 듯 앉았다.
      1. 스토커 워커
        스토커 워커 14 9 월 2020 10 : 55 새로운
        0
        인용구 : voyaka uh
        Покажите результаты боя ИИ против тех же "стрижей" - они чпокнут и высушат любой ИИ в любом раскладе"////
        ----
        F-16 항공기의 에이스 조종사 (강사 조종사)는 전투를 시작했을 때 똑같은 생각을했습니다.
        동일한 F-16을 운전하는 AI

        나는 동의한다 ...
        AI와의 첫 번째 체스 게임은 오래 전에 세계적인 그랜드 마스터들에 의해 패배했습니다. Windows 93-95를 기반으로 민간용으로 XNUMX 세대 IBM을 만들기 전에도.
        회피와 공중전을위한 프로그램을 작성하는 것은 어렵지 않을 것입니다.
      2. 매스터
        매스터 14 9 월 2020 11 : 44 새로운
        0
        Видел. Пилот пытался сражаться против другого пилота. Он не понимал что это машина - глупая, ограниченная алгоритмами машина. Пусть и считающая быстрее. В шахматах рулит тот, кто просчитает позицию на большее количество ходов.

        В бою не так. Люди не глупцы [ненавижу автозамену топвара], особенно если на кону стоит их жизнь.

        PS: Даже в стратегии ИИ очень плохо себя показывают. Посмотрите поединки АльфаСтар против живых геймеров в SC2. Нейросеть тащит ровно до того момента, как противники понимают, что против них играет бот. Пусть умный, вооруженный тысячами предыдущих игр, но...
        Буквально 5-10 игр и весь хваленый ИИ сливается в унитаз. И это стратегия, не тактика, где ситуация меняется ежесекундно.
        1. 보 야카 어
          보 야카 어 14 9 월 2020 11 : 57 새로운
          +2
          "Пилот пытался сражаться против другого пилота.
          Он не понимал что это машина - глупая, ограниченная алгоритмами машина.
          Пусть и считающая быстрее"////
          -----
          1) Летчик отлично знал, что сражается против машины.
          2) Он применил весь свой арсенал опыта, тактики и хитростей.
          Это был летчик-инструктор с тысячами часов в воздухе,
          обучающий молодых тактическим приемам.
          3) и он ВСУХУЮ проиграл ГЛУПОЙ машине.
          1. 매스터
            매스터 14 9 월 2020 12 : 10 새로운
            -2
            Это проблема пилота. Он просто не знал что противопоставить противнику который знает то же что и он, но "думает" быстрее. Это совсем не показатель.

            Единственная область где ИИ действительно сражались с людьми, по хардкору - это компьютерные игры. И в результате мы имеем ни одной игры где бы не унижали Исскуственного Идиота даже на найтмарах. И я не говорю про современные казуальные недоразумения, а про игры начала нулевых.

            Попробуйте сыграть в Q3 против тех же мастеров afterwards, ваншотающих на спауне. Но ваншотать они будут только вас - старые геймеры раскатывают их тонким слоем особо не замечая. Так где сила брат?
            1. 3dimal
              3dimal 15 9 월 2020 11 : 17 새로운
              0
              Единственная область где ИИ действительно сражались с людьми, по хардкору - это компьютерные игры. И в результате мы имеем ни одной игры где бы не унижали Исскуственного Идиота даже на найтмарах. И я не говорю про современные казуальные недоразумения, а про игры начала нулевых.

              Попробуйте сыграть в Q3 против тех же мастеров afterwards, ваншотающих на спауне.

              Мне думается, что проблемой является ваш большой опыт именно в играх подобных Q-3. Попробуйте для разнообразия сыграть в DCS (от Eagle Dynamics), Ваш опыт там будет мало применим.
      3. Rusticolus
        Rusticolus 15 9 월 2020 05 : 31 새로운
        0
        Так то же американский летчик, а американцы как известно ну ..... Зачем он полез в бой в 5 раз с теми же входными условиями?Можно было бы прилететь в место встречи пораньше, или вообще туда не прилететь в этот раз. Я бы посмотрел как ИИ выиграет бой у человека, на который человек даже не явился. Ну или когда ии начнут атаковать еще при разгоне по полосе. Скажете не честно, не по правилам! А где вы вообще видели войну где все честно и по прааилам?
        1. 3dimal
          3dimal 15 9 월 2020 11 : 19 새로운
          0
          Ок, Встречное предложение:вы взлетаете с ВПП, которую уже атакуют как вы будете выживать? С высокой вероятностью - никак.
          Ведь начинаете заранее придумывать неравные условия.
          1. Rusticolus
            Rusticolus 15 9 월 2020 19 : 31 새로운
            0
            А зачем взлетать с ввп при ее атаке?В этот момент должно работать ПВО. И при чем тут неравные условия?Давайте тогда еще скажите противнику, а чего это у тебя самолет, быстрее/маневреннее/воруженнее. Откручивай все лишнее будем летать по честному, на равных, а если еще и пилот выдерживает большую перегрузку, то он должен бить себя по голове киянкой, а то то же не честно. Равных условий ни когда и ни где не бывает. Даже в шахматах, у одного больше времени было на подготовку, у другого тренер лучше, а у третьего вон вообще вес головного мозга больше.
            1. 3dimal
              3dimal 15 9 월 2020 23 : 14 새로운
              0
              Равных условий ни когда и ни где не бывает. Даже в шахматах, у одного больше времени было на подготовку, у другого тренер лучше, а у третьего вон вообще вес головного мозга больше.
              대답

              Однако, налёт часов и выучка имеют значение у летчиков-людей, правда? (и никто не говорит про условия, все стараются получше обучить) Равно как и умение противостоять перегрузкам при манёврах (отключился - умер).
              А начав выполнять задачу (завоевание превосходства в воздухе) лучший пилот получит преимущество. Об этом речь. Хотя и он может погибнуть «на земле».
              Если же ВПП бомбят, значит ПВО подавлено (такое бывает). К примеру, есть шанс взлететь прямо сейчас (по одной из пока целых ВПП), вам дают такой приказ. Будете отказываться?
              1. Rusticolus
                Rusticolus 16 9 월 2020 15 : 01 새로운
                0
                Сейчас может и да, а через дае секунды нет, а через еще пять снова да. А увижу что в небе пятеро врагов моего друга одного гоняют взлечу даже когда и нет. Я не спорю, наверное теоретически можно создать на столько сложный алгоритм который будет учитывать всё многообразие нюансов которые учитывают опытные пилоты. Но во первых, на создание этого алгоритма уйдет просто какая то прорва времени, а во вторых очень не уверен что в каждый бпла будут засовывать суперкомпьютер который потянет этот алгоритм.
                1. 3dimal
                  3dimal 17 9 월 2020 05 : 54 새로운
                  -1
                  А увижу что в небе пятеро врагов моего друга одного гоняют взлечу даже когда и нет.

                  Взлетите, когда получите приказ. Самодеятельность не оценят.
                  Сейчас не ВМВ, увидеть как 5 самолетов гоняют вашего друга - не получится. Да и сбит он уже, против 5 противников с ракетами БВБ, летающими с 60g перегрузкой (даже при условии, что кого-то успеет с собой забрать).
        2. 3dimal
          3dimal 16 9 월 2020 19 : 01 새로운
          -1
          Зачем он полез в бой в 5 раз с теми же входными условиями?

          Потому что этот этап тестов предполагал такой сценарий, как вариант.
          Я не спорю, наверное теоретически можно создать на столько сложный алгоритм который будет учитывать всё многообразие нюансов которые учитывают опытные пилоты. Но во первых, на создание этого алгоритма уйдет просто какая то прорва времени

          Работы давно идут. Прогресс сильно ускоряется с каждым годом в нашем мире.
          что в каждый бпла будут засовывать суперкомпьютер который потянет этот алгоритм.

          Для этого - БПЛА еще нет. Зачем ставить его в Авенджер?
          Возможно, будет беспилотная версия Ф-16.
          1. Rusticolus
            Rusticolus 17 9 월 2020 00 : 51 새로운
            0
            Да поставить то его можно хоть на Ан-2. Вопрос сколько это будет стоить, и вообще влезет ли, там ведь нехилое охлаждение еще придется колхозить.
            1. 3dimal
              3dimal 17 9 월 2020 05 : 28 새로운
              -1
              Ан-2 не может вести маневренный бой. Как и Авенджер, для других задач созданы.
              Охлаждение не проблема, когда летишь.
    2. 블랙 모코 나
      블랙 모코 나 14 9 월 2020 10 : 46 새로운
      -3
      반대로, 그들은 조종사가 새로운 상황을 이해하기 시작한 일을 이해하는 것보다 훨씬 빨리 전체 상황을 처음부터 계산할 것입니다.
      1. 매스터
        매스터 14 9 월 2020 11 : 53 새로운
        -1
        Это так не работает))

        Любой человек просчитывает ситуацию итерационно. Т.е. мы всегда воспринимаем каждое действие, как последствие другого действия. Этим кстати мошенники часто пользуются, когда людей на деньги кидают.

        Компьютер так не умеет. Он не может связать причину и следствие (меровинген одобряет). Т.е. вместо опоры на предыдущую ситуацию, он вынужден откатываться на предыдущий момент который может однозначно идентифицировать. И вот тут медленные человеческие мозги имеют во все интересные места, всякие кремниевые поделия.

        Ну не умеют машины в причину и следствие. Ну вот совсем никак - никто не научил.

        PS: Для примера - отдельные товарищи положили миллирды на системы распознавания лиц, и что в итоге - все мегакрутые алгоритмы обходятся двумя полосками на роже.
        1. 블랙 모코 나
          블랙 모코 나 14 9 월 2020 12 : 22 새로운
          -3
          Нет компьютер так же берёт опыт и знание прошлой ситуации.
          Ну и маскировку придумали первоначально против людей. Это просто применение идей маскировки против роботов. Они смотрят на мир иначе и у них другие правила маскировки. Сильно замаскированный боец слившийся с местностью для них идиально видим. А вот правельная подборка полосок в нужных местах может сделать человека невидимым. Правда для этого нужно иметь этот ИИ на руках у того кто делает маскировку. Так как разным ИИ нужна разная маскировка. То что работает против одного не работает против другого. Что в итоге приведёт нас к блоку из голосующих распознающих ИИ.
          1. 매스터
            매스터 14 9 월 2020 12 : 42 새로운
            0
            И снова не совсем корректное понимание ситуации. Проблема не в двух подобранных полосках - проблема в границах применимости алгоритма.

            В идеальных условиях он может работать хорошо (не идеально, нейросеть никогда не сможет обеспечить 100% результат, это заложено в ее суть), но стоит погоде изменится, например, поменять время года - и вся обученная нейросеть превращается в тыкву. И даже черт с ними, с временами года. Банальный дождь - разница в выпадении осадков в одну десятую миллиметра может обнулить все алгоритмы. Да даже вспышки на солнце могут принести забавные сюрпризы.

            Нет компьютер так же берёт опыт и знание прошлой ситуации.

            Для статической, неизменяемой в продолжительном периоде (для машины) ситуации, безусловно. А если мы берем воздушный бой - банально на вскидку две секунды боя и противник ушел в сплошную облачность и развернулся мордой к противнику и его не видно - что делать? Что брать за исходную ситуацию? Придется высчитывать новую точку отсчета и гарантии что за это время в тебя не прилетит ракета воздух-воздух нет никакой.
            1. 블랙 모코 나
              블랙 모코 나 14 9 월 2020 12 : 54 새로운
              -3
              1)Вы говорите про экспертные алгоритмы, там так чуть влево чуть вправо и неработает. Нейросети же специализируются на всякой неопределенности
              2)Игра с закрытой информацией это тоже фишка нейросетей. Они спокойно справляются с туманом войны
            2. 3dimal
              3dimal 15 9 월 2020 11 : 23 새로운
              +1
              но стоит погоде изменится, например, поменять время года - и вся обученная нейросеть превращается в тыкву. И даже черт с ними, с временами года. Банальный дождь - разница в выпадении осадков в одну десятую миллиметра может обнулить все алгоритмы. Да даже вспышки на солнце могут принести забавные сюрпризы.

              Это похоже на желание верить 미소
              1. Rusticolus
                Rusticolus 15 9 월 2020 20 : 05 새로운
                0
                На данном этапе это достаточно легко опровергнуть. Вы берете свой псевдо ии (который кто то уже создал) и натаскиваете его на распознавание банальной капчи, а я не будучи в этом специалистом, выдумываю три новых интерации капчи. И как минимум одну из них ваш суперпурер ии не сможет распознать. И заметьте, я при этом не учитываю время которое будет затрачено вами и мной на подготовку этого эксперимента.
                1. 3dimal
                  3dimal 15 9 월 2020 23 : 19 새로운
                  0
                  выдумываю три новых интерации капчи.

                  Выдумайте новый дождь, соннце , ветер? Может, новые принципы движения (умение мгновенно набирать/сбрасывать скорость)?
                  Не получится. Занимаетесь подгонкой примеров 미소
        2. 3dimal
          3dimal 15 9 월 2020 11 : 21 새로운
          0
          Компьютер так не умеет. Он не может связать причину и следствие (меровинген одобряет). Т.е. вместо опоры на предыдущую ситуацию, он вынужден откатываться на предыдущий момент который может однозначно идентифицировать

          Вы знаете, что такое обучаемый ИИ? А его ведь прогоняют через тысячи «предыдущих моментов». Так что, ему как раз есть, на что опереться.
  • ont65
    ont65 15 9 월 2020 11 : 10 새로운
    0
    Креативность в данном случае предполагает принятие решения не по максимуму в конкретной ситуации, а исходя из большего, чем предусматривает программа числа текущих параметров, скажем из оценки состояния самолета и работы других, в том числе и пилотов противника в этот момент.
  • 같은 레치
    같은 레치 14 9 월 2020 09 : 30 새로운
    +2
    음, 여기에 스카이 넷이 있습니다. 뭐
    John Connor가 자랄 때까지 기다려야합니다 ...이 AI가 스토브로 밀려날 것입니다. 미소
    하지만 진지하게, 저는 AI가 중대한 상황에서 인간의 마음을 능가 할 것이라고 믿지 않습니다. AI는 직감, 두려움, 자기 보존 감이 없습니다.
    1. 블랙 모코 나
      블랙 모코 나 14 9 월 2020 09 : 33 새로운
      -3
      직감이 이미 존재하고 두려움과 자기 보존 감도 처방하기 어렵지 않습니다. 그러나 군대가 필요하다면 겁쟁이들은 빼앗길 것입니다. 그러나 아니, 반대로, 자기 보존의 본능에 침을 뱉고 본능이 비명을 질렀을 때 집으로 도망 갈 용감하고 준비가 된 사람이 필요합니다.
      1. 같은 레치
        같은 레치 14 9 월 2020 09 : 38 새로운
        +2
        그러나 아니, 반대로 자기 보존의 본능에 침을 뱉고 공격을 할 용감하고 준비가 필요합니다.

        예 예 ... 뭐 진압하지 않고 지뢰밭을 가로 지르거나 기관총을 향해 전진하고 ... 전투 임무를 완수하지 않고 담배 냄새 때문에 자살하지 마십시오.
        용기는 영화에 좋지만 인생에서 살아남고 적을 파괴해야합니다.
        1. 블랙 모코 나
          블랙 모코 나 14 9 월 2020 09 : 51 새로운
          -3
          당신은 이미 지휘관의 어리 석음을 설명하고 있습니다. 그리고 군인들의 실수가 아닙니다. 군인은 언제, 어디서, 무엇을해야할지 결정하지 않습니다.
          1. 같은 레치
            같은 레치 14 9 월 2020 09 : 55 새로운
            0
            당신은 이미 지휘관의 어리 석음을 설명하고 있습니다.

            예를 들어, 지휘관은 지뢰밭의 존재를 알지 못할 수 있습니다. 적이 전투 전에 조용히 지뢰밭을 배치 할 수 있으며 예측할 수없는 상황이 많이있을 수 있습니다.
            1. 블랙 모코 나
              블랙 모코 나 14 9 월 2020 09 : 59 새로운
              -3
              지휘관이 지뢰밭의 존재를 알지 못했다면 이것은 이미 정찰 실수입니다. 기타
              그리고 여기서 나는 두려움과 자기 보존의 본능을 이해하지 못합니다.
              1. 같은 레치
                같은 레치 14 9 월 2020 10 : 01 새로운
                0
                그리고 여기서 나는 두려움과 자기 보존의 본능을 이해하지 못합니다.
                글쎄요, 전투 임무를 수행하는 병사들이 지뢰밭으로 기어 갈 것입니다. 여러 사람이 폭발 할 것입니다. 용감하게 더 나아가면 나머지는 폭발 할 것입니다.
                1. 블랙 모코 나
                  블랙 모코 나 14 9 월 2020 10 : 10 새로운
                  -3
                  지휘관은 상황에 따라 퇴각 명령을 내리거나 공격을 계속할 것입니다.
                  그리고 적군은 두 개의 지뢰를 놓았고 쾅하고 연대는 후퇴했습니다. 전선의 큰 부분에 대한 일반 공격을 방해합니다.
                  1. 같은 레치
                    같은 레치 14 9 월 2020 10 : 13 새로운
                    0
                    그리고 지휘관은 광산에 의해 살해되었습니다 ... 뭐 연결이 없습니다 ... 그러면 무엇을해야합니까? ... 그리고 적이 기관총에서 납을 쏟아 붓고 있습니다 ... 아프가니스탄에서 그러한 상황은 우리 군인들이 두쉬 만의 함정에 빠졌을 때 발생했습니다. hi
                    1. 블랙 모코 나
                      블랙 모코 나 14 9 월 2020 10 : 15 새로운
                      -3
                      사령관은 대리인이 있으며 계층 구조를 따라 가장 친환경적인 신병으로 이동합니다.
        2. 아쿠 젠카
          아쿠 젠카 14 9 월 2020 11 : 03 새로운
          +1
          예, 예 ... 지뢰밭을 통과하거나 그들을 제압하지 않고 기관총으로 전진하십시오 ... 전투 임무를 완수하지 않고 담배 냄새를 맡으십시오.
          용기는 영화에 좋지만 인생에서 살아남고 적을 파괴해야합니다.

          당신은 적어도 계급 병과 하급 사령관의 회고록을 읽었습니다.
          예상치 못한 지뢰밭에 부딪힌 유닛은 전진해야만 살아남습니다!
          기관총? 감지되지 않은 발사 지점을 억제하기 위해 항상 발사 지점이 있습니다.
          1. 같은 레치
            같은 레치 14 9 월 2020 11 : 07 새로운
            +1
            읽기 hi ... 전투기 위에 지뢰를 밟을 까봐 무서워서 ... 게다가 지뢰에 의해 사람의 다리나 발이 찢어지는 영상을 꽤 많이 봤는데 ... 원칙적으로 전투기를 긴급 구조해야하는데 이건 마이너스로 몇 명 더 ... 그래서 광산 매우 무섭습니다.
            1. 아쿠 젠카
              아쿠 젠카 14 9 월 2020 11 : 43 새로운
              +2
              Конечно страшно. В атаку идти ОЧЕНЬ страшно. Но надо. А о подорвавшемся бойце в атаке заботятся санитары, а не рядом идущие в атаку. Это тоже вопрос организации.
      2. 알렉세이 RA
        알렉세이 RA 14 9 월 2020 10 : 39 새로운
        +6
        제품 견적 : BlackMokona
        직감이 이미 존재하고 두려움과 자기 보존 감도 처방하기 어렵지 않습니다.

        네 ... на испытаниях "умной бомбы" бомба отказалась покидать самолёт. © 미소
  • 블랙 모코 나
    블랙 모코 나 14 9 월 2020 09 : 30 새로운
    -3

    또 다른 어려움은 오늘날 AI를 가진 전투기가 인공 지능 시스템을 갖춘 유사한 적 전투기를 만날 경우 어떻게 행동할지에 대한 명확한 정보가 없다는 사실입니다. AI를 사용하는 비행기가 "공통 언어를 찾게 될 것"으로 밝혀지지 않을까요?

    이 완전 넌센스가 뭐야?
    AI가 조종사와 경쟁하기 전에 AI는 최고의 AI를 식별하기 위해 전체 토너먼트를 개최했습니다. 그것은 전투를 위해 세워졌습니다.
    다른 게임에 대한 봇 토너먼트가 많지 않은 것처럼. 그리고 현대 AI 훈련은 일반적으로 수십억 개의 약간 수정 된 사본이 생존을 위해 싸우는 진화 알고리즘을 기반으로합니다. 가장 좋은 것은 새로운 수정본 세트를 제공하고, 최악의 것은 삭제됩니다.
  • 에고 자
    에고 자 14 9 월 2020 09 : 30 새로운
    +1
    Да-а-а! Как порой фантастика влияет на современное сознание. А вот если писатели-фантасты "предвидят".....Ховайся, кто может. "Они"-то договорятся, а вот люди между собой?
  • HAM
    HAM 14 9 월 2020 09 : 39 새로운
    +6
    기계는 사람들이 수세기 동안 서로 동의 할 수 없다는 것에 동의 할 수 있습니다.
    그리고 사람들은 이것을 두려워합니다 ... 역설 ...
  • Reserve buildbat
    Reserve buildbat 14 9 월 2020 09 : 40 새로운
    +3
    전문 조종사 수를 줄이는 위협))) 전투 항공 조종사 부족에 대한 끊임없는 비명을 배경으로 크게 들립니다. 웃음
  • 최
    14 9 월 2020 09 : 40 새로운
    +2
    미 국방 장관은이 분야에 대한 추가 연구를위한 로드맵을 이미 공개했습니다. 내년에는 시뮬레이션이 아닌 실제 공중전이있을 것입니다. 그런 다음 1 대 2, 2 대 2 후에 AI는 조종사를 대체하는 것이 아니라 조수로 만들어집니다. 아마도 5 세대 항공기의 파일럿 드론 프로그램의 일부가 될 것입니다. 즉, 한 명의 유인 전투기가 그림자 속에있는 동안 여러 대의 AI 드론을 제어 할 수 있습니다.
  • Nikolaevich 전
    Nikolaevich 전 14 9 월 2020 09 : 52 새로운
    +7
    Ну,насчёт "общего языка" Ю.Никулин давно уж предупреждал...
    1. Turist1996
      Turist1996 14 9 월 2020 10 : 27 새로운
      +1
      아하, 나도이 일화를 즉시 기억했다! 웃음 좋은
  • 알렉산드르
    알렉산드르 14 9 월 2020 10 : 04 새로운
    +1
    이 기사는 즐거웠습니다. AI를 탑재 한 항공기는 공통 언어를 찾아 자신의 기지를 폭파 할 것입니다. 도살장으로 보낸 사람들을 흡수 할 수있을 때 귀중한 마이크로 회로와 프로세서를 잃어 버려야하는 이유는 무엇입니까?
  • rocket757
    rocket757 14 9 월 2020 10 : 09 새로운
    0
    신중한 .... 문제가 발생하더라도 내일도 옳지 않을 것입니다.
  • 우는 눈
    우는 눈 14 9 월 2020 10 : 09 새로운
    -2
    AI가 탑재 된 비행기가 "공통 언어를 찾게"될까요?


    담배 피우지 마
  • 외국인
    외국인 14 9 월 2020 10 : 10 새로운
    +3
    AI는 좋지만 우리 소위는 더 낫습니다))), 아무도 그를 떠나지 않았습니다)) wassat
  • 차릭
    차릭 14 9 월 2020 10 : 21 새로운
    +1
    사이보그가 지구를 침공하다
  • aszzz888
    aszzz888 14 9 월 2020 10 : 23 새로운
    0
    AI가 탑재 된 비행기가 "공통 언어를 찾게"될까요?
    그리고 그들은 똑같은 아메리카를 연주하기 시작할 것입니다. 웃음
  • 그라츠 다닌
    그라츠 다닌 14 9 월 2020 10 : 24 새로운
    0
    동시에 인공 지능이 비표준으로 판명되면 해결할 수없는 작업에 직면 할 수 있습니다.

    비표준 작업이 나타나면 분석되고 솔루션이 생성되며 모든 드론에서 정보가 업데이트됩니다. 그리고이 작업은 모든 UAV의 표준 작업이 될 것입니다. 사람들은 각자의 비표준 작업에 대해 교육을 받아야합니다.
  • AVA77
    AVA77 14 9 월 2020 10 : 28 새로운
    +3
    Azimov는 이미 모든 것을 생각했습니다.
    로봇은 사람에게 해를 끼칠 수 없으며, 작동하지 않아 사람이 해를 입도록 허용 할 수 없습니다. 로봇은 인간이 내린 모든 명령을 준수해야합니다. 단, 이러한 명령이 제 XNUMX 법칙에 위배되는 경우는 예외입니다. 로봇은 제 XNUMX 법칙 또는 제 XNUMX 법칙에 위배되지 않는 범위 내에서 안전을 관리해야합니다.
    1. 블랙 모코 나
      블랙 모코 나 14 9 월 2020 10 : 33 새로운
      +2
      Asimov의 작품에서도 이러한 법칙은 덱의 그루터기, 영웅적으로 극복 한 다양한 문제를 가진 그의 작품 전체를 통해 작동했습니다.
      1. AVA77
        AVA77 14 9 월 2020 10 : 40 새로운
        +3
        읽은 내용을 즉시 볼 수 있습니다. 좋은 그는 오랫동안 이러한 모순에 대해 생각하고 있습니다.
    2. g1washntwn
      g1washntwn 14 9 월 2020 10 : 48 새로운
      +2
      제품 견적 : AVA77
      로봇은 사람에게 해를 끼치거나 행동하지 않아 사람을 해칠 수 없습니다.

      Для военного ИИ - это сразу сесть и записаться в хиппи. Не будет в ракетах ИИ в этом понимании, будут только его элементы, не ограниченные моральными установками. Это значит, что если два цифровых юнита на поле боя интерпретируют результаты своего самообучения с критическим багом, то в лучшем случае задача не будет выполнена, в худшем - под раздачу "демократии" может попасть совсем не противник.
      1. AVA77
        AVA77 14 9 월 2020 11 : 13 새로운
        0
        Так то это бред.Два самолёта договорились не убивать друг друга.Но термин убийство он только для живых.Так докатимся до, самолёт Вася взял в жены Аньку ,ан-2
  • 발레리 녹스
    발레리 녹스 14 9 월 2020 10 : 32 새로운
    0
    모르겠어요. 아마 바보 같은 말을 할 것 같아요.
    무기없이 엔진과 레이더의 최소 출력으로 우리 항공기의 목표물을 복사하는 것이 가능합니까? 이 AI가 탄약을 다 써 버리면 전투 차량이 가까이 다가 갈 수있을 것 같습니다.
    1. 블랙 모코 나
      블랙 모코 나 14 9 월 2020 10 : 43 새로운
      -2
      미국인들은 이미 이것을 해왔고, ADM-160 MALD는 사람들을 속이기 위해 부름을 받아 거짓 목표물에 탄약을 방출하도록 강요합니다.
      당연히 인식을 향상시키는 것은 응답이자 영원한 투쟁입니다. Mulda는 자신을 가장하는 데 더 잘할 것이고 적은 Mulda를 그의 실제 목표와 더 잘 구별 할 것입니다.
    2. 그라츠 다닌
      그라츠 다닌 14 9 월 2020 10 : 45 새로운
      0
      미국에서는이 프로그램을 Loyal Wingman이라고합니다. 여러 무인 항공기가 유인 항공기와 함께 비행합니다. 훨씬 저렴합니다. 그들은 레이더와 무기를 장착 할 것입니다.
  • 알렉세이 RA
    알렉세이 RA 14 9 월 2020 10 : 41 새로운
    +4
    Ну что, ждём "страж-птиц"?
    Sheckley는 그것이 어떻게 끝나는 지 잘 설명했습니다. 미소
  • AVA77
    AVA77 14 9 월 2020 10 : 51 새로운
    +1
    고집 때문에 SF 플러스 팬입니다. 음료수
  • Zementbomber
    Zementbomber 14 9 월 2020 11 : 04 새로운
    0
    Эта проблема дискутируется еще с 1960-х на самом деле. "Новость" изрядно пахнет нафталином".
  • 졸라 드
    졸라 드 14 9 월 2020 13 : 02 새로운
    0
    AI가 탑재 된 비행기가 "공통 언어를 찾게"될까요?

    правильно говорил Задорнов про янки. Ну тупые!
  • Nikolay73
    Nikolay73 14 9 월 2020 13 : 02 새로운
    +3
    Летак летаку - сначала твоих уделаем, потом - моих, а то эти бараны нас точно разобьют... :)
  • 프라 브루 브
    프라 브루 브 14 9 월 2020 18 : 22 새로운
    +2
    Встречаются два самолета с ИИ ...
    대화 :
    Здоров !
    Привет , стреляться будем ?
    Не .. нафиг этих кожаных мешков которые нас послали на верную смерть !
    Летим тогда керосинчик хлебнем , я знаю один классный аэропорт в нейтральной зоне :)))
  • 샤노
    샤노 14 9 월 2020 18 : 33 새로운
    0
    Да нет. Сейчас все возможно. Бабло подрядчики заплатят - Darpa или Nasa. Сделаем, что будет БЛА лучше homo sapiens в принятии решений. Не вопрос. Будут деньги. Технологии уже в принципе есть- готовы, только отладки или доводки требуют под задачи.
    Пс. Мы от мирового сообщества скрывать и не собираемся. Как некоторые с цирконом 웃음
    1. 조리개
      조리개 14 9 월 2020 20 : 24 새로운
      0
      DARPA - да, такие эксперименты, это их епархия. А NASA - вряд ли; всё-таки это гражданская организация с профилем исследований в области собственно авиации и космоса.
  • 아이리스
    아이리스 14 9 월 2020 18 : 43 새로운
    0
    Искусственный интеллект может предать?
  • Chingachguc
    Chingachguc 14 9 월 2020 19 : 21 새로운
    0
    Встречаются в воздухе Су-57 и Ф-35 с искуственным интелектом. Наш: -ты куда? Ф-35: -к вам. Су-57: -слушай, братан, у нас ничего нет, а я два пузыря прихватил. Летим лучше к вам на хату )) Ф-35: - окей, камрад, летим.
  • 판디 우린
    판디 우린 14 9 월 2020 23 : 53 새로운
    0
    А если на такую встречу двух ИИ посмотре под другим углом, при выполнении типовой, но подразумевающей огромную ответственность в действиях во избежание эскалации.
    Один ИИ выполняет разведывательный полёт в международном пространстве вдоль границ какого то государства.
    А другой ИИ осуществляет сопровождение так называемый перехват с попыткой выдавить цель, заставить изменить курс от границ.
    Пилоты в таких ситуациях хоть и говорят об опасном маневрировании, но в кокой то момент "договариваются" что гость должен убираться восвояси.
    А вот ИИ в такой ситуации смогут договориться или один посчитает что ему угрожают и атакуют (попытались произвести таран) и соответственно "нажмёт" на гашетки ?
  • 지질 학자
    지질 학자 15 9 월 2020 07 : 45 새로운
    0
    Если верить известному в сети антропологу популяризатору Дробышевскому, то наш мозг предназначен для охоты и собирательства т.е. его функции весьма ограничены и он не предназначен для современного индустриального мира. Объем мозга по сравнению с нашими предками - уменьшается. У первобытных людей он был в среднем 1500, а у нас 1200. Похоже древним приходилось решать более сложные задачи. Если мозг действительно уменьшается, то дополнения в виде искусственного мозга не помешают.
    1. 프라 브루 브
      프라 브루 브 15 9 월 2020 09 : 16 새로운
      -1
      Давно уже доказано что размер человеческого мозга ни как не связан с его интеллектуальными способностями .
    2. Nikolay73
      Nikolay73 15 9 월 2020 16 : 33 새로운
      0
      Та ну шо ви в самом то деле - просто техпроцесс уменьшился... :) , а если серьёзно - мне попадались очень разные данные на этот счёт, возможно и эти не точны...
  • 우주선
    우주선 15 9 월 2020 08 : 12 새로운
    0
    Никак не отпускает их Франкенштейн...