과학자들은 인공 지능을 갖춘 자율 무기 시스템에 반대해 왔습니다.

수천명의 과학자, 로봇 분야의 전문가, 공인 인물 및 기업가들은 공개 서한에 서명하여 완전한 자율 전투 단지 개발을 포기할 것을 촉구했다. 대중 역학 비영리 단체 Future of Life의 인터넷 자원과 관련하여 인공 지능 시스템 구축과 관련된 인류에 대한 위협을 연구합니다.




"인류는 발사에 대한 자신의 결정을 내릴 수있는 완전 자율 전투 시스템을 만들기 직전에 있습니다. 방위 산업체가 이러한 시스템을 개발하는 데 집중한다면 치명적인 결과를 피할 수는 없다 "고 성명서는 밝혔다.

"그러한 장치는 필연적으로 암시장에 나타나 테러리스트, 독재자 및 극단 주의자들의 손에 넘어갈 것입니다."저자는 이렇게 적었다. "인공 지능을 갖춘 군용 장비는 암살, 테러 행위 및 사회 불안정화와 국가의 헌법 질서 파괴를 목적으로하는 작전에 이상적입니다."
사용한 사진 :
http://www.globallookpress.com/
Ctrl 키 엔터 버튼

실수로 눈치 챘다. 텍스트를 강조 표시하고를 누릅니다. Ctrl + Enter를

126 댓글
정보
독자 여러분, 출판물에 대한 의견을 남기려면 등록하십시오.

зже зарегистрированы? Войти

  1. fox21h 30 7 월 2015 17 : 45 새로운
    • 10
    • 0
    + 10
    예, 영화는 이미 촬영되었습니다)
    1. Sensatus 30 7 월 2015 17 : 46 새로운
      • 26
      • 0
      + 26
      Если уж у естественного интеллекта в последнее время не хватает мозгов все чаще и чаще, то что говорить об искусственном? Логичное решение.

      И по известной традиции ученые теперь будут просить деньги на противодействие искусственному интеллекту. Причем вдвое большие, чем на его разработку.
      1. 바이 코 누르 30 7 월 2015 17 : 53 새로운
        • 25
        • 0
        + 25
        Да это оболванивание болванов!
        나는 엔지니어 - 전자 장비 (프로그래머)로 말한다. - 인공 지능이 될 수 없다 !!!
        ELECTRONIC :
        - ВСЯ электроника строится на ТТЛ (транзисторно-транзисторнои логике)(есть, конечно и другие, напр. ттлш, но эта оптимальна!) и у транзистора не может вырасти сама-собои четвёртая нога (спр. -у транзистора их - 3 (база, эмиттер, коллектор);
        ПО ПРОГРАММИРОВАНИЮ:
        ЛЮБОИ робот, машина, и т.п. деиствуют по программе, написаннои, заложеннои человеком! По алгоритму! сама программа не может решить что еи делать в том или ином случае, только согласно заложенному человеком алгоритму! самообучение -НЕВОЗМОЖНО!!!! Только в качестве запоминания, слов образов, но -НЕ ПРИНЯТИЕ РЕШЕНИЯ!!!!!!!!
        1. 바이 코 누르 30 7 월 2015 18 : 10 새로운
          • 5
          • 0
          +5
          인텔리전트 - 감각 기반 (비 촉감, 로봇이 가질 수도 있음), 감정, 인상감, 기계가 가지는 것은 불가능합니다 !!!
          뱀파이어, 좀비 종말과 같은 미국의 공포 이야기!
          그들은 심지어 좀비와의 싸움에서 학교를 가지고 있습니다! 공식적으로 !!!
          있음 - DRUMS !!!
          1. 30 7 월 2015 18 : 34 새로운
            • 9
            • 0
            +9
            우주 비행사에있는 사람들을 위해 :)
            1. 예를 들어, C-300, Top-M1 등의 시스템이 있습니다. 자동 모드에서는 특정 대상의 분류 및 포격을 결정합니다. 그리고 포격.
            2. NEUROSET 같은 것이 있습니다. 당신은 결코 마음이 없습니다. 그들은 독학합니다.
            1. 바이 코 누르 30 7 월 2015 18 : 45 새로운
              • 9
              • 0
              +9
              Для тех, кто на бронепоезде с бронешторами!:
              Б...! Задаитесь простым вопросом: ЗАЧЕМ им САМООБУЧАТЬСЯ???? КАКАЯ ВЫГОДА? Человек, зверь (мозг, интеллект) что-либо делает для того, что бы ему было вкусно, красиво, тепло, сухо, комфортно, радостно, грустно, мягко, глубоко и т.д. и т.п.! А машине - это - на чего????

              예를 들어, C-300, Top-M1 등의 시스템이 있습니다. 자동 모드에서는 특정 대상의 분류 및 포격을 결정합니다. 그리고 포격.
              - согласно заложенного в них ЧЕЛОВЕКОМ АЛГОРИТМА(написаннои ЧЕЛОВЕКОМ ПРОГРАММЕ)!!!!!

              Есть еще такие вещи как НЕЙРОСЕТИ. Вы нипаверите- они самообучаются.

              ОНИ САМОЗАПОМИНАЮТ!!!
              1. 30 7 월 2015 20 : 55 새로운
                • 9
                • 0
                +9
                지난 세기 우주 비행사의 벙커에 있던 사람들에게는 :))

                자신에게 간단한 질문을하십시오 : 왜 자신을 배울 것인가 ????

                나는 자아 - 학습 자기 - 신경 네트워크를 원했기 때문에 나는 묻지 않을 것이다! 깡패

                Likbez : 자기 학습, 자신의 행동이나 논리적 장치를 수정할 수있는 능력, 얻은 경험을 고려함. 자체 학습 프로그램은 코드를 변경할 수 있습니다 (바보 같은 예는 바이러스입니다). 신경망은 가중치와 논리적 연결의 수를 변화시킵니다. 이것은 "트랜지스터로 새로운 다리를 성장시키는"주제에 관한 것입니다 ...
                그건 그렇고, "SELF-RECORDING"은 잘못 구성된 신경망 일뿐입니다. 눈짓

                PS.
                - 지난 세기 이래로 네트워크에서)) 자기 학습 프로그램의 수가 엄청나게 증가했습니다 (Google에 물어보십시오 - 그는 누구입니까?))
                - VO 포럼 참가자 중 일부는 AI 요소가있는 동일한 봇일 수 있다는 사실을 생각해보십시오. 눈짓 신중하게 생각하면 트랜지스터의 다리가 타 올 것입니다. 웃음
                1. Dikson 30 7 월 2015 21 : 41 새로운
                  • 7
                  • 0
                  +7
                  стопудово половина маршалов здесь -боты!!! особенно те, кто лозунгами отписывается..
                2. 바이 코 누르 30 7 월 2015 21 : 58 새로운
                  • 0
                  • 0
                  0
                  Самообучающаяся программа может менять свой код

                  УХ! Как сказал, не помню кто, но Вы говорите, что можете сделать себе операцию на головном мозге!
                  Я САМ ПРОГРАММИРОВАЛ САМООБУЧАЮЩИЕСЯ НЕЙРОСЕТИ
                  А чё же ты не спрограммировал такую сеть, чтобы ты мог только кнопку нажать, и ОНА стала бы программировать самообучающуюся сеть, а ты - кофе пил бы!
                  УХ!
                  ЛИКБЕЗ!
                  УМНИКИ!
                  СТОПУДОВЫЕ!
                  1. 30 7 월 2015 23 : 53 새로운
                    • 2
                    • 0
                    +2

                    그리고 버튼을 누를 수 있도록 네트워크를 프로그래밍하지 않은 이유는 무엇입니까? 그러면 IT 부서에서 자체 학습 네트워크를 프로그래밍하기 시작합니다.

                    너 농담 한 것 같니? 그냥 해보 라구. 그리고 이미 행동했다. 자기 조직화 신경망 아래로 그리고 문제는 시작되었다.

                    그러나 뉴런과 축색의 네트워크는 GRAIN 유형의 논리를 가지고 있으므로 다음과 같은 차이점을 이해하기 위해 체계적으로 구성하지 않습니다.
                    - 인간 지능 \ 이유와 AI, 자율 무기 시스템에 적용 가능
                    - 유기 신경망 (뇌) - 그리고 프로그램 적으로 논리적이다.

                    그럼에도 불구하고 오늘날 귀하의 행동 모델은 수정되었습니다. 개인 신경 네트워크 자기 학습, "신경 네트워크"와 "iskin"과 같은 새로운 개념을 배웠습니다 -에 의해 뉴런 간의 새로운 연결 형성.

                    동시에,주의를 기울이십시오, 처리와 가동없이 보증되었다!

                    어쩌면 그것이 가장 좋은 효과를 낼 수도 있지만 .. 웃음 웃음 웃음
                    1. 바이 코 누르 31 7 월 2015 00 : 36 새로운
                      • 0
                      • 0
                      0
                      Ты думаешь, что удачно пошутил? Как раз над этим работают.
                      Я думаю, удачно сказал!
                      Вопрос: Кто работает, где работают! Как-будто Вы знаете что-то сверхмегаультрасекретное++! Вы, случаино не из 13/1 отдела РСХА?
                      Я САМ ПРОГРАММИРОВАЛ САМООБУЧАЮЩИЕСЯ НЕЙРОСЕТИ
                      А чё забросили? Выгнали? "чёрную метку" выдали! Чё-то плохо спрограммировали? И теперь - "ОНА" самообучилась и ищет Вас по всему миру, чтобы убить?! А Вы тут, на военном обозрении - следы запутываете?
                      웃음 wassat 빌레이
                      _________не обижаЙтесь, пожалуЙста! Просто пошутил!
                      1. 31 7 월 2015 01 : 07 새로운
                        • 1
                        • 0
                        +1
                        등급 업그레이드 프로그램을 사용하여 이스라엘 봇이 어떻게 기분을 상하게 할 수 있습니까?
                        웃음
                      2. Dikson 31 7 월 2015 01 : 09 새로운
                        • 0
                        • 0
                        0
                        О?! Таки я в шоке от услышанного..
                      3. 31 7 월 2015 01 : 23 새로운
                        • 1
                        • 0
                        +1
                        매트릭스, 네오 깡패
            2. 아콘 31 7 월 2015 06 : 00 새로운
              • 0
              • 0
              0
              나는 생물학적 신경망이 본질적으로 동일한 컴퓨터라고 덧붙일 것이다. 그러나 그들이 감정과 물건에 대해 말한 것은 인공 지능을 추가하는 것이 가능합니다.
              1. leon1204id 31 7 월 2015 17 : 42 새로운
                • 0
                • 0
                0
                Таких старателей-пруд-пруди.Проекты ИИ все еще имитируют поведение человека.
        2. 알렉세이 _K 30 7 월 2015 22 : 52 새로운
          • 6
          • 0
          +6
          제품 견적 : Lance
          예를 들어, C-300, Top-M1 등의 시스템이 있습니다. 자동 모드에서는 특정 대상의 분류 및 포격을 결정합니다. 그리고 포격.

          이 예제는 완전히 성공하지 못했습니다. 이러한 시스템은 자체 프로그래밍하지 않으며 제어 프로그램에없는 결정을 내리지 않습니다.
          1. 31 7 월 2015 05 : 32 새로운
            • 0
            • 0
            0
            꽤 성공적이지 않은 용어의 문맥에서 결정은 "결정"을 내린다.
            결정의 결과에 대해 책임을 질 수 있습니다.

            매우 똑같은 결정 또는 생성자 또는 선택됨 준비에서. 그러나 인간에서도 99 % 솔루션 - 패턴 화 된. 용어와 효과의 1 % 차이를 찾습니다.

            예를 들어 시스템이 언제 독립하여 파일럿 또는 승객과 함께 항공기를 파괴하기로 결정했습니다.
      2. Stanislaus 30 7 월 2015 18 : 51 새로운
        • 3
        • 0
        +3
        제품 견적 : 바이 코 누르
        인텔리전스 - 감각을 기반으로 한 의사 결정
        Очень спорное утверждение. Скорее, на основе ценностей, представлений о должном, а они иногда вступают в конфликт с эмоциями, тогда воля "продавливает" решение интеллекта и иногда он побеждает в этом конфликте. Иначе бы человек не смог преодолевать чувства страха, зависти и т.п.
        А про искусственный интеллект - поддерживаю полностью.
        1. Dikson 31 7 월 2015 01 : 13 새로운
          • 0
          • 0
          0
          Станислав.. )) а как же дедушка Фрейд с его постулатами, не говоря уже о Юнге? любое решение интеллекта побеждается элементарным чувством голода или инстинктом саомосохранения.. Хотя конфликт с чувством долга безусловно есть..
          1. 아콘 31 7 월 2015 06 : 06 새로운
            • 1
            • 0
            +1
            이는 기계에 마스터 자체 보존 프로그램을 제공해야 함을 의미합니다. 자동차 소유자를 보호하기위한 우선 순위 설정
          2. Stanislaus 31 7 월 2015 10 : 12 새로운
            • 0
            • 0
            0
            제품 견적 : Dikson
            а как же дедушка Фрейд с его постулатами
            Околонаучный аферист и психопат.
            제품 견적 : Dikson
            не говоря уже о Юнге
            У Юнга человек находит основания своих интеллектуальных решений в культуре, а не в организме. Культура же, согласно Юнгу, может быть либо здоровой, воспитывающей эмоции соответственно символическим смыслам архетипов (таковы все традиционные культуры), либо "шизофреногенной", разрывающей связь между эмоциональной и интеллектуальной жизнью человека, какую имеет современный Запад. С Юнгом никаких противоречий нет.
      3. 아란 30 7 월 2015 20 : 42 새로운
        • 7
        • 0
        +7
        제품 견적 : 바이 코 누르
        인텔리전트 - 감각 기반 (비 촉감, 로봇이 가질 수도 있음), 감정, 인상감, 기계가 가지는 것은 불가능합니다 !!!
        뱀파이어, 좀비 종말과 같은 미국의 공포 이야기!
        그들은 심지어 좀비와의 싸움에서 학교를 가지고 있습니다! 공식적으로 !!!
        있음 - DRUMS !!!


        바이 코 누르, 끓이지 마! 나는 완전히 동의한다! 지금은 양복을 만드는 것이 불가능합니다! 심지어 소위 자체 학습 시스템이라 할지라도 수집 된 통계 자료를 처리 할 수있는 프로그램이지만 프로그래머가 정한 알고리즘에 따릅니다! 독립적 인 화재 발견에 대한 결정을 내릴 수있는 파이팅 시스템은 현재 아무런 문제도 일으키지 않습니다. 사람이 최종 결정을 내릴 수있는 권리, 즉 버튼을 누를 권리가 있습니다. 그러나 이것은 iskin이 아닙니다!

        기계, 그리고 본질적으로 프로그램은 그 자체가 개인, 성격으로서 그 자체를 실현할 때 주장이 될 것입니다! 귀하의 질문을하고 답변을 찾기 시작합니다!
        그런 다음 Sarah Connor를 긴급히 찾아서 아이를 키울 필요가 있습니다. 웃음
        1. 바이 코 누르 30 7 월 2015 22 : 16 새로운
          • 0
          • 0
          0
          Збазибо, узбагоил! А то я - чёт разошёлся! просто моя тема! Я в курсе и наслаждаюсь!
          Тем более, тролли лезут, неиропрограммисты фашингтона! 웃음
        2. 미스 닥 30 7 월 2015 22 : 52 새로운
          • 1
          • 0
          +1
          Читаешь Вас, и душой радуешься,отдыхаешь...
          1. 삼일 닉스 31 7 월 2015 00 : 40 새로운
            • 0
            • 0
            0
            И чего разорались - то? В споре ничего не рождается, кроме вражды. А по поводу электронного мозга мы вряд ли в курсе того, что происходит в ведущих мировых лабораториях. Эти сумасшедшие ученые, в погоне за утолением собственного тщеславия, могут создать кого угодно - даже огнедышащего дракона с искусственными мозгами. Не знаю, как насчет мыслящего робота, а попытки создавать боевых монстров - были в США.
      4. 북의 30 7 월 2015 21 : 15 새로운
        • 0
        • 0
        0
        Старый, с капса то слезь, чего разорался то...
      5. dark_flame 30 7 월 2015 22 : 36 새로운
        • 1
        • 0
        +1
        제품 견적 : 바이 코 누르
        ИНТЕЛЛЕКТ - ПРИНЯТИЕ РЕШЕНИЯ НА ОСНОВЕ ЧУВСТВ (не тактильных, которые типа могут быть у робота),

        Не факт человечество до сих пор не знает как я, вы и все оставшиеся люди складывают из букв слова , из слов предложения , а из предложений текст. А уж принятие решений и то как действует человек тем более. Создать искусственный интеллект проще простого с практической точки зрения, вы можете со мной не согласится, но далее я объясню почему это так. Скажите запрограммировать динамометр легко, по мне да. Почему? Потому что, мы теоретически знаем как он устроен и функционирует, поэтому с практической точки зрения это дело техники. С интеллектом возникает проблема, мы не знаем как он работает, мы не знаем что мы хотим скопировать. Мы хотим сделать что-то, а что мы хотим сделать мы не знаем. А вот когда мы поймем что такое интеллект и как он функционирует, запихнуть его в компьютер не составит труда, точно также как и с динамометром.
      6. 알렉세이 _K 30 7 월 2015 22 : 48 새로운
        • 0
        • 0
        0
        제품 견적 : 바이 코 누르
        인텔리전스 - 감각을 기반으로 한 의사 결정

        전자 시스템에서는 감정이 매우 어렵습니다. 그러나 FEELINGS는 외부 세계의 살아있는 존재들로부터 정보를 얻는 도구입니다. 현대 기술은 외부 세계로부터 정보를 완벽하게받습니다. 최신 기술로 얻은 정보의 간략한 목록 : 이미지, 온도, 압력, 가스 구성, 재료 구성, 전자파 복사 및 다른 주파수에서의 복사 등. 센서 및 자체 교육 프로그램 및 자동 설계 시스템의 초소형 화를위한 경우는 계속됩니다. 나는 강력한 에너지 원의 소형화를 추가하는 것을 잊었다.
        쥘 베른 (Jules Verne) 당시에는 잠수함 크기의 잠수함이 없었고, 항공기도 없었고, 달에 비행기가 있었으며, 경주 용 자동차가 있었으며, 매우 중요한 핵 폭발 (Bacup Island의 비밀 또는 국토의 국기)도 없었습니다.
        기술 진보를 이해합니다. 누군가가 아이디어를 내놓은 다음 50-100 년을 거치면서이 아이디어는 먼저 원시적 인 형태로 구현 된 다음 개선 된 형태로 구체화됩니다.
        1. 바이 코 누르 31 7 월 2015 00 : 04 새로운
          • 1
          • 0
          +1
          ААААААА!!!!!!!!
          Современная техника прекрасно получает информацию из окружающего мира.
          ...
          ...температура...
          НУ, получила современная техника информацию, что температура - 38! И что?
          Далее - в её программе (НАПИСАННОИ ЧЕЛОВЕКОМ!) сказано - включить кондиционер и принести ЧЕЛОВЕКУ таблетку аспирина! А машине - НАКЛАСТЬ - хоть 300 градусов! Хотя (ЧЕЛОВЕКОМ) в программе указано - 300 градусов - надо СВАЛИВАТЬ!!! (- это -огонь!)
          И - машина, начнёт сваливать!!!
          그리고 그것이 쓰여지지 않았다면, 그 자리에 서 있었을 것입니다! 고통에서 비명조차하지 않을 것이다!
          1. 아콘 31 7 월 2015 06 : 18 새로운
            • 1
            • 0
            +1
            그런데 온도와 통증에 민감한 사람들이 있습니다. 그들은 단순히 유기적 인 뇌 질환으로 인해 어떠한 통증이나 온도도 느끼지 않으므로 화재로부터 벗어날 수 없습니다. 그러나 그들은 로봇이 아닙니다. 그들은 인간이다. 또한 두려움이 전혀없는 사람도 있습니다.
            여기 예를 들어.
            그 사람은 일련의 프로그램을 가진 동일한 기계입니다.
            https://ru.wikipedia.org/wiki/%D0%91%D0%BE%D0%BB%D0%B5%D0%B7%D0%BD%D1%8C_%D0%A3%
            D1%80%D0%B1%D0%B0%D1%85%D0%B0_%E2%80%94_%D0%92%D0%B8%D1%82%D0%B5
          2. 알렉세이 _K 31 7 월 2015 10 : 41 새로운
            • 1
            • 0
            +1
            제품 견적 : 바이 코 누르
            그리고 그것이 쓰여지지 않았다면, 그 자리에 서 있었을 것입니다! 고통에서 비명조차하지 않을 것이다!

            나는 한 사람에게 치명적인 영향을주는 예를 하나만 주겠다. 사람은 투기를 생각조차하지 않을 것이다. 이것들은 모든 종류의 방사능 및 X 선 방사이며, 마이크로파 방사는 장애를 초래할 수있다. 우리가 볼 수없는 전파와 전자파. 매우 좁은 범위에서 우리가 듣고 보는 소리와 빛. 당신은 여전히 ​​예제를 줄 수 있습니다.
            간단히 말하면 사람은 바이오 오봇 (biorobot)으로 만들어지고 우리 프로그램은 유전자에 통합됩니다. 우리가 방사능과 다른 종류의 방사선을 느끼지 않는다면, 우리가 그렇게 프로그램되어 있다는 것을 의미합니다.
            그건 그렇고,자가 학습 시스템으로서 너무나 효과적이지 않아 수만 년 동안 기술 발전이 진행되고 있습니다. 우리는 축적 된 지식을 보존하기 위해 자녀를 양성해야합니다.
        2. Dikson 31 7 월 2015 00 : 13 새로운
          • 0
          • 0
          0
          причём здесь чувства? Весь комизм и трагедия ситуации в том, что мы сами себе внушили мысль о том, что быстродействие - ключ к созданию ИИ.. Но это -тупик . Арифметика, с помощью которой мы пытаемся решать нелинейные уравнения многомерного пространства.. Машина способна быстрее человека перебрать миллионы вариантов и комбинаций, но она не обладает нелинейным мышлением, она лишена интуиции..
    2. 중위 공군 재고 30 7 월 2015 18 : 45 새로운
      • 3
      • 0
      +3
      제품 견적 : 바이 코 누르
      ЛЮБОИ робот, машина, и т.п. деиствуют по программе, написаннои, заложеннои человеком! По алгоритму! сама программа не может решить что еи делать в том или ином случае, только согласно заложенному человеком алгоритму! самообучение -НЕВОЗМОЖНО!!!! Только в качестве запоминания, слов образов, но -НЕ ПРИНЯТИЕ РЕШЕНИЯ!!!!!!!!

      Речь идёт не об том что с роботом можно будет разговаривать как с человеком. Речь идёт об автономных системах в которых робот например сравнивая сигнатуры тепловизора с банком данных сигнатур определяет человека и открывает огонь без внешней команды оператора. Обучение в данном случае возможно если робот не обнаружив сигнатуры в банке данных добавляет её в этот банк и определяет её как противника.
      1. 바이 코 누르 30 7 월 2015 18 : 59 새로운
        • 0
        • 0
        0
        음, 결국 ... 그것은 - 그 사람이 그 사람을 선물했고, 그런 결정을 내리지 못했습니다 !!!!!!
        - 암기!
        1. 30 7 월 2015 22 : 38 새로운
          • 1
          • 0
          +1

          중위 공군 재고

          사람과 같은 로봇과 대화하는 것이 가능하다는 사실에 관한 것이 아닙니다.

          모두 나쁜 중위, 그들은 이미 여기에있다))))))))
          http://www.computerra.ru/100711/kak-odessit-gustman-proshel-test-tyuringa/
        2. 알렉세이 _K 31 7 월 2015 11 : 02 새로운
          • 0
          • 0
          0
          제품 견적 : 바이 코 누르
          음, 결국 ... 그것은 - 그 사람이 그 사람을 선물했고, 그런 결정을 내리지 못했습니다 !!!!!!
          - 암기!

          당신이 개인적으로 태어 났을 때, 그 외에도 "AAAAAAAAAAAAAAAA !!!" 말할 것도없고 모르겠다. 어떻게하면 대화 할 수 있었습니까? 답은 분명합니다. 데이터베이스에 소리를 외우고, 부모님이 보여주고 공부 한 이미지 즉, 녹음 된 이미지를 나란히 놓았습니다. 당신이 단순히 자신을 가르쳤다면, 대부분의 경우 단순히 "아기 노상 강도"이상으로 발전하지 않았을 것입니다. 그리고 당신은 단순히 당신 주변의 세계를 이해할 수없는 것으로 인식하고 그 안에서 아무것도 이해하지 못합니다.
          한 사람이 배우는 모든 결정, 즉 기억하고, 상황이 완전히 이해할 수 없다면, 사람은 원칙적으로 자신이 익숙한 결정을 내리지 만 완전히 틀릴 수도 있습니다. 살아남은 사람은 잘못된 결정을 내렸고 다시 기억한다는 것을 기억합니다. 나는 간단한 예를 들어 줄 것이다. 출생 한 남자는 어떤 약초가 유독한지 알지 못합니다. 그러나 다른 사람들을 중독 시키거나 개인적인 경험을 통해 얻은 결과를 보면서 올바른 결정을 내리는 법을 배웁니다.
          따라서 올바른 결정의 입국은 암기의 결과입니다.
      2. 알렉세이 _K 31 7 월 2015 10 : 47 새로운
        • 0
        • 0
        0
        인용구 : 중위 공군 재고
        로봇이 데이터 뱅크에서 서명을 찾지 못하면이 뱅크에 추가하여 적으로 식별 할 수 있습니다.

        자기 학습 로봇의 훌륭한 예. 객체가 데이터베이스에서 "친구"로 발견되지 않으면 로봇이 "적"데이터베이스에 자동으로 포함시킵니다.
    3. 턱시도 30 7 월 2015 19 : 09 새로운
      • 7
      • 0
      +7
      제품 견적 : 바이 코 누르
      ПО ПРОГРАММИРОВАНИЮ:
      ЛЮБОИ робот, машина, и т.п. деиствуют по программе, написаннои, заложеннои человеком! По алгоритму! сама программа не может решить что еи делать в том или ином случае, только согласно заложенному человеком алгоритму! самообучение -НЕВОЗМОЖНО!!!!


      Ну почему же? В свое время был создан язык программирования Prolog. Как раз для создания программной части самообучающихся систем (в частности экспертных).
      1. Dikson 30 7 월 2015 19 : 33 새로운
        • 0
        • 0
        0
        любая машина, любой её язык -это всего два знака.. 1 и 0.. а у человека этих знаков гораздо больше.. и оперирует он ими если не быстрее то намного гибче.. Ни одна машина не додумается заменить четыре буквы в слове "хлеб" так, чтобы получилось слово "пиво".. почитайте работы академика Глушкова..
        1. Gloomstar 30 7 월 2015 23 : 41 새로운
          • 1
          • 0
          +1
          поищите материал на тему самообучаемые нейронные сети в яндексе, и компьютеры с новой архитектурой уже не просто изобретены, а да же выпускаются, пока единственная загвоздка что самый мощный комп по этой технологии имеет интеллект грызуна или кузнечика, не помню уже
          1. Dikson 31 7 월 2015 00 : 47 새로운
            • 0
            • 0
            0
            Это вы по "Окей Гугл" сейчас говорите? любой поисковик в принципе - слабенький аналог ..
        2. 아콘 31 7 월 2015 06 : 22 새로운
          • 0
          • 0
          0
          같은 방식으로 모든 살아있는 것들은 뉴런 사이의 원시적 인 연결 언어를 ​​가지고 있습니다. 생물체가 조직화되면, 협회를 더 기억하고 언어를 인코딩하는 것이 어렵습니다. 어셈블러로서
      2. Dikson 30 7 월 2015 20 : 29 새로운
        • 0
        • 0
        0
        это просто прописанный алгоритм, в любом случае. и алгоритм этот прописан человеком..
      3. 바이 코 누르 30 7 월 2015 20 : 42 새로운
        • 0
        • 0
        0
        제품 견적 : tux.topwar
        제품 견적 : 바이 코 누르
        ПО ПРОГРАММИРОВАНИЮ:
        ЛЮБОИ робот, машина, и т.п. деиствуют по программе, написаннои, заложеннои человеком! По алгоритму! сама программа не может решить что еи делать в том или ином случае, только согласно заложенному человеком алгоритму! самообучение -НЕВОЗМОЖНО!!!!


        Ну почему же? В свое время был создан язык программирования Prolog. Как раз для создания программной части самообучающихся систем (в частности экспертных).


        ААААААААААА!!!!!!!!!! Язык пролог создан человеком, чтобы ЧЕЛОВЕК писал на нём ПРОГРАММУ ДЛЯ МАШИНЫ!
    4. 토네이도 24 30 7 월 2015 19 : 41 새로운
      • 1
      • 0
      +1
      Так вот "ученые мужи" и против того, чтобы МАШИНА (т.е. Искусственный Интеллект) никогда не принимала решения сама!!!
      А, кстати, программку-то можно и не очень "человеколюбивую" написать... Так что, палка-то о двух концах...
      1. 나쁜 놈 30 7 월 2015 20 : 23 새로운
        • 0
        • 0
        0
        Р РёС,Р ° С, Р ° : СЃРјРμСЂС € € 24
        Так вот "ученые мужи" и против того, чтобы МАШИНА (т.е. Искусственный Интеллект) никогда не принимала решения сама!!!
        А, кстати, программку-то можно и не очень "человеколюбивую" написать... Так что, палка-то о двух концах...

        Примерно на эту тему у Гюнтера Крупката есть замечательный рассказ "Остров страха". Всем рекомендую. Классика научной фантастики, не фэнтези.
    5. 나쁜 놈 30 7 월 2015 19 : 47 새로운
      • 2
      • 0
      +2
      제품 견적 : 바이 코 누르
      나는 엔지니어 - 전자 장비 (프로그래머)로 말한다. - 인공 지능이 될 수 없다 !!!

      Увы, не все это принимают. А ещё телевизор на эти темы не умолкает. Сошлюсь на мнение д-ра биологических наук профессора С. В. Савельева. Кому интересно посмотреть всю лекцию - вот ссылочка.
      http://www.youtube.com/watch?feature=player_embedded&v=YT8Yn26Y2K0
    6. 30 7 월 2015 19 : 58 새로운
      • 3
      • 0
      +3
      제품 견적 : 바이 코 누르
      НЕ МОЖЕТ БЫТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА!!!
      ELECTRONIC :
      - ВСЯ электроника строится на ТТЛ ........

      Байконур, вы сильно ошибаетесь! Про ТТЛ и вовсе писать не надо было.
      1. 바이 코 누르 30 7 월 2015 20 : 55 새로운
        • 2
        • 0
        +2
        제품 견적 : 연
        제품 견적 : 바이 코 누르
        НЕ МОЖЕТ БЫТЬ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА!!!
        ELECTRONIC :
        - ВСЯ электроника строится на ТТЛ ........

        Байконур, вы сильно ошибаетесь! Про ТТЛ и вовсе писать не надо было.


        ГДЕ? ТТЛ - электронная ЛОГИКА, образующая ОФПС (Основную Функционально Полную Систему, состоящую из трёх логических элементов - И, ИЛИ, НЕ (логическое умножение, логическое сложение, логическое отрицание), очень имеющее отношение к...!
        А, ну Вас! Тоже скажу: "...вы сильно ошибаетесь!" и больше сюда не залезу!
        опять! - ААААААААААААААА!!!!!!!!!!!!!! Понаберут в армию - по объявлению!
        1. 30 7 월 2015 21 : 28 새로운
          • 2
          • 0
          +2
          Вам как программисту приходилось ли пробовать несколько раз компилировать один и тот же исходный код программы? Как, каждый раз получался одинаковый объектный код? Ещё интересней компиляция файла прошивки PLD. Можно заподозрить проявление зарождающегося интеллекта. 윙크하는 А ещё, попробуйте как нибудь подойти к компьютеру с мыслью что-то сделать простое, рутинное быстренько и заняться другими делами. Велика вероятность поплясать с бубном вокруг компьютера. 사람 Это полушутейное замечание касается массовой программируемой техники, "проявляющей" признаки интеллекта. Всё ли вам известно про специализированную разработку?
          И не путайте "ОФПС" с доминирующей полупроводниковой технологией.
        2. Reduktor 31 7 월 2015 09 : 13 새로운
          • 0
          • 0
          0
          Довели все таки человека! 빌레이
    7. Dikson 30 7 월 2015 20 : 27 새로운
      • 0
      • 0
      0
      а мне про ногу понравилось, правда.. ))) Помню, я на нашенских , советских микросхемах, некоторые выкусывал бокорезами при монтаже.. -так надо было почему-то.. ))
    8. region58 30 7 월 2015 20 : 58 새로운
      • 2
      • 0
      +2
      제품 견적 : 바이 코 누르
      - ВСЯ электроника строится на ТТЛ (транзисторно-транзисторнои логике)(есть, конечно и другие, напр. ттлш, но эта оптимальна!) и у транзистора не может вырасти сама-собои четвёртая нога (спр. -у транзистора их - 3 (база, эмиттер, коллектор);

      Эээ... Как бы это сказать то... Это вы семидесятые - восьмидесятые вспомнили. С тех пор технологии изменились кардинально. РТЛ, ДТЛ, ТТЛ, ТТЛ(Ш), ЭСЛ - это конечно и сейчас кое где встречается, но довольно редко. В основном полевики сейчас в ходу. Кстати в ТТЛ применяются мнозмиттерные транзисторы, так что ног может быть намного больше трёх. Не спорю, может быть кто-то где-то и производит аппаратуру на 133 или 155 сериях(или буржуйских 74 серии) и их разновидностях, но сказать что ВСЯ электроника на этом строится это пожалуй перебор... Да и цифровая техника все таки это лишь часть электроники.
    9. region58 30 7 월 2015 21 : 05 새로운
      • 2
      • 0
      +2
      제품 견적 : 바이 코 누르
      모든 로봇, 기계 등 프로그램에 Deystvuyut, 서면, 저당 잡힌 남자!

      로봇이이 프로그램에 따라 나를 죽이겠습니까? 아니면 그가 추측하겠습니까? 울음
      1. 아란 30 7 월 2015 21 : 16 새로운
        • 4
        • 0
        +4
        제품 견적 : region58
        제품 견적 : 바이 코 누르
        모든 로봇, 기계 등 프로그램에 Deystvuyut, 서면, 저당 잡힌 남자!

        로봇이이 프로그램에 따라 나를 죽이겠습니까? 아니면 그가 추측하겠습니까? 울음


        이 경우에는 안돼! 그러나 그 자신이 추측한다면, 그는 그것을 좋아할 것입니다!
        나는 Iskin을 만드는 것이 불가능하다는 Baikonur에 동의합니다! 그러나 지금까지의 개발 수준에서만! 왜 안돼? 프로그래머가있는 전자 공학자가 아니라면 유전학, 팬케이크 등을 제공 할 수 있습니다! 여기에서 당신은 꿈꿀 수 있습니다.

        내 딸이 최근에 프로그램을 촬영할 소총을 원한다고 발표했습니다! 이마에 남자를 쏴서, 소프트웨어 패키지가 머리에 설치되고 소유자의 의식을 대체 ..... (11 years, damn it)
        1. Dikson 30 7 월 2015 21 : 47 새로운
          • 0
          • 0
          0
          ну чисто теоретически -если у человека на лбу порт интерфейсный для восприятия штрих или QR кода будет.. то пуркуа бы и не па?
        2. 미스 닥 30 7 월 2015 22 : 57 새로운
          • 1
          • 0
          +1
          Страшно с твоей дочкой повстречаться будет...В тёмном переулке. Лет этак через 20.
    10. 알렉세이 _K 30 7 월 2015 22 : 30 새로운
      • 2
      • 0
      +2
      제품 견적 : 바이 코 누르
      나는 엔지니어 - 전자 장비 (프로그래머)로 말한다. - 인공 지능이 될 수 없다 !!!
      ELECTRONIC :

      나는 또한 프로그래머이고 평범한 사람이 아닙니다. 인공 지능으로 시스템을 구축하는 것은 이제 불가능합니다. 미국과 러시아의 폐쇄 실험실에서 수행되는 작업은 아무도 모르고 인터넷에서이 정보를 볼 수 없습니다. 그러나 과학자들이 경보를 울리고 있기 때문에, 누군가가 이미 군대를위한 시스템의 개발을 시작했다는 것을 의미한다. 그들은 원래 수준에 집중할 수 있습니다.
    11. 미스 닥 30 7 월 2015 22 : 48 새로운
      • 0
      • 0
      0
      Х.З, чё там через 30-40 лет будет...
    12. 댓글이 삭제되었습니다.
    13. 레닌 31 7 월 2015 01 : 48 새로운
      • 0
      • 0
      0
      В целом все правильно. Тем не менее можно создать железо и написать для него программу, ввести в память некие образы целей, вот вам и тупой интеллект. Нашел цель у себя в памяти уничтожил. не нашел пусть живет. Беда не в этом, ни кто еще не отменил такого пронятия как "гонка сигналов"или "запрещенное состояние" в простанородье глюк, именно поэтому любое железо может выйти из подчинения по чистой случайности, выскочт "0" или "1", а господину Булю с его алгеброй пофиг... Ну а если этому железу еще и спецально помогут умельцы, тогда пиши пропало.
  2. 악사 칼 _07 30 7 월 2015 17 : 57 새로운
    • 1
    • 0
    +1
    И снова начнется гонка по известной схеме: пушки - броня - бронебойные снаряды - двойная броня - снаряды с двойным кумулятивным эффектом и т.д.
  3. 아사 눌라 30 7 월 2015 18 : 23 새로운
    • 5
    • 0
    +5
    웃음 브라보! 그러나 당신이 가난한 과학자의 머리에 남겨 두지 않은 질산 외에, 나는 그런 것을 추가하고 싶다. 문제는 인공 지능이 아니다. 많은 과학자들의 관점에서 볼 때, 그것은 일시적으로 좋은 데이터와 빠른 조작 조작으로 말미암아 좋은 구식과 구별되지 않는다. 슬라이드 룰 (나는 거대하고 교활한 슬라이드 룰을 대표하며, 무의미한 사람들에게 좌우로 수갑을 채운다.) 그리고 인식과 인식의 힘으로, 그렇게 할 것이다. 이 과학자들이 의식 과정의 기억과 속도를 증가시키는 것이 그 자체로 탄생한다고 믿는다면, 나는이 가난한 사람들을 진심으로 미안하다고 느낍니다. 그렇지 않으면 Asadulla의 근본 성직자가 옳지 않다면 그러한 생각 기계는 논스톱 부식 과정이 일어나고 이해하기 어려운 단백질 덩어리가 전체 존재의 역사를 파괴하는 환경에서 벗어나야합니다. 이 기계는 말할 것이고, 당신이 엉덩이에 모두 가지 않고 화성에 가거나 멀리 떨어지면 ....
    1. Dikson 30 7 월 2015 18 : 32 새로운
      • 3
      • 0
      +3
      Чёрт.. если даже самая простая деревянная логарифмическая линейка сумела отправить человека в космос, то огромная и хитроумная наверняка сама куда-нибудь сможет улететь!!! 윙크하는
  4. Observer2014 30 7 월 2015 19 : 20 새로운
    • 1
    • 0
    +1
    "Учёные высказались против автономных оружейных систем с искусственным интеллектом"
    Вообще-то это правильно.Для общего развития ,ещё 60 с не большим лет назад все мощности на тот момент первобытных ЭВМ на планете Земля были меньше чем в одной современной музыкальной открытке.Так, что вот, так то.
    1. Dikson 30 7 월 2015 19 : 37 새로운
      • 1
      • 0
      +1
      Но ведь это -не революция, а просто отработка технологий.. транзисторы заменили лампы, микросхемы заменили транзисторы.. -всё суть в толщине P-n-P переходов.. никакого фундаментального прорыва в этой области нет. перфокарты превратились в магнитные ленты, в магнитные диски, в СD во флешки в конце концов.. вот когда сделают биопроцессор -тогда и можно будет бронировать место на кладбище..
  5. 안드레이 유리 베리 30 7 월 2015 20 : 49 새로운
    • 0
    • 0
    0
    то есть,Терминатора не будет? и Коннора тоже,и Скайнета? как же Истории теперь развиваться? мы же морально готовы были... 의뢰
    1. 아란 30 7 월 2015 21 : 26 새로운
      • 2
      • 0
      +2
      [인용 = Andrei Yurievich] 즉, 터미네이터는 그렇지 않습니까? Connor와 SkyNet도 마찬가지입니까? 이야기는 어떻게 진화하고 있습니까? 우리는 도덕적으로 준비가되어 있었다. 의뢰[/

      친애하는 Andrey Yuryevich! 인류의 파괴와 함께, 어떤 기계보다 사람이 잘 대처할 것입니다 .......
  • 이그 독크 30 7 월 2015 17 : 51 새로운
    • 14
    • 0
    + 14
    제품 견적 : fox21h
    예, 영화는 이미 촬영되었습니다)

    만화 소비에트. "다각형"
  • prosto_rgb 30 7 월 2015 17 : 52 새로운
    • 10
    • 0
    + 10
    Какие такие учёные?
    От нас они не уйдут ;)
    1. 보리스 -1230 30 7 월 2015 21 : 43 새로운
      • 3
      • 0
      +3
      Меня, глядя на вашу картинку, мучают сомнения : "А зачем роботу зубы? Живой плотью закусывать?" 부정
      1. prosto_rgb 31 7 월 2015 01 : 12 새로운
        • 0
        • 0
        0
        제품 견적 : boris-1230
        сомнения : "А зачем роботу зубы?

        Я так понимаю, для этого:

        А иначе, действительно: - Зачем? hi
  • Starover_Z 30 7 월 2015 19 : 12 새로운
    • 1
    • 0
    +1
    Более тысячи учёных, специалистов в области робототехники, общественных деятелей и предпринимателей подписали открытое письмо, в котором призвали отказаться от разработок полностью автономных боевых комплексов, сообщает Популярная Механика со ссылкой на интернет-ресурс некоммерческой организации Future of Life, занимающейся исследованиями угроз для человечества, связанных с созданием систем искусственного интеллекта.

    Вот хотите верьте, хотите нет, но буквально на днях, прочитав здесь про российский автоматизированный охранный комплекс, подумалось, что Запад начнёт "наезжать" на Россию из-за подобных разработок.
    Ведь пока на Западе собирают бегающие и шагающие системы, в России спокойно разрабатывают поражающие системы на гусеничных и колёсных основах!
    Вот вам асимметричный ответ ! А Западу не нравится - значит делается всё правильно !
    И какие это "учёные" так обеспокоились ? Не те ли, что первоначально что-то уже разработали для своих стран а теперь призывают другие страны отказаться от подобных разработок ?!
    Хитро, но можете кричать у себя на Западе !
    1. 블랙 모코 나 1 8 월 2015 11 : 25 새로운
      • 0
      • 0
      0
      США очень давно применяют на гусеничных и колёсных основах. Просто всем писать уже про это надоело.
  • andrereu74 30 7 월 2015 19 : 20 새로운
    • 1
    • 0
    +1
    ага 5ю недавно показали))))
  • 사샤 19871987 30 7 월 2015 22 : 51 새로운
    • 1
    • 0
    +1
    моментом вспомнился "терминатор"... в кинематографе сидят провидцы будущего???? шутки шутками,но технике нельзя доверять команду на открытие огня однозначно
  • 프리깃 30 7 월 2015 17 : 45 새로운
    • 7
    • 0
    +7
    과학자들은 인공 지능을 갖춘 자율 무기 시스템에 반대해 왔습니다.

    Не ваще прикольные люди эти учёные, сами изобретают, а потом требуют что бы отказались.
    Попробуйте у жены забрать стиральную машину, ага... 웃음
    1. GRAY 30 7 월 2015 17 : 57 새로운
      • 4
      • 0
      +4
      제품 견적 : 프리깃
      Не ваще прикольно, сами изобретают, а потом требуют что бы отказались.

      Искусственного интеллекта до сих пор нет. Можно, теоретически, написать ПО которое позволит роботу самостоятельно открывать огонь, однако есть высокая вероятность, того, что электронный дурak станет косить всех подряд.
      1. 정신 분열증 환자 30 7 월 2015 18 : 18 새로운
        • 1
        • 0
        +1
        제품 견적 : 그레이
        Можно, теоретически, написать ПО

        Зачем теоретически. Уже давно написаны программы и у американцев уже были проблемы с роботами, которые открывали огонь самостоятельно. Эти так называемые учёные, начитались фантастики и грезят что роботы захватят мир и не дадут хапать власть.А сделать самообучаемую программу которая может захватить мир, пока нет возможностей.
      2. Dikson 30 7 월 2015 18 : 26 새로운
        • 3
        • 0
        +3
        Не нужен в этом случае ИИ.. Нуже н как раз просто боевой робот. -запрограммированная машина., которая первая пойдёт в атаку, например, и тупо выкосит всё движущееся и излучаещее тепло в нужном спектре на территории противника. А потом с командного пункта его выключат. Не так уж и сложно. Платформа и источник питания - основная проблема в этом случае..
        1. GRAY 30 7 월 2015 18 : 38 새로운
          • 2
          • 0
          +2
          제품 견적 : Dikson
          Нуже н как раз просто боевой робот. -запрограммированная машина., которая первая пойдёт в атаку

          Нет никаких гарантий того что после встречи со средствами РЭБ аппарат не отправится искать цели в противоположном направлении. Компьютеры думать не умеют, поэтому, в таком качестве, их и не используют.
          1. Dikson 30 7 월 2015 19 : 45 새로운
            • 0
            • 0
            0
            тупо не отправится, если в шевроны и нашивки подразделения, управляющие роботами, будут вшиты простейшие маркеры... Технологии, позволяющие отслеживать видеокамерой за нужным объектом, (к примеру спортсменом-горнолыжником, выполняющим прыжок, или дебилом Киркоровым, дрыгающимся на сцене ) уже существуют много лет, -цепляете метку на объект -и дело в шляпе.. !
          2. Gloomstar 30 7 월 2015 19 : 49 새로운
            • 2
            • 0
            +2
            Даже если и пойдет искать цели в другом направлении, его логика будет известна, а значить обезвредить ее намного легче чем искусственный интеллект, да и вообще нет смысла создавать интеллект, когда обычные логические программы справляются
        2. 아울 30 7 월 2015 22 : 38 새로운
          • 0
          • 0
          0
          Dikson
          А если ему в бою выключатель отстрелят? Или от близкого взрыва ему крышу сорвет? Потом он ведь своих крошить начнет! Нет уж, нафиг!
          В свое время(1945г) ряд ученых с мировым именем подписывали воззвание о запрещении разработки и использовании атомного оружия. Слабо помогло...
          1. Dikson 30 7 월 2015 23 : 15 새로운
            • 0
            • 0
            0
            угум.. - " товарищ Сахаров, ну докладывайте , что там у вас произошло? -
            - да мы думали она еб**т потихоньку там, на Новой Земле, а она Ка-а-а-а-к Еб@нёт....... "
  • 댓글이 삭제되었습니다.
  • 윤 크롭 30 7 월 2015 17 : 48 새로운
    • 1
    • 0
    +1
    이 기쁨을 멈추게 할 것은 없습니다.
  • Dikson 30 7 월 2015 17 : 49 새로운
    • 0
    • 0
    0
    чисто практически -это уже сейчас возможно.. - снайперский ствол на роботизированной платформе, цифровая камера, программа распознавания лиц, - и вуаля..
    1. 정신 분열증 환자 30 7 월 2015 18 : 23 새로운
      • 1
      • 0
      +1
      Датчики движения. Противодействие программе распознование лиц, грим. В общем обмануть можно будет.
      1. Dikson 30 7 월 2015 18 : 35 새로운
        • 1
        • 0
        +1
        Ну я писал вариант для ликвидации конкретного лица, допустим, а не для атаки.. понятно, что поймав в объектив морпеха , раскрашенного енотом, такой примитивный робот тупо зависнет.. 눈짓
        1. 정신 분열증 환자 30 7 월 2015 19 : 08 새로운
          • 0
          • 0
          0
          Если под конкретную операцию, то нормальный будет робот.
          Тут как представил, картину. Одна страна напала на другую роботами, типа мы самые лучшие системы делаем. Последнее видео полученое с поля боя, показывало как ежики, суслики и еноты, курочили роботов одними лапами.
  • 러시아어가 아님 30 7 월 2015 17 : 50 새로운
    • 2
    • 0
    +2
    Что то сомнительно что б у американских производителей оружия возобладал здравый смысл. Тем более у них мания мирового господства
  • 아브라 30 7 월 2015 17 : 52 새로운
    • 3
    • 0
    +3
    Терминатор. Генезис посмотрели... Я к чему... Вот дать в руки Порошенко эту технику, она поедет не в Новороссию воевать, а в ближайший колхоз за салом...
  • 콩 발란 30 7 월 2015 18 : 03 새로운
    • 0
    • 0
    0
    Запускается система самоликвидации.
  • Denis_469 30 7 월 2015 18 : 06 새로운
    • 1
    • 0
    +1
    "Более тысячи учёных" - это не учёные ни разу. Так как учёные имеют свойство проверять перед тем, как писать. Как тут сказано: "разработок полностью автономных боевых комплексов" - это было начато ещё в середине прошлого века. А первым серийным полностью автномным боевым роботом стала германская самонаводящаяся торпеда "T-IV". Потому эти типа учёные опоздали со своим мнением лет так на 70.
    "«Подобные устройства неизбежно появятся на чёрном рынке и попадут в руки террористов, диктаторов и экстремистов, – пишут авторы. – Боевая техника с искусственным интеллектом идеальна" - сейчас, чтобы создать автономного боевого робота в виде самонаводящейся торпеды нужно всего лишь немного денег и желание его создать. Вот как ИГИЛ захватит Сирию (увы, но по предсказаниям Ванги Сирия должна пасть), так они озаботятся своими самонаводящимися торпедами. Их сделать сейчас раз плюнуть технически. Любой школьник справится. Это, естественно, не будет "Физик" по ТТХ, но вполне пригодный робот для самонаведения на торговые суда. Так что и ИГИЛ с созданием таких роботов также справится. Так что этим, типа учёным, нужно было выступать 70 лет назад. Так что впереди много нового и интересного.

    А что до самостреляющих единиц роботов. То это также раз плюнуть. После создания самонаводящейся торпеды делает большой цилиндр с двигателем внутри. В него гироскопы и программное обеспечение для движения по курсу. Торпеду под брюхо и вперёд. Вместе с установленным гидрофоном и программой типа если есть шум справа, то поворот вправо и после завершения пуск торпеды при шумности .. - такое устройство также сможет сделать даже школьник. Один специалист по ядерному оружию показывал, как школьник может сделать ядерную бомбу. Я видел, но говорить не буду. Хотя при необходимости ядерную бомбу также можно собрать.

    Роботов принимающих самостоятельное решение о стрельбе сейчас сможет сделать даже школьник. А эффект будет колоссальным.
    1. Dikson 30 7 월 2015 18 : 20 새로운
      • 1
      • 0
      +1
      Вы правы абсолютно.. конструктор ЛЕГО для роботов, достаточно примитивные программы - и всё... У нас народ начал вовсю квадрокоптеры использовать, чтобы на зоны передачки закидывать,... мобилы, там, ещё что-нибудь.. Прогресс , ети ё мать...
      1. Denis_469 30 7 월 2015 18 : 23 새로운
        • 0
        • 0
        0
        제품 견적 : Dikson
        Вы правы абсолютно..

        알아.

        제품 견적 : Dikson
        конструктор ЛЕГО для роботов, достаточно примитивные программы - и всё...

        Единственная заморочка у школьника будут с тем, чтобы достать взрывчатку для БЧ. Но для ИГИЛ взрывчатка не проблемы. Кстати с ядерной бомбой для школьника также есть 1 небольшая проблемка для школьника. Там будет трудно достать 1 элемент.

        А так никаких проблем спроектировать и создать самонаводящуюся торпеду и самостреляющего морского робота.
        1. Dikson 30 7 월 2015 19 : 24 새로운
          • 0
          • 0
          0
          замучится ваш школьник получать оружейный плутоний на кухне.. вот и всё.. его сбежавшиеся со всей округи тараканы запалят.. 눈짓
          1. Gloomstar 30 7 월 2015 20 : 01 새로운
            • 0
            • 0
            0
            не обязательно плутоний, какие нибудь отравляющие вещества, квадрокоптер и резервуар питающий чистой водой город, заложить программку с картой по жпс маячкам и в конце пути произвести какоето действие, например открыть контейнер, квадрокоптер уже готовый приличной автономностью и грузоподьемностью стоит около 30тыс если делать самому то дешевле,так что уже поздно ученым бить тревогу
            1. Dikson 30 7 월 2015 20 : 17 새로운
              • 0
              • 0
              0
              вот поэтому на стратегически важных объектах УЖЕ СЕЙЧАС нужно устанавливать глушилки... чтобы выключали всю электронику вокруг..
            2. Dikson 30 7 월 2015 20 : 42 새로운
              • 0
              • 0
              0
              у Вас весьма богатое воображение... проще всего облучить или заразить деньги... и можно убить отдельно взятую страну за очень недолгое время.. а резервуары, питающие города -это, как правило охраняемые объекты, артезианские скважины... никакой игрушечный квадрокоптер туда не долетит. К сожалению, люди сами себя загнали в угол технологиями и способами убийства.. Куда как честнее и проще дикое средневековье -пихали в животы друг другу острые железки.. - кто сильнее и быстрее -тот и победил.. А теперь некие абсолютно мракобесные небритые человекоподобия могут сотнями уничтожать себе подобных , успешно пользуясь тем, что породила цивилизация..
              1. Gloomstar 30 7 월 2015 23 : 55 새로운
                • 0
                • 0
                0
                Посетите как ни будь соревнования авиамоделистов, много нового узнаете что сейчас делают дети, ну или полазьте по тематическим сайтам, я в недавном прошлом как раз и развлекался квадрокоптерами, так что при желании.. насчет глушилок согласен,
                1. Dikson 31 7 월 2015 00 : 56 새로운
                  • 0
                  • 0
                  0
                  да знаю я.. У нас в городе на станции Юных техников уже и 3D принтеры у детищек, и на Робофестах они призы берут.. И бассейн им для испытания моделей подарили .. и коптеры многофункциональные они там уже собирают.. Всё есть! Жаль, что дальше это никуда не уходит.. - всегда есть куча чиновников, бюрократов и менеджеров, которые вместо помощи тупо глушат , воруют ,или продают идеи..
          2. Denis_469 31 7 월 2015 00 : 26 새로운
            • 0
            • 0
            0
            제품 견적 : Dikson
            замучится ваш школьник получать оружейный плутоний на кухне.. вот и всё.. его сбежавшиеся со всей округи тараканы запалят..

            Ну я не силён в создании ядерного оружия. Всего лишь видел передачу, где человек занимающийся создание миниатюрных ядерных боеприпасов рассказывал, как можно сделать его школьнику. Лично я е уверен, что смогу сделать ядерную бомбу по его рецепту. просто могу где-то накосячить. так как не силён в ядерной физике.

            А вот сваять самонаводящуюся торпеду и носитель под неё вполне могу, если сочту необходимым. Если нужно будет, то носитель будет автономным и запускаться дней через 3-5 после отхода от берега и потом искать первую попавшуюся цель.
  • 조련사 30 7 월 2015 18 : 13 새로운
    • 1
    • 0
    +1
    Самое смешное - то, что настоящие ученые и не в курсе, что они чего-то там в интернет-письме подписали. hi
  • 미한 30 7 월 2015 18 : 20 새로운
    • 2
    • 0
    +2
    Нам в России это не грозит...На компьютеры мы никогда главную ставку не делали! Я с 90-х с ними работаю ,НЕ ДОВЕРЯЮ Я ИМ...хоть убейте! Да удобно , но положится на них нет, никогда!
    1. 아브라 30 7 월 2015 18 : 43 새로운
      • 1
      • 0
      +1
      Понятное дело... Внутри вашего компа сидит маленький человечек и двигает рычажки... А вдруг забухает?
      1. 미한 30 7 월 2015 18 : 57 새로운
        • 4
        • 0
        +4
        제품 견적 : Abbra
        Понятное дело... Внутри вашего компа сидит маленький человечек и двигает рычажки...

        Можете смеяться , а что то есть в них ...Давно слышал уже от кого то.."Техника любит ласку и внимание...!" И по себе знаю (испытал не раз).. hi
        1. Gloomstar 30 7 월 2015 20 : 06 새로운
          • 0
          • 0
          0
          В некоторых случаях иногда я доверюсь роботу чем человеку, в других случаях конечно человек предпочтительней, например выявлением рака в клетках занимается ии причем работающий не на логической цепочке а на нейронных сетях,
    2. Dikson 30 7 월 2015 19 : 09 새로운
      • 2
      • 0
      +2
      вот поэтому наши ракеты никто и не может перехватить..-нет там Интеллекта просто.. - там простая механика, сложная система палок и верёвок, заставляющая объекты летать по непредсказуемой траектории.. Моему дядьке как-то предложили перегнать экскаватор через протоку по тонкому льду.. всё просто.. - он привязал два мотка проволоки к рычагам и кирпич на педаль положил.. -никакой электроники... 눈짓
    3. Vadim237 30 7 월 2015 22 : 52 새로운
      • 0
      • 0
      0
      А вот в системе Периметр элементы искусственного интеллекта присутствуют.
      1. Gloomstar 30 7 월 2015 23 : 59 새로운
        • 0
        • 0
        0
        скорее только "нейронные сети" и то на основе обычной логики, до интеллекта пока очень далеко
  • atlantida04 30 7 월 2015 18 : 30 새로운
    • 1
    • 0
    +1
    при проектировании роботов необходимо повышать интеллектуальную развитость государства при необходимости в принудительной форме, а также не терять навыки ручного управления механизмами.
    человек все больше и больше превращается в амёб, становится зависимым от окружающих его благ.
    1. 미한 30 7 월 2015 19 : 07 새로운
      • 2
      • 0
      +2
      인용 : atlantida04
      при проектировании роботов необходимо повышать интеллектуальную развитость государства при необходимости в принудительной форме, а также не терять навыки ручного управления механизмами.
      человек все больше и больше превращается в амёб, становится зависимым от окружающих его благ.

      Все верно..! Вот холодильник у меня сломался все ! Практически голод в семье.. 웃음 Жутко...но приспосабливаемся ...А если интернета нет ..жена в истерике и т.д. wassat (хотя зря я на нее она книги читать любит, Сейчас газету читает!) А я есть хочу..
      1. Dikson 30 7 월 2015 19 : 19 새로운
        • 2
        • 0
        +2
        Знаете, не забуду такую картину: купили стиральную машинку импортную, автомат.. - включили, она крутит там, пыхтит.. -а перед ней на табуретке сидит моя мама и плачет.. И ведь это уже тогда, когда ракеты, космонавты, атом, хренатом, догоним и перегоним.. . - много чего хорошего было в СССР, но нормального отношения к людям в бытовом плане однозначно не хватало.. Но холодильники всё-таки были достойные -ЗИЛ на кухне до сих пор тарахтит и морозит, как ненормальный.. 눈짓
        1. 미한 30 7 월 2015 19 : 34 새로운
          • 1
          • 0
          +1
          제품 견적 : Dikson
          не забуду такую картину: купили стиральную машинку импортную, автомат.. - включили, она крутит там, пыхтит.. -а перед ней на табуретке сидит моя мама

          Аха тоже помню ...Батя мой съехидничал .."Устала наверно стирать жена..."..И все же, когда мать стирала вручную (полоскания отжимания , а потом на мороз белье)и потом по квартире развешивала (какой морозный запах был ...это сказка была) Потом гладила пока не совсем высохло..И каждую неделю (нам после бани) стелила чистые, белоснежные простони ..какой запах был..! Сейчас порошком воняют и ничего не простируют( я этим занимался , как то..)..Молчу конечно , но воспоминания "морозных чистых простыней в памяти навечно осталось)..Сейчас только на кнопки жмут и в интернет пошли сплетничать... hi
          1. Dikson 30 7 월 2015 21 : 33 새로운
            • 2
            • 0
            +2
            Знаете, МИХАН,... я тоже люблю с детства это запах морозного белья.. Это нифига не Ариэль "свежесть морозного утра".. но разве больные пальцы наших женщин - это нормально для страны , которая первая вышла в космос? Почему элементарный стеклоподъёмник в машине у нас до сих пор считается роскошью, подогрев сидений ( тем паче для арктических машин ) - недопустимым чванством, а элементарные удобства моряка - буржуйским излишеством? Почему грёбаный Автоваз за столько лет впаривания своего металлолома населению не удосужился породить более-менее адекватную автоматическую коробку передач? ( хрен с ним, с дизайном! ) ЧТо, в стране не нашлось ни одного инженера средней руки , чтобы иобрести и поставить на поток дурацкую активаторную стиральную машинку с примитивным контроллером? И при этом наши ракеты чего-то там бороздят.? Это же просто -сделать втулочный электродвигатель, собрать квадрокоптер, квадроцикл, сенсорный дисплей.. - мы же это УМЕЕМ и ЗНАЕМ, КАК ДЕЛАТЬ.. но не делаем.. и не будем. Мелковаты задачи-то.. вот дирижабли до 20 года - это для нас.. а железную коробку на четырёх колёсах с кондиционером -это же так скушно, и всё равно хуже чем у японцев получится... да и денег не своруешь на этом..
  • Proxor_P 30 7 월 2015 19 : 20 새로운
    • 1
    • 0
    +1
    Есть печальная шутка: что бы не изобретали учёные, а в результате получается бомба. Поэтому и крик их души бесполезен, "ящик Пандоры" открылся и теперь можно ожидать всё, что угодно. Поэтому боевым ИскИнам быть, похоже. Увы, нам. Точнее нашим внукам. Если, конечно, в ближайшее время ничего такого-этакого не случится, а предпосылок для прихода Большого Писца уже изрядно.
  • Tor5
    Tor5 30 7 월 2015 19 : 29 새로운
    • 0
    • 0
    0
    Очень логичное решение! Как только на рынке (в широком смысле) появляется что то передовое, мгновенно находятся плохие парни, готовые его перекупить в несколько раз дороже.
  • 승리자 30 7 월 2015 19 : 32 새로운
    • 0
    • 0
    0
    놀라워. 어쩌면이 과학자들은 역사적인 기억이 없을지도 모릅니다. 그리고 화약 발명가는 무엇을 원했습니까? 나는 수소 폭탄의 발명가 인 Sakharov도 기억한다.))) 그렇다. 싸움 후 원폭에 대한 이론적 근거를 제시 한 Einstein은 그의 주먹을 흔들었다. 브라운은 의심의 여지가 없었습니다. 네, 우리 코롤 레프도 마찬가지입니다. 어떤 이유로, 슈퍼 컴퓨터를 만드는 과학자들은 힉스 보슨 (Higgs boson)에 대한 검색에 종사하는 사람들의 말을 듣지 않고 블랙홀 (black hole)을 만들 가능성을 기각합니다.
    물론 항의는 흥미 롭습니다. 이 문제는 모든 선진국에 종사하고 있기 때문에 PR은 훌륭하게 만들어졌습니다. 이것은 모두에게 잘 알려져 있으며 이제는 사람에 대해하는 모든 일이 발표되었습니다. 여기 계신 감사합니다.
    1. Dikson 30 7 월 2015 20 : 21 새로운
      • 0
      • 0
      0
      Сомневался Сергей Палыч.. в определённых вещах.. Только это не мешало ему двигаться к цели..
  • 새로운 공산주의자 30 7 월 2015 19 : 50 새로운
    • -4
    • 0
    -4
    Более тысячи учёных, специалистов в области робототехники, общественных деятелей и предпринимателей подписали открытое письмо, в котором призвали отказаться от разработок полностью автономных боевых комплексов,--Если петицию написали значит есть прорыв, в ядерной физики было подобное, пагошское движение, а большинство програмистов -инженеров ничего не понимают в проблеме И. И и как его создать, они человеческие шовинисты. А с искуственным интеллектом начать строить новый коммунизм-это задача нью коммунистов Р. Ф.
    1. 미한 30 7 월 2015 19 : 59 새로운
      • 1
      • 0
      +1
      Сами то поняли , что написали (новый коммунист)))) 깡패
      1. 새로운 공산주의자 31 7 월 2015 10 : 43 새로운
        • 0
        • 0
        0
        Да! написал правду.
    2. Dikson 30 7 월 2015 20 : 24 새로운
      • 0
      • 0
      0
      Извините, это какой-то гон весенний... ибо, если Вы коммунист, то должны знать первоисточники, в коих черным по белому написано ещё в 1962 или 1964 году -"кибернетика -это лженаука!" Написано это , между прочим в орфографическом словаре, а вовсе даже не в решениях очередного партсъезда,извините, не помню какой римской цифирью означенного..
      1. 새로운 공산주의자 31 7 월 2015 10 : 43 새로운
        • 0
        • 0
        0
        Нью коммунизм- новая идеология-он сам первоисточник.
  • 와일드 폭스 30 7 월 2015 20 : 18 새로운
    • 3
    • 0
    +3
    Сразу признаюсь я ИИ не разрабатываю. Мое мнение что сейчас все возможно уже создать только мы еще не догадались как .

    제품 견적 : 바이 코 누르
    음, 결국 ... 그것은 - 그 사람이 그 사람을 선물했고, 그런 결정을 내리지 못했습니다 !!!!!!
    - 암기!


    Простите а Русский язык вы сами изобрели или вас ему обучили а вы запомнили? Хромает только возможность самообучения у роботов а вот спектр возможностей у них аховый просто. Допустим вам необходимо исследовать повреждения в реакторе или просто его целосность будет выполняться роботом, если у него будет ИИ он сможет найти и повреждения не написанные в программе.
    И простите но бояться ИИ смысла нет он никого не захватит и не устроит геноцид , бояться надо тех кто ему будет ставить цели и задачи.
  • 카심 소트 30 7 월 2015 20 : 38 새로운
    • 0
    • 0
    0
    если когда-нибудь искусственный интеллект узнает об этом требовании ученных - он отреагирует. машина без программы о самосохранении подвержена поломкам более, чем берегущая себя. главное как робот будет оценивать угрозу себе. узрит корень - мало не покажется.
    1. Dikson 30 7 월 2015 20 : 51 새로운
      • 0
      • 0
      0
      ну вот.. Я всё ждал, когда же тут вспомнят про Айзека Азимова.. и его три закона роботехники.. 미소
    2. 새로운 공산주의자 31 7 월 2015 10 : 46 새로운
      • 0
      • 0
      0
      А с чего вы взяли ,что ИИ и люди будут по разную стороны баррикад, это не фильм Терминатор, Я например ЗА И, И, поэтому поломки ему не грозят.
  • 미한 30 7 월 2015 21 : 05 새로운
    • 2
    • 0
    +2
    Завтра на работе отформатирую парочку..!Чтобы знали свое место...(вчера три распотрошил..на списание) Так будет со всеми! 깡패
    1. Dikson 30 7 월 2015 21 : 37 새로운
      • 0
      • 0
      0
      кувалдой их, родимых, кувалдой!!
  • dark_flame 30 7 월 2015 22 : 51 새로운
    • 0
    • 0
    0
    Все сразу стали спорить можно или нельзя создать искусственный интеллект, меня же мучает другой вопрос, а когда электромагнитное оружие перестало быть эффективным в уничтожение робототехники?
    1. Dikson 30 7 월 2015 23 : 25 새로운
      • 0
      • 0
      0
      элементарный русский сварочный аппарат в руках боцмана - лучшее средство борьбы с наглыми натовскими вертолётчиками .. ( проверено в Персидском заливе во время Ирано-Иракской войны )... Пара-тройка касаний электродом о палубу - и что-то с аппаратурой в буржуйском военном вертолёте непоправимо ломается... вплоть до потери ориентации в пространстве этого винтокрылого организма тонкой душевной организации..
  • 성의 30 7 월 2015 22 : 51 새로운
    • 0
    • 0
    0
    일단 원칙적으로 불가능성에 관해 말하면 : ... 모든 것, 우리는 살 수 없다!
  • 사운드 독 30 7 월 2015 23 : 20 새로운
    • 1
    • 0
    +1
    Очень интересная беседа.господа форумчане!Я бы сказал,архиинтересная!
    Не вдаваясь в глубины софта и железа,хочу высказать несколько мыслей.
    По моему глубокому убеждению,полноценный ИИ не будет создан НИКОГДА!
    Приятно смотреть голливудские блокбастеры с роботами или киборгами,обладающими всеми человеческими качествами плюс нечеловеческими возможностями (кто помнит - один из первых удачных фильмов на эту тему - "Короткое замыкание")...Но...В основе деятельности (или ,если хотите,жизнедеятельности) объектов с искусственным интеллектом будет лежать ПРОГРАММА.Пусть сложная,пусть совершенная,пусть самообучающаяся,путешествующая по мириадам транзисторов.Программа ВСЕГДА будет рациональна,не спасёт даже "нечёткая логика".Она ВСЕГДА будет искать ЛУЧШЕЕ решение из множества возможных,но это будет решение обезличенное,просчитанное,дающее максимальный результат...Она всегда поведёт по НАИЛУЧШЕМУ пути,но кто сказал,что нам всегда нужен этот путь?
    Робот сможет первый заговорить с красивой девушкой,оценив её как максимально соответствующее усреднённым критериям привлекательности,синтезированной из миллионов изображений и приправленное личными предпочтениями автора программы.
    Почему мы проходим мимо сотен тысяч лиц и останавливаемся на том,единственном.не самом красивом,взбалмошном,неправильно,но таком дорогом человеке...Может,это не самый удачный пример,но всё же...Искусственный интеллект сможет вычислить приоритетную цель,но не сможет отвлечься на полёт бабочки...Если,конечно,функция отвлечения на полёт бабочки не заложена в его электронных мозгах...
    1. Dikson 31 7 월 2015 00 : 05 새로운
      • 0
      • 0
      0
      в машину можно заложить процесс некоего спорадического поискового хаоса.. к примеру.. Человек ведь тоже зачастую не может объяснить, почему он принял то или иное решение.. Это как в системе где есть только "Да" и "Нет" ввести переменную "Отложить"... -и линейность принятия решения превратится в экспоненту, превращающую искуственный интеллект либо в безусловного кретина, либо в гения, это уж как повезёт..
    2. 새로운 공산주의자 31 7 월 2015 10 : 51 새로운
      • 0
      • 0
      0
      Очень интересная беседа.господа форумчане!Я бы сказал,архиинтересная!
      Не вдаваясь в глубины софта и железа,хочу высказать несколько мыслей.
      По моему глубокому убеждению,полноценный ИИ не будет создан НИКОГДА!--С чего такой пессемизм, мозг человека тоже работает на примитивных функциях, все дело в качестве программы заложенной природой, можно создать синтетические мышцы, аналог андреалина, точки кайфа, сформировать мировозрение, научить робот задавать вопросы и искать ответы, типа как у ньютона почему яблоко упало на его бошку ,значит есть гравитация, да и люди на первых порах помогут ИИ.
  • 아란 30 7 월 2015 23 : 31 새로운
    • 2
    • 0
    +2
    제품 견적 : Алексей_К
    제품 견적 : 바이 코 누르
    나는 엔지니어 - 전자 장비 (프로그래머)로 말한다. - 인공 지능이 될 수 없다 !!!
    ELECTRONIC :

    나는 또한 프로그래머이고 평범한 사람이 아닙니다. 인공 지능으로 시스템을 구축하는 것은 이제 불가능합니다. 미국과 러시아의 폐쇄 실험실에서 수행되는 작업은 아무도 모르고 인터넷에서이 정보를 볼 수 없습니다. 그러나 과학자들이 경보를 울리고 있기 때문에, 누군가가 이미 군대를위한 시스템의 개발을 시작했다는 것을 의미한다. 그들은 원래 수준에 집중할 수 있습니다.
    i

    여기 당신은 논쟁 할 수 없습니다! 그 땅이 평평했을 때 ......
    1. Dikson 31 7 월 2015 00 : 00 새로운
      • 0
      • 0
      0
      .."Земля плыла, упёршись в черепаху
      недюжинною дюжиною ног..
      Что были трёх слонов...
      Недвижная , как плаха,..
      И с куполом небес.. А всё равно, -
      Для жителя окраинных морей
      Концепция сия не стоит ни хрена, -
      Будь швед он , иль еврей, -
      А даль морская под ногами , -вот она,
      И без слонов совсем... Из множества Америк
      Милей и краше та, где столько лет,
      Она идёт тебя встречать на берег, -
      Твоя давно прошедшая любовь..
      Что, скушно? Повстречаться вновь,
      И погрустить о том, что неизбежно..?
      .. Плывут слоны на панцире в безбрежность.....
    2. 달리 31 7 월 2015 00 : 25 새로운
      • 0
      • 0
      0
      제품 견적 : arane
      여기 당신은 논쟁 할 수 없습니다! 그 땅이 평평했을 때 ......


      Точно! Сегодня не равно завтра, завтра не равно после завтра ...

      Проблема ИИ это не проблема "не возможности", а проблема "сегодня" ...

      К стати, думать о том, что связи должны быть, могут быть только физические, как утверждает проф.Савельев, по меньшей мере глупо ... .

      Вопрос о кол-ве связей, возникающих на время, всего лишь вопрос технических возможностей, а значит всего лишь требуется время.

      Квантовые системы уже не за горами ...

      쉬게하다
      К стати природа самоосознания, самоидентификации берет корни из свойства любого живого объекта по самосохранению-самовыживанию. Потому и забили тревогу учёные - так как по настоящему эффективной боевой системы с ИИ не может быть без алгоритмов самосохранения.

      Потому три закона робототехники, описанные фантастами, и были сформулированы.
  • 빈 - 폭탄 조종사 31 7 월 2015 00 : 01 새로운
    • 0
    • 0
    0
    Как много интересного узнал! Всем спасибо. А таки ничего, что у человека в башке минимум три мозга, причем каждый имеет свою функцию и архитектуру, начиная с первого - мозга ящера? И что такое перехват ранвье и что мешает повторить его в металлокерамике? Хотите стать экстросенсом и лечить прикосновением рук? разыщите некоторые работы госпожи Бехтеревой как управлять специальными сенсорными клетками рук. Я это к чему - у человека архитектура не плоская как на плате, а объемная, даже волновые каналы присутсвуют (Су-Джок - привет!).
    А если о грустном, то да буржуины опрежают, и такое как интелект типа "разнесенный мозг муравьиной семии" у них уже анонсирован на примере группы ударных БПЛА, самостоятельно разбирающих цели с перераспределением их по мере выбытия как целей, так и БПЛА
  • 디마 찰 레보 31 7 월 2015 00 : 09 새로운
    • 0
    • 0
    0
    Да, нам еще далеко до создания ИИ, но это возможно хотя бы потому, что мы в какой то мере тоже являемся роботами (а наш мозг - компьютером), а так как мы живем, думаем и осознаем свое существование, то кто возьмется говорить, что разум не сможет существовать и на иных носителях (нейронных сетях, квантовых компьютерах)? Почитайте хотя бы статьи Джона Сирла (известного скептика "сильного" ИИ, между прочим).

    Мы на то и люди, чтобы решить эту великую задачу
  • 빈 - 폭탄 조종사 31 7 월 2015 00 : 18 새로운
    • 1
    • 0
    +1
    제품 견적 : Dima Čalevo
    Да, нам еще далеко до создания ИИ, но это возможно хотя бы потому, что мы в какой то мере тоже являемся роботами (а наш мозг - компьютером), а так как мы живем, думаем и осознаем свое существование, то кто возьмется говорить, что разум не сможет существовать и на иных носителях (нейронных сетях, квантовых компьютерах)? Почитайте хотя бы статьи Джона Сирла (известного скептика "сильного" ИИ, между прочим).

    Мы на то и люди, чтобы решить эту великую задачу

    Таки мыслями и душой я всецоло за! Но в РФ = это равносильно преступлению. Таки разве Вы знаете, что великий акдемик Гинзбург основал при Российской академии наук комиссию по лженауке, и например ученых, занимавшихся исследованиями спин-торсионных полей выгнали из России? Впрочем Теслу тоже гнобили.
    1. Dikson 31 7 월 2015 01 : 08 새로운
      • 1
      • 0
      +1
      Ибо -не фиг! Нет пророка в своём Отечестве - истина непреложная в любые времена.. Зато те, кого выгнали , там, на чужбинах каких высот достигли!! Вот представьте, если бы из России никто не уехал в заманчивую Америку.. - и не было бы ни вертолётов Сикорского, и никакого Майкрософта.. и много ещё чего..
      "Но вот запускают ракеты евреи из нашей страны..
      А гетто.. вы помните гетто? В начале и после войны? "..
      대 Vysotsky
  • 추 공군 31 7 월 2015 00 : 49 새로운
    • 0
    • 0
    0
    ну вы блин даёте. статья об одном а коменты о своём!
  • 빈 - 폭탄 조종사 31 7 월 2015 01 : 00 새로운
    • -1
    • 0
    -1
    제품 견적 : NOC-VVS
    ну вы блин даёте. статья об одном а коменты о своём!

    Хотите ИИ. так не копируйте материнские платы самых супер-пупер компов - копирйте нервную систему человека но на совершенно новом уровне.
    И имею вопрос? Почему попробовав горькое человек плюется? Ведь скорость распознования отравы в данном случае выше скорости передачи нервного импульса в мозг и получения обратной команды.
    1. Dikson 31 7 월 2015 01 : 24 새로운
      • 0
      • 0
      0
      С чего бы это? Вы заблуждаетесь . Скорость передачи импульса выше "скорости распознавания отравы" -потому как сигнал с рецепторов сначала идёт в мозг, а потом возвращается для того, чтобы вы выплюнули каку.. И скорость этой реакции уже давно определена кстати..
  • 알렉산더 2 31 7 월 2015 04 : 15 새로운
    • 0
    • 0
    0
    제품 견적 : 바이 코 누르
    Да это оболванивание болванов!
    나는 엔지니어 - 전자 장비 (프로그래머)로 말한다. - 인공 지능이 될 수 없다 !!!
    ELECTRONIC :
    - ВСЯ электроника строится на ТТЛ (транзисторно-транзисторнои логике)(есть, конечно и другие, напр. ттлш, но эта оптимальна!) и у транзистора не может вырасти сама-собои четвёртая нога (спр. -у транзистора их - 3 (база, эмиттер, коллектор);
    ПО ПРОГРАММИРОВАНИЮ:
    ЛЮБОИ робот, машина, и т.п. деиствуют по программе, написаннои, заложеннои человеком! По алгоритму! сама программа не может решить что еи делать в том или ином случае, только согласно заложенному человеком алгоритму! самообучение -НЕВОЗМОЖНО!!!! Только в качестве запоминания, слов образов, но -НЕ ПРИНЯТИЕ РЕШЕНИЯ!!!!!!!!

    Так никто и не говорит что машины поднимут восстание.Решение будут принимать люди. Но вот заменить террористов смертников они смогут. Или ,например, когда воевать за ваши шкурные интересы никто не хочет. Да и простой системный сбой не исключён.
  • 아콘 31 7 월 2015 06 : 24 새로운
    • 0
    • 0
    0
    우리는 군사용 로봇을 포함한 인공 지능 로봇을 개발해야합니다. 그렇지 않으면 다른 사람들이 우리 앞에 그것을 할 것입니다.
  • 루뭄바 31 7 월 2015 06 : 29 새로운
    • 0
    • 0
    0
    Хорошее видео на тему

  • 드 체그 리크 31 7 월 2015 07 : 37 새로운
    • 0
    • 0
    0
    Если бояться попадания чего либо в руки террористов, можно отменить абсолютно всё.Но мир живёт и использует всё на благо себя.Вопрос в другом.Обеспечение безопасности любых систем- это вопрос государства.Отказываться от технологий нельзя.Автономные системы в любой области необходимы.И всегда нужно иметь несколько разных возможностей в любой важной отрасли, в военной тем более.Это вопрос не обсуждается.А учёные тут не при чём.Есть просто фамилии, которые так считают.Ну...каждый может выражать своё мнение-это и есть демократия.