과학자들은 킬러 로봇의 임박한 모습을 예견한다.

과학자들은 킬러 로봇의 임박한 모습을 예견한다.군사 분야에서 인공 지능을 만드는 분야의 연구는 제한되어야합니다. 천 명 이상의 과학자와 발명가가 그러한 부름으로 세계를 대했습니다. 그 (것)들을 고민하는 주요 것은 인간의 참여없이 살인을 결정할 수있는 자율 시스템을 창출 ​​할 전망이다. 다른 모든 시스템에서 그들은 하나의 근본적인 상황에 의해 구별됩니다.


전 세계의 천명이 넘는 과학자, 엔지니어 및 사업가들이 자치 시스템 사용 금지에 관한 서한에 서명했습니다. оружия인공 지능을 부여 받았다. 그들 중에는 유명한 영국의 이론가이자 천체 물리학 자 스티븐 호킹 (Stephan Hawking), 언어학자인 노움 촘스키 (Noam Chomsky)의 구글 딥 마인드 데미스 하사 비스 (David Minhmith Demass Hassabis)의 전무 이사 인 애플 스티브 워즈니악 (Apple Steve Wozniak)의 공동 설립자 인 미국의 발명가이자 사업가 인 일롱 머스크 (Ilon Musk)

"비행기 조종사 나 특수 부대에 대상물을 파괴하라는 명령이 내려지면 조종사와 특수 부대도 지적 무기 역할을합니까?"

이 편지는 부에노스 아이레스에서 열리는 부에노스 아이레스 국제 인공 지능 회의에서 공개됐다.
"인공 지능 기술의 개발은 이러한 시스템이 향후 몇 년 동안 사업자에 배치 될 수있는 단계에 도달했습니다. 이러한 자율 유형의 무기는 화약과 핵무기가 발명 된 이후 군사 분야의 세 번째 혁명을 대표하는 것이므로 위험은 위대하다.

이 편지의 저자들은 방위 산업 전체를 대상으로 인공 지능 기술의 개발을 금지 할 것을 요구하지는 않았지만, 이러한 기술은 자율적이 아니어야하며 독립적 인 의사 결정의 기능을 부여 받아서는 안된다고 생각한다.

"만약 주요 군사력이 인공 지능으로 무기 체계를 개발한다면 세계 무기 경쟁은 불가피하게 될 것이다. 결과는 지금 예측 될 수 있습니다 : 자율 무기는 내일 카라시니 코프 (Kalashnikov) 폭행 소총처럼 내일처럼 평평해질 것입니다.

자율 시스템은 자동화 된 시스템과 달리 인간의 참여를 전혀 포함하지 않습니다. 전문가에 따르면, 자율 무기의 창설은 아직 멀었다. 그럼에도 불구하고 현재의 기술 개발 수준에서 과학자들은 여러 가지 우려를 표명했다. 중동에있는 한 사람을 파괴하라는 명령은 미국에있는 그의 사무실에있는 장교에 의해 주어질 수있다. 그리고 그가하는 일에 대한 인식의 수준은 UAV 운영자가 프론트 라인의 전투기와 매우 다를 수 있습니다. 별도의 문제는 특별 서비스의 이익을 위해 무인 항공기를 사용할 수 있다는 것입니다.

자율 시스템이나 자동화 된 시스템에서 오류를 완전히 제거하는 것은 불가능하지만, 후자의 경우 적어도 하나는 오류의 결과에 책임이있는 사람을 찾을 수 있습니다.

"인텔리전스 및 쇼크론 시스템은 자동화 된 시스템입니다. 무인 공중 차량의 전문가 인 데니스 페두 티노 프 (Denis Fedutinov)는 VZGLYAD 신문에 목표물을 식별하는 문제와 무기 사용에 대한 결정이 남아 있다고 전했다. - 그리고이 결정을 한 특정 사람을 찾을 수 있습니다. 그리고 오류가 발생하면 책임있는 문제가 발생합니다. 이 질문을 자동 시스템에 적용하면 개성은 없습니다. 나는 완전히 조기 발견. 적어도 가까운 미래에이 기능들은 그 사람과 함께 남아 있어야합니다. "

그는 UAV 개발 과정에서 자동 또는 자동으로 실현 가능한 작업의 비율이 증가하고 있다고 강조했다. "현재 우리는 이륙 / 착륙, 표적 탐지, 식별 및 추적의 자동화에 대해 이야기하고 있습니다. 앞으로는 다른 유인 및 무인 공중 차량을 사용하는 그룹에서 단 하나의 행동과 행동으로 목표의 자동 파괴 작업도 수립 될 것입니다. 이것은 "탐지 - 패배"주기 시간을 계속 감소시켜 각 시스템의 효율성을 높여야합니다. 한편, 목표를 식별하는 데 종종 오류가있어 민간인 사상자로 이어질 수 있습니다. 그러한 오류는 확실히 작은 규모 임에도 불구하고 가까운 장래에 지속될 것입니다 "라고 전문가는 말했다.

로봇 공학 전문가 인 Alexey Kornilov는 러시아의 모든 프로그램 인 "로봇 공학 : 러시아의 기술 및 기술 간부"의 자문위원이 VZGLYAD 신문에 말했다. 그러한 무기를 만들고 사용하는 문제는 수년간 논의되어왔다. "그러나 내 견해로는 로봇에 문제가 없다"고 전문가는 말했다.
Kornilov는 인공 지능이 무엇인지에 대해 보편적으로 받아 들여지는 정의는 현재 없다고 지적했다. 따라서 다른 분야의 전문가들은 좁은 영역에 대해서만 적절한 정의를 채택하고 채택합니다.

전문가는 인공 지능을 가진 무기를 언급하면서 "종종 이것은 특정 물체의 파괴 나 손상을 결정할 수있는 특정 시스템으로 이해된다"고 설명했다.

"현재 존재하는 그러한 시스템은 개는 말할 것도없고, 꿀벌과 같은 곤충의 수준까지조차도 (지적으로는 - 거의 보지 않고) 도달하지 못합니다. 그러나 페르시아인들과 싸우는 고대 스키 타이 인들이 꿀벌과 두드러기를 적에게 던 졌는지, 아니면 그가 범죄자라고 가정하고 개를 보내고 있다고 생각한다면 그는 그렇지 않을 수도 있지만 지능 무기도 사용합니다. "- 그는 주장한다.

또 다른 예 : 비행기 조종사 나 특수 부대에 대상물을 파괴하라는 명령이 내려지면 조종사와 특수 부대도 지적 무기 역할을합니까?

"섀시에 총을 올려 놓고 원격으로 제어하는 ​​것은 기술적으로 매우 쉽습니다. 또한 시스템에 추가 기능을 제공 할 수 있습니다. 예를 들어, 무선 조종을하지 않고 일련의 독립적 인 행동을 수행 할 수 있도록하기 위해서는 A 지점에서 B 지점으로 이동하여 운영자에게 그 곳에서 일어나는 일에 대한 그림을 보내십시오. 그리고 그가 위험한 것을 발견하면, 그는 시스템에 화재를 내도록 명령 할 것입니다. 다음 단계에서는이 기계와 위험한 물체의 검색 기능을 제공 할 수 있습니다. 그녀는 운영자에게 말할 것입니다. 이봐 요, 나는이 곳에서 어떤 움직임을 보았습니다. 나는이 물체가 위험하다고 생각하고 그것을 파괴하는 것이 낫습니다. 그 후, 운전자는 파괴하라는 명령을 내릴 것입니다. 마지막으로, 운전자없이 잠재적 인 위험을 파악하고 화재 자체를 열 수 있도록 자동차에 대한 이러한 알고리즘 알고리즘을 처방 할 수 있습니다.

그러나 그는 자동차와 로봇에 대해 사람들을 위험에 빠뜨리는 것으로 말하는 것은 부적절하다고 생각합니다. 개와 마찬가지로, 서두르는 사람에 대한 명령을 그녀에게주는 사람은 책임을 져야합니다.

"이것은 인공 지능의 기능이 아닙니다 ... 지하철의 개찰구가 가지고있는 개찰구에 대해서도 말할 수 있습니다. 그는 또한 귀하가 요금을 지불했는지 여부와 같은 여러 가지 상황을 고려하여 귀하를 실망 시킬지 여부를 "고려"해야합니다. 그리고 여기 똑같은 것이있다 "고 코닐 로프는 말했다.

요약하면, 전문가는 과학의 현 상태가 기술적으로 매우 다른 것들을 매우 위험하게 만들 수 있다고 말했다. 동시에 기술 자체의 개발은 인류에 문제를 일으키지는 않지만 이미 존재하는 모순을 악화시킬 수 있습니다. 어리석은 것을 탓하는 기술. 문제는 "기술적이지 않은"것입니다.

통제되지 않은 자율 시스템 개발과 관련된 두려움은 정기적으로 표현됩니다. 2 년 전 유엔 특별 보고관은 비사 법적, 요약 적 또는 임의적 처형에 대해 치명적인 자율 로봇 시스템 (LARS) 생산에 유비쿼터스 모라토리엄을 촉구했습니다.

전문가는이 유형의 무기에 대한 국제 표준이 개발 될 때까지 "국가 수준에서 LARS의 생산, 조립, 이전, 획득, 도입 및 사용에 대한 모라토리엄 소개"를 촉구했다. Haynes에서 이러한 로봇을 사용하면 전쟁과 평화의 조건에서 생명을 보호하는 것과 관련하여 광범위한 결과를 초래하는 문제가 제기됩니다.

특별 보고관은 이제 그러한 법적 틀이 존재하지 않으므로 특히 국제법의 기준에 따라 행동 할 것인가, 특히 군인과 민간인의 차이에 대한 정의에 관해서는 기계가 프로그램 될 수 있는지 여부가 불투명하다고 강조했다.

또한 전문가는 자율 로봇을 사용할 때 "적절한 법적 책임 시스템을 개발하는 것은 불가능합니다"라고 언급했습니다. "무인 항공기의 경우 사람이 화재를 시작할시기를 결정하는 반면, LARS에서는 탑재 컴퓨터가 목표를 정하는 사람을 결정합니다."

2012에서 인권 단체 인 휴먼 라이츠 워치 (Human Rights Watch)는 50 페이지의 "인간을 잃는다 : 로봇에 대한 논쟁"이라는 보고서를 발표했다.이 보고서에서는 완전 자동화 된 무기를 만들 위험에 대해 경고했다. 휴먼 라이츠 워치 (Human Rights Watch)가 하버드 로스쿨과 공동으로 작성한이 보고서는 개별 국가가 로봇 무기의 생산과 사용을 완전히 금지하는 국제 조약을 개발할 것을 촉구했다.

인권 활동가들은 자치 군사 무기가 아직 존재하지 않고 아직도 채택 되기는 어렵다고 지적했지만 일부 국가의 군대 (예 : 미국)는 이미 "킬러 머신 (killer machine)"창설에 중요한 돌파구를 구현 한 프로토 타입을 제출했습니다.

이 보고서는 미국이이 경기에서 선두를 달리고 있으며, 중국, 독일, 이스라엘, 한국, 러시아, 영국 등 일부 국가가이 분야에 참여하고 있다고 지적했다.

많은 전문가들에 따르면 전투 차량의 완전한 자율성에 따라 국가는 20에서 30 년으로 이동해야합니다.
Ctrl 키 엔터 버튼

실수로 눈치 챘다. 텍스트를 강조 표시하고를 누릅니다. Ctrl + Enter를

45 댓글
정보
독자 여러분, 출판물에 대한 의견을 남기려면 등록하십시오.

зже зарегистрированы? Войти

  1. 발가 1 8 월 2015 06 : 17 새로운
    • 8
    • 0
    +8
    날뛰다. 터미네이터를 만들기 전에 자신의 머리에서 순서를 복원해야합니다. 이미 무인 행성은 다른 시스템에서 마스터해야하지만 우리는 이것을 공유 할 수 없습니다.
    1. prosto_rgb 1 8 월 2015 06 : 39 새로운
      • 3
      • 0
      +3
      과학자들은 킬러 로봇의 임박한 모습을 예견한다.

      무엇을 예견해야합니까? 우리는 이미 여기 있습니다!

      그리고 이것은 인공 지능으로 자율 무기 시스템에 반대하는 과학자들이 말하는 시간이 아닙니다 ???
      질문-질문 ??
      아무것도, 그들은 우리를 떠나지 않을 것입니다. 깡패
      1. 바이칼 1 8 월 2015 07 : 44 새로운
        • 3
        • 0
        +3
        나는이 우울한 협착증의 모든 이야기의 관점에서가 아니라 기본적인 상식의 관점에서 기사를 보도록 제안합니다. 다리가없는 초콜릿은 없을 것입니다. 다른 말로하면 - 이 모든 화려한 휴가에 대한 장기간 자율적 인 저렴한 배터리는 어디에 있습니까? 웃음
        1. 스와 1 8 월 2015 08 : 43 새로운
          • 3
          • 0
          +3
          제품 견적 : 바이칼
          오래 지속되는 독립형 저렴한 배터리는 어디에 있습니까?

          초등.

          a) 가솔린 스테퍼. 토크가 아니라 압축 가스의 에너지-압력을 취하면됩니다. 그. 공압식 프로펠러에 압축 된 에너지 (대부분 공기가 있지만 액체에는 약간의 이점이 있음)의 에너지를 전달하기 위해 공압 이동 시스템과 호스와 튜브를 통해 나타납니다. 그건 그렇고, 비슷한 원칙에 따라 달리는 사람을 가속화하는 스피드 워커 부츠가 있습니다 https://www.youtube.com/watch?v=UxtRf8wnvKI 약 8ml / km의 연료 소비, 0,8km 당 100 리터 반복.

          b) 하이브리드. 차 에서처럼. 그런 다음 모든 것이 전기로갑니다.

          따라서 문제는 배터리 유형 전원에 있지 않습니다. 문제는 관리 복잡성 바퀴가 없다. 글쎄, 그러한 운동에 대한 정보가 충분하지 않습니다 ...
          1. 고양이 남자 null 1 8 월 2015 08 : 55 새로운
            • 2
            • 0
            +2
            제품 견적 : srha
            지금까지 문제는 바퀴없이 운전하는 것이 어렵다는 것입니다. 글쎄, 그러한 운동에 대한 정보가 충분하지 않습니다.

            이 "말"은 이미 캐나다 버튼 아코디언이지만, "바퀴가없는 움직임"에 대해서는 충분한 "지능"을 가지고 있습니다.

            모든 검색 엔진 ( "darpa horse video")에는 많은 것이 있습니다.

            1. 스와 1 8 월 2015 10 : 05 새로운
              • 0
              • 0
              0
              뒤집힌 상태에서 걸려 넘어지면 뒤집어지면 어떻게 상승합니까? 그것은 돌 스크린을 따라 어떻게 움직입니까? 얼음에? 모래 위에? 늪에서? 물에? 계곡을 통해 나무에? 구덩이를 극복하는 방법? 기타. 지금까지는 매우 단순한 트랙에서 가장 간단한 움직임 만 나타냅니다. 공부하는 동안.
              그리고이 모델에서는“뇌”가 적을뿐 아니라 포유류와 비교하여 운동학에 여전히 결함이 있습니다.
              1. 탐색기 1 8 월 2015 12 : 16 새로운
                • 1
                • 0
                +1
                "큰 개"가 얼음과 똥 위에서 움직이며 장애물을 극복하고 강한 차기 후에 균형을 유지하는 비디오가 nete에 있습니다.
              2. 미끄러운 1 8 월 2015 14 : 13 새로운
                • 4
                • 0
                +4
                사무실은 bostondynamics라고 불리며 2007 년부터 그것을 따르고 있으며 비디오는 2012 년보다 높습니다. 사이트를 방문하여 사람들의 활동을 확인하십시오. 솔직히 말하면, 정사각형 매니큐어 당 수십 개의 만화가 기관총과 묶은 다음 Shoigu 앞에 뛰어 들어 멋진 러시아 엔지니어가되는 것은 아닙니다. 2013 년에, 그들의 발전은 매우 인상적이었습니다. 그것은 13 일 말에서 14 일 초에 특징적이었습니다. 따라서이 주제에서 그들은 운동학의 열등 성을 반영하지 않지만 아쉽습니다. 한 가지 희망은 BP 서비스가 "잡는 것보다 적게 훔치기"로 결정했다는 것입니다.
                1. KG_patriot_last 1 8 월 2015 19 : 23 새로운
                  • 2
                  • 0
                  +2
                  어떤 표면으로 이동하십시오.
                  1. 스와 2 8 월 2015 10 : 38 새로운
                    • 0
                    • 0
                    0
                    제품 견적 : KG_patriot_last
                    어떤 표면으로 이동하십시오.
                    야아? 이상하지만 장벽이 작고 평평한 표면 만 보입니다.

                    나는 사람들이 무엇을하고 있는지 보았다. XNUMX 년 동안 그들은 두 사지가 항상 땅에 닿았을 때, 달리기 전에, XNUMX 명 모두가 땅에서 들어 올려 질 때 씨앗에서 크게 움직였습니다. 그. 스태틱에서 다이내믹으로 옮겼습니다. 경 사진 표면을 가지고 치수에 맞게 부드럽게 경 사진 사다리를 만드십시오. 그러나 그 작업은 여전히 ​​우위가 아닙니다! 왜 포유류에 비해 단순화 된 운동학을 사용합니까? 알고리즘이 더 쉬우므로 그렇게 할 수 있습니다.

                    그건 그렇고, 그들이 점프 모델을 만들기 위해 포유류의 패턴에 접근하기 위해 추가 관절 (고관절과 어깨를 모방)을 도입해야했습니다. 그런 다음 척추와 발을 모방해야합니다. 그리고 이것이 200km의 타이가 루트를 커버하기에 충분할지는 확신하지 못합니다. 개발 경로가 여전히 길고, 주요 문제는 일단 XNUMX 피스 레그를 만들고 XNUMX 개를 만든 후에는 역학이 아닙니다. 문제는 알고리즘에 있습니다. "지능"
                    1. 미끄러운 2 8 월 2015 11 : 52 새로운
                      • 0
                      • 0
                      0
                      맞습니다. 먼저 스탠드에서 운전 한 다음 현장에서 운전합니다. 또한 개가 라디오 표지를 따라 사람을 따르기 전에 다 프라가 이러한 작업을 변경했으며 군대는 제스처 인식을 요구했습니다. 무엇이 문제입니까? 그리고 현장에서는 그렇게 간단하지 않았습니다. 그러나 스털링 엔진을 최신 모델에 배치하는 방법에 대해서는 침묵합니다. 그건 그렇고, 비디오 중 하나에서 수 천만 개의 도살 된 너구리에 대한 재미있는 "sur"속임수 개가 80 년 전에 발명 된 일반 박격포를 끌었습니다.
          2. 8982795roman 1 8 월 2015 21 : 52 새로운
            • 0
            • 0
            0
            자이로 콥터는 공압이 아닌 유압 장치가 필요하지 않습니다!
        2. 새로운 공산주의자 1 8 월 2015 10 : 32 새로운
          • 2
          • 0
          +2
          합성 근육이 만들어지고 배터리가 만들어지며 중국 전기 자동차를 보며 갑자기 240km의 충전없이 테슬라를 봅니다. 33 년 동안 일하지만 비싸다.
        3. Petrix 1 8 월 2015 11 : 05 새로운
          • 1
          • 0
          +1
          제품 견적 : 바이칼
          다리가 없으면 초콜릿이 없습니다.

          특정 제품이 아닌 원칙이 고려됩니다. 5 분 이상 자율적이라해도 이미 자신의 발전소에 연결된 모든 사람이나 고정 된 사람을 쏠 수 있습니다.
        4. Vadim237 1 8 월 2015 11 : 40 새로운
          • 1
          • 0
          +1
          우리는 이미 원자 배터리를 만들었습니다. 수명은 50 년입니다.
          1. 사바 키나 1 8 월 2015 12 : 06 새로운
            • 3
            • 0
            +3
            그들은이 "하나님의 게임"을 할 것입니다 ... 주님은 말을 창조 하셨는데 왜 말을 재발 명하셨습니까? 나는 자신의 종류의 창조 로이 모든 게임이 선으로 끝나지 않을 것이라고 생각합니다 ...
          2. BMW
            BMW 1 8 월 2015 14 : 30 새로운
            • 1
            • 0
            +1
            우리는 70 년대에 원자 배터리를 만들었습니다.
            연구소에서 공부할 때, 우리는 시간 제로 일하는 한 명의 선생님이있었습니다. 주요 근무 장소는 캄차 하이드로 테오 센터입니다.
            그래서 그는 80 년대 초에 캄차카에서 실험이 진행되었다고 말했다. XNUMX 개의 자동 기상 관측소에서는 기존 전원 공급 장치가 원자 전원 공급 장치로 교체되었습니다. 실험은 XNUMX 년 동안 이루어졌으며 완전한 실패로 끝났다. 항상 그렇듯이 인적 요소가 영향을 받았습니다. 사실 냉각 용 전원 공급 장치에는 사냥꾼이 산탄 총에서 쏜 금속 라디에이터가 충분히 장착되어 있습니다. 결과적으로 전원 공급 장치는 기존의 전원 공급 장치로 교체되었으며 서비스 수명은 XNUMX 주입니다. 원자력 전원 공급 장치가있는 스테이션은 XNUMX 개월마다 유지 보수를 받아야했습니다.
            나는 진실을 모른다. 나는 그런 정보를 어디서나 만나지 못했다.
            나는 XNUMX 년 전 오래된 사냥꾼에게서이 이야기를 들었습니다.
            1. 미끄러운 1 8 월 2015 14 : 50 새로운
              • 1
              • 0
              +1
              RTG 10 * 10 cm 크기, 원격 비콘에 설정. 나는 이것에 대해 알고있다 .Kandlaksha 지구의 90 대 광대는 등대를 들고 소음이 있었지만 라디에이터로 이름을 기억하지 못합니까?
              1. BMW
                BMW 1 8 월 2015 16 : 14 새로운
                • 0
                • 0
                0

                아니요, 보지 못했습니다. 그는 말씀에서 말했다.
        5. KaPToC 1 8 월 2015 14 : 51 새로운
          • 1
          • 0
          +1
          제품 견적 : 바이칼
          이 모든 화려한 휴가에 대한 장기간 자율적 인 저렴한 배터리는 어디에 있습니까?

          그리고 사람은 어떤 종류의 오래 지속되는 자율적 전원을 가지고 있습니까?
          1. 정신 분열증 환자 1 8 월 2015 17 : 27 새로운
            • 0
            • 0
            0
            제품 견적 : KaPToC
            그리고 사람은 어떤 종류의 오래 지속되는 자율적 전원을 가지고 있습니까?

            뚱뚱한. 산화 과정에서 에너지가 방출되며 매장량은 부하에 따라 다르며 1 일에서 60 일까지 다양합니다. 그러나 많은 것은 정신 상태에 달려 있습니다. H2O를 기준으로 연료 보급시 유효 기간이 증가합니다.
    2. BMW
      BMW 1 8 월 2015 15 : 29 새로운
      • 3
      • 0
      +3
      제품 견적 : valga
      말도 안돼.


      이것은 말도 안돼.
      의견으로 판단하면, 그들은“인공 지능”과“자율 시스템”을 혼동합니다.
      인공 지능은 인간 두뇌의 원리와 사고의 원리를 이해 한 경우에만 만들어 질 것입니다. 그리고이 용어를 완전히 이해한다면 가능한 한 향후 100 년 동안 우리에게 빛을 발하지 않습니다.
      그러나 AI의 기초를 가진 최적의 확률을 계산하여 작동하는 자율 시스템은 곧 20 년 전에 만들어 질 것입니다. 그것은 단지 개 또는 사이보그를 걷는 것이 아니며, 탱크, 장갑 요원, UAV, 함대 등입니다. 즉 강력한 컴퓨터를 얻을 수 없으며 모든 메커니즘에 힘을 제공합니다.
      확률을 계산하는 원칙에 따라 운영되는 자율 시스템은 정기적으로 실수를 저지르고 그로부터 배우게 될 것입니다. 그러나 학습 속도는 상황에 적응하거나 자신의 이점으로 바꾼 사람의 능력보다 항상 뒤 떨어질 것입니다. 이 결론에서 그러한 자율 시스템은 항상 사람에게 잃을 수 있으므로 잠재적으로 위험한 모든 것을 완전히 파괴하도록 프로그래밍됩니다.
      이 기사는이 문제에 관한 것입니다.
      작은 동지들은 공상 과학 소설을보고, 그녀를 사랑한다면, 그녀를 아이러니로 대우하십시오. 공상 과학 소설과 영화 "터미네이터", "행복한"등을 좋아합니다.
      1. 미끄러운 1 8 월 2015 15 : 48 새로운
        • 1
        • 0
        +1
        이 서한은 모든 생명체를 파괴하는 자율적 충격 시스템에 대해서만 이야기합니다. 번역의 어려움, 미디어 구울의 누군가가 텍스트를 뛰어 넘고 문학적으로 빗질하고 모든 뉴스에 흩어졌습니다. 그건 그렇고, 자체 학습 시스템을 사용하면 모든 것이 순조로운 것은 아니며 개발은 컴퓨팅 성능의 증가로 인한 것이므로 이제 알고리즘을 변경해야합니다. 나는 주제, 직장에서 금속의 용접 및 녹는 것과 관련되어 있고 집에서 머리가 쉬고 흥미로운 이유를 즉시 경고합니다. 깡패
        1. BMW
          BMW 1 8 월 2015 16 : 36 새로운
          • 0
          • 0
          0
          프로그래밍에 종사했던 워시는 이것을 이해해야합니다. 뭐
      2. Metlik 1 8 월 2015 21 : 01 새로운
        • 1
        • 0
        +1
        제품 견적 : bmw
        확률을 계산하는 원칙에 따라 운영되는 자율 시스템은 정기적으로 실수를 저지르고 그로부터 배우게 될 것입니다. 그러나 학습 속도는 상황에 적응하거나 자신의 이점으로 바꾼 사람의 능력보다 항상 뒤 떨어질 것입니다. 이 결론에서 그러한 자율 시스템은 항상 사람에게 잃을 것입니다.


        위험한 상황에 처한 사람은 로봇을 능가하기 위해 실수를 저지르는 경향이 있습니다. 세심하고 오랫동안 훈련해야합니다. 그러나 이것은 기계에 필요하지 않으며 프로그램은 몇 초 안에 메모리에 복사됩니다. 사람은 더 완벽하지만 자동차는 대량으로 우선합니다. 군사 활동의 진행을 막는 금지는 없습니다. 가까운 미래에 자율 시스템이 만들어 질 것입니다.
  2. 내연 기관 1 8 월 2015 07 : 10 새로운
    • 4
    • 0
    +4
    제 XNUMX 차 세계 대전 이전에 그들은 다가오는 전쟁이 모터의 전쟁이 될 것이라고 말했습니다. 이제 우리는 미래의 큰 전쟁이 로봇의 전쟁이 될 것이라고 말할 수 있습니다. 군이 AI 생성에 자금을 조달하는 데 주로 관여하기 때문에 군비에서 IP 사용을 제한하라는 과학자들의 요구는 듣지 않을 것입니다.
  3. 스와 1 8 월 2015 08 : 22 새로운
    • 2
    • 0
    +2
    지능은 다시 군대에서 평범한 사람들에게 꽃을 구하는 방법을 알려줍니다.

    그러나 우리는 진보를 멈추지 않을 것입니다. 군사 분야에서의 개발 지연은 패배로 이어집니다. 따라서 모든 힘 때문에 비대칭이라도 패리티를 유지할 가능성은 단 하나입니다.

    그리고 지능이있는 자동 무기가없는 군대는 머지 않아 이미 우리 생애에서 코르테스 앞에서 아즈텍 인의 역할을 할 것입니다.
  4. 슈틴 드워프 1 8 월 2015 08 : 46 새로운
    • 1
    • 0
    +1
    사이보그가 사로 잡혔습니다!
  5. Arestant 1 8 월 2015 09 : 19 새로운
    • 0
    • 0
    0
    괜찮아 -
    제품 견적 : srha
    지능이있는 기관총이없는 군대는 머지 않아 이미 우리 생애에서 코르테스 이전에 아즈텍의 역할을 할 것입니다.

    이 산업의 발전은 인상적인 속도이며
    제품 견적 : srha
    국가들은 20 년에서 30 년 사이에 군용 차량의 완전 자율성을 추구해야 할 것입니다.
    -이것은 최대치이며, 실제로는 더 빨리 일어날 것입니다.
    1. 스와 1 8 월 2015 10 : 08 새로운
      • 0
      • 0
      0
      제품 견적 : Arestant
      제품 견적 : srha
      국가들은 20 년에서 30 년 사이에 군용 차량의 완전 자율성을 추구해야 할 것입니다.
      이상하게도 내가 쓴 내용이 기억 나지 않습니까? 링크를 생각 나게하지 않습니까?
    2. 새로운 공산주의자 1 8 월 2015 10 : 27 새로운
      • -1
      • 0
      -1
      소련이 20-30 년 안에 핵폭탄을 만들어 1949 년에 만들어 낸 것처럼 보인다. Amers의 예측은 항상 정확하다.
  6. 새로운 공산주의자 1 8 월 2015 10 : 25 새로운
    • -3
    • 0
    -3
    이 모든 회의와 서신은 죽은 가금류와 같습니다. 지구상에서 하나의 국가를 만들고, 하나의 정부를 만들고, 새로운 공산주의의 새로운 시스템을 구축하고, 새로운 공산당에 합류해야합니다. 오늘날 유일한 사람은 로봇과 친구가되고 로봇이 열심히 일하고 새로운 경제를 창출 할 수있는 새로운 경제를 구축하는 것입니다 물질적 가치와 사람들은 소비하고 즐기며 때로는 욕구가 있다면 일을합니다. 새로운 공산주의자들이 제안한 것처럼 인공 지능을 가진 친구가되어야하며, Oligarchs가 원하는대로 싸워서는 안됩니다.
  7. Petrix 1 8 월 2015 11 : 46 새로운
    • 1
    • 0
    +1
    문제는 사람들을 죽이는 것에 관한 것입니다. 인성 적으로, 법원 만이 구금중인 범죄자를 처벌하기로 결정합니다. 이런 식으로 만 캐주얼 피해자가 없습니다. 누가 원격으로 정죄하고 죽일 권리를 주었습니까?
    사람들을 죽이는 AI를 기반으로 한 이것은 공격 무기, 공격자 무기입니다.
    "살해"자동차의 문제를 제기하면 모든 것이 단순화됩니다. AI는 이미 방어자가되고 있으며 "인명 사상자 방지"와 같은 법을 "나쁜"또는 "좋은"사람으로 무차별 적으로 작성할 수 있습니다.

    이것은 모두 조건부이지만. 무기는 죽 이도록 설계되었으며 싸움은 생명입니다. 따라서 살인 방법의 인류에 관한 질문은 부차적입니다. 문명은 이미 그것을 파괴 할 수있는 원자와 함께 살고 있습니다. 자신을 죽이는 또 다른 방법. 기술적 진보와 마찬가지로 이것은 불가피하다.
  8. 지도자 1 8 월 2015 15 : 11 새로운
    • -1
    • 0
    -1
    인류는 스스로 뭉칠 것입니다.
    한편으로는 그러한 인류를위한 길이 있습니다!
    다른 한편으로, 나는 더 살고 싶습니다 ...
    그러나 이제 모든 과학자들을 퇴치 할 차례입니다! -그들로부터 모든 문제와 문제!
    발명, 크레 틴! ...
    "행복을 위해"필요한 것은 19 세기에 발명되었습니다. 발명 된 모든 것은 문명의 종말을 가속화시킨다.
    1. BMW
      BMW 1 8 월 2015 16 : 42 새로운
      • 1
      • 0
      +1
      제품 견적 : 리더
      그러나 이제 모든 과학자들을 퇴치 할 차례입니다! -그들로부터 모든 문제와 어려움


      어리 석음은 과학자의 문제가 아니라 무언가를주는 "베지 안"의 문제이지만 그것을 사용하는 방법을 모릅니다.
      모든 문제는 인간의 탐욕, 어리 석음 및 원시성에서 비롯됩니다. 바보
  9. 자유 바람 1 8 월 2015 16 : 02 새로운
    • 1
    • 0
    +1
    로봇이 휴머노이드가되어야하는 곳은 어디입니까? 로봇이 배터리로 구동되어야한다고 결정한 이유는 무엇입니까? 내연 기관으로 로봇에 동력을 공급할 수 없다고 생각하는 이유는 무엇입니까? 인공 지능이 오랫동안 만들어졌고 위대한 체스 플레이어는 더 이상 "컴퓨터 플레이어"에 대처할 수 없으며 기계는 이제 사람들을 죽일 준비가되었습니다. 아마도 Ayazek Azimov의 규칙을 받아 들여야 할 것입니다. 로봇은 인간을 해치지 않아야합니다! 그리고 운영자없이 죽이는 기계와 메커니즘은 가득 차 있습니다. 적어도 광산이 설치되어 있으며 그녀는 자신을 만지는 사람을 죽일 것입니다.
  10. 미끄러운 1 8 월 2015 16 : 17 새로운
    • -1
    • 0
    -1
    컴퓨터가 이동 게임의 주인을 물리 쳤을 때 "브 루트 포스 방법"으로 단순화되면 체스가 재생됩니다. 그러면 지능에 대해 이야기 할 수 있습니다. 문제의 사실은 내 것이 방어 무기이며, 올라가거나 폭발하지 않는다는 것입니다. 이 서한의 메시지는 자율성과 같다 드럼 핵무기와 esseno에 관한 모든 것을 기반으로 한 시스템은 "심하게 민주적 인"국가 만이 할 수 있고 소유 할 수 있습니다. 독일과 호주의 포럼에 어떤 종류의 래크가 있는지 상상할 수는 없지만 괜찮은 사람, 엔지니어와 같습니다))))
  11. 1 8 월 2015 17 : 39 새로운
    • 1
    • 0
    +1
    그렇지 않습니다. 이것은 말도 안됩니다. 얼마 전, 전화를 걸기 위해 전화 부스에 줄 서서 컴퓨터라는 단어가 큰 상자와 펀치 카드와 관련이있었습니다. 우리는 10-20 년 안에 어떤 일이 일어날 지 거의 상상할 수 없습니다. 사이보그? 왜 안돼?
  12. 카이텐 1 8 월 2015 19 : 36 새로운
    • 2
    • 0
    +2
    나는 첫 번째 로봇 시스템이 휠 또는 추적 될 것이라고 생각합니다. 주요 무기는 기관총입니다. 터미네이터의 제작자는 개발 방향을 추측하여 영화 터미네이터 -3에이를 보여주었습니다.
  13. 침입자 1 8 월 2015 21 : 33 새로운
    • 2
    • 0
    +2
    이모. 공상 과학 소설을 좋아하지만 선반을 채우는 일회성 항목이 아닌 사람들은 공상 과학 소설 작가가 등장하기 전에 전화, 잠수함, 우주 여행, 레이저 등과 같은 많은 발명품이 묘사되었다는 것을 알고 있습니다. 첫 비행기, 기관총, 탱크 등이 얼마나 재미 있었는지 기억하세요. 그리고 지금? 건물 전체를 차지한 첫 번째 컴퓨터-스마트 폰, 태블릿. 원격 액세스 장비, 트러스트 자동 조종 장치, Buran 및 Shuttle 등을 제어합니다. 그러나 최근에는 미친 환상처럼 보였다. 안 그래? 이 사람들은 인공 지능과 로봇 공학의 발전에 강력한 진전이 있다고 말하고 싶습니다. 그리고 그들은 멀리 보인다. 우리는 기술을 신뢰하고 인적 요소를 제거하며 자체 개발 지능을 갖춘 무장 기계가 우리를 위협으로 간주하면 어떻게됩니까? 멸하다. 많은 영화가 구약 성경이 될 수 있습니다. 그리고 이것이 진화라면? 기계는 인간의 두뇌에 의해 제어되고 신체는 할 일이 없도록 사람들을 키울 것입니다. 기계는 방사선, 온도 등을 두려워하지 않습니다. 이것은 모두 말도 안되는 것처럼 보이지만 많은 공상 과학 소설도 광기로 간주되었습니다. 최악의 것은 우리가 불필요하게 될 수 있고 로봇이 핵무기를 통제한다면 기술 인자를 얻는다는 것입니다.
    이 법은 로봇이 없을 때 작성되었습니다. 기억하십니까? 그들은 오늘날 관련이 있습니다.

    공상 과학 소설의 로봇 공학의 세 가지 법칙-로봇의 필수 행동 규칙은 Isaac Asimov가 "Round dance"(1942) 이야기에서 처음 공식화 한 것입니다.

    법은 다음과 같이 읽습니다.
    1 : 로봇이 사람을 해할 수 없거나 행동하지 않아서 사람이 해를 입을 수 있습니다.
    2 : 로봇이 첫 번째 법령에 위배되는 경우를 제외하고 사람이주는 모든 명령을 따라야합니다.
    3. 로봇은 XNUMX 법칙과 XNUMX 법칙에 위배되지 않는 정도로 안전을 관리해야합니다.
    1986 년 소설 로봇과 제국에서 아시모프는 제로 법을 제안했습니다.

    0. 로봇은 인류에게 해를 끼치 지 않거나, 무 활동을 통해 인류가 해를 입을 수 없습니다.

    나는이 방향의 발전에 대한 제한의 채택을 고려하고, 우리는 후손을 위해 지구를 구할 것입니다. 이것은 한 사람에게 위협이 아니며, 이것은 인류에 대한 위협입니다.
    추신. SS 한심한 소리. 조금 지저분합니다. 당신의 의견을 표현하는 것을 좋아하지 마십시오. 그러나 전화 나 PC없이 자신을 상상할 수 있습니까? 더 많은 아이들. 그들은 거리에서 덜 일반적입니다. 신체적으로 건강한 사람은 거의 없습니다. 전화, 카드, 여권 등 모든 곳에서 칩이 곧 태어날 것입니다. 의지 우리는 목에 꼬리표가 달린 소의 무리와 같습니다. 호모 사피엔스 분해? 이모! 당신과 당신의 사랑하는 사람에게 행운과 건강!
  14. 댓글이 삭제되었습니다.
  15. ㅁㅁ 1 8 월 2015 22 : 47 새로운
    • 1
    • 0
    +1
    댓글에 얼마나 많은 환상 ...

    현재의 지식 수준에서 AI의 문제는 근본적으로 해결되지 않습니다. AI를 구축하는 방법뿐만 아니라 일반적으로 문제에 접근하는 방법에 대한 이해는 없습니다.

    깨달음은 지능이 아닌 소위 "전문가 시스템"을 만들 때만 볼 수 있으며, 한정된 수의 작업을 해결하기위한 유연한 알고리즘 풀입니다. 여기에 돌파구가 가능합니다.

    "자율 무기 시스템"은 AI보다 규모가 작지만 오늘날에도 환상적입니다. 같은 원리로 작업하는 현대 프로세서와 가까운 미래의 유사한 프로세서의 컴퓨팅 성능은 이러한 문제를 해결하기에 충분하지 않습니다 (“전문가 시스템”을 기준으로). 양자 컴퓨팅 분야에서 획기적인 변화가있을 때에 만 변화가 일어날 수 있으며,이 할머니는 두 가지로 나왔습니다. 여전히 포토닉스의 혁신에 대한 희망이 있습니다.

    따라서, 두꺼운 입술을 구르십시오) 아직 완벽하게 행진하는 "Zdav wish !!!"라는 비명을 지르는 전자 부츠를 수평선에서 보지 마십시오. 헌신적 인 반짝이는 비디오 카메라로 반짝이는 금속 주석 처리 된 한모금.
    1. Metlik 1 8 월 2015 23 : 21 새로운
      • 0
      • 0
      0
      AI의 생성은 순전히 기술적 인 문제이며 인간의 뇌가 어떻게 작동하는지에 대한 수수께끼는 없습니다. 적어도 다른 과학적 발견보다 더 복잡하지는 않습니다.
      물론 그러한 발전은 군사 비밀이며 아무도 그것을 공개하지 않을 것입니다.
  16. 철학자 1 8 월 2015 23 : 50 새로운
    • 1
    • 0
    +1
    인공 지능에 대한 모든 이야기는 과학이 인간 지능의 본질을 이해하지 못하고 창의적 활동, 자기 분석 및 자기 비판, 상상적 사고, 관찰 및 관점으로 들어가는 논리적 체인을 구축 할 수있는 정도까지는 미미합니다. 의사는 인간의 의식이 어디에 있는지 (일반적으로 뇌에서) 정확히 어디에서나 유사성을 만들어내는 기억이 어디에 있는지 정확히 이해하지 못합니다.
    따라서 오늘날 지능의 유일한 유사점은 상호 지원하는 본능 (알고리즘)을 기반으로 한 곤충의 행동 모듈과 유사 할 수 있습니다.
    따라서 인공 지능에 대한 공상 과학 소설은 앞으로 수십 년 동안 허구로 남아 있습니다. 그리고 전투 차량의 제어 장치의 역할은 원격 작업자-아주 살아있는 사람에 의해 수행됩니다.
  17. 미끄러운 1 8 월 2015 23 : 52 새로운
    • 0
    • 0
    0
    제품 견적 : Mentat
    현재의 지식 수준에서 AI의 문제는 근본적으로 해결되지 않습니다. AI를 구축하는 방법뿐만 아니라 일반적으로 문제에 접근하는 방법에 대한 이해는 없습니다.

    예, 당신은 AI를 이해하지 못합니다. 오토 반에서 운전자가없는 자동차는, 만세가 AI라고 말하지 않는 사람은 누구입니까? 그런 차에 무기를 부착하고 움직이는 모든 것을 파괴하는 것을 막는 것. 우리는 핵무기 사용이 복잡한 절차라는 것을 알고 있기 때문에 평화롭게 자고 있습니다. 예를 들어, Armata는 거의 기성품 인 자율 전투 모듈입니다 (기술은 이미이를 가능하게합니다). 취한 선장이 재미로 다른 XNUMX 개의 다른 모듈을 가장 가까운 도시로 보내지 않을 것이라는 보장은 어디에 있습니까? 또는 누군가 국경에 화를 내며 작지만 자랑스런 공화국이되지 않았습니다. 이 편지의 전체 메시지는 우리가 터미네이터를 만들 것이라는 것이 아니라 게으르고 통제 할 수없는 모든 사람들이 지금하고 있다는 것입니다. 이 기술들은 같은 중국어로 흘러 갈 것이지만 자율적 인 모듈을 다른 나라에 팔 수 없다는 법은 없습니다. 동쪽에서 무엇이 시작 될까요? 아시아에서 무엇이 시작 될까요? shahid를 준비하려면, 당신은 그를 모집하고, 술에 취해 그를 목표로 향하게해야합니다. 이번에는이 "fawn"지능 서비스가 여전히 작동하고 있습니다. 그리고 여기서는 모듈이 차고에 조립되어 있지 않습니다. 군중 속에서 . 그리고 새로운 공포의 시대가 시작됩니다. 이것이 개발중인 사람들이 말하려는 것입니다.
    제품 견적 : Mentat
    "자율 무기 시스템"은 AI보다 규모가 작지만 오늘날에도 환상적입니다.

    정말 미안하고 Tunguska와 Tor는 이미 어떤 식 으로든 독립적입니까? 가장 먼저 떠 올랐습니다.
  18. 침입자 2 8 월 2015 00 : 01 새로운
    • 1
    • 0
    +1
    제품 견적 : Mentat
    댓글에 얼마나 많은 환상 ...

    이것들은 의견과 당신의 표현입니다. 19-20 세기의 온난화, 생태와 같은 세계적 문제에 대해 글을 쓰기에는 너무 이르지만, 아쉽습니다. 이제 우리는 원인을 제거 할 수있는 결과로 어려움을 겪고 있습니다. 그리고 여기도 마찬가지입니다. 결국, 항소가 이루어졌습니다.
    전 세계의 수천 명의 과학자, 엔지니어 및 사업가들이 인공 지능이 적용된 자율 무기 시스템 사용을 금지하라는 서한에 서명했습니다. 그중에는 유명한 영국 이론가이자 천체 물리학 자 스티븐 호킹 (Stephen Hawking), 미국의 발명가이자 사업가 인 애플 공동 창립자 스티브 워즈니악 (Steve Wozniak), 구글의 딥 마인드 CEO 데미스 하사 비 (Demis Hassabis), 언어 학자 노암 촘스키 (Noam Chomsky)가있다.

    나는 그들이 우리보다 어리석지 않다고 생각합니다. 진실은 논쟁에서 태어납니다. 진정으로.
  19. 알렉스 다닐 로프 2 8 월 2015 00 : 07 새로운
    • 1
    • 0
    +1
    제품 견적 : valga
    날뛰다. 터미네이터를 만들기 전에 자신의 머리에서 순서를 복원해야합니다. 이미 무인 행성은 다른 시스템에서 마스터해야하지만 우리는 이것을 공유 할 수 없습니다.

    예, 예, 그렇습니다 다른 행성을 습득 할 시간입니다. 확실합니다. 우주와 우주를 끌어서 착취 할 시간이라는 사실을 놓고 싸우는 것은 어리석은 일입니다. 우리는 에너지와 에너지를 낭비하고 있습니다. 군대는 있어야하지만 다른 사람들이 와서 정복 할 것입니다.
    그러나이 지성은 어쨌든 발명 될 것입니다. 금지, 금지하지 마십시오. 모든 사람은 더 빨리 발명하는 사람이이기는 사람이라는 것을 알고 있습니다.
    가장 중요한 것은 모든 맨 킨드에게 나쁜 일을하지 않는 것이 좋은 프로그램입니다. (전쟁에서 사용하는 것에 대해 이야기하고 있습니다.) 그러나 결국 우리는 인간이 아니라 지능이 뛰어나고 우리와 우월한 생물과 싸울 것입니다 친구, 우리는 일반적으로 일종의 개미가됩니다 ...
  20. ㅁㅁ 2 8 월 2015 18 : 11 새로운
    • 0
    • 0
    0
    제품 견적 : 미끄러운
    제품 견적 : Mentat
    현재의 지식 수준에서 AI의 문제는 근본적으로 해결되지 않습니다. AI를 구축하는 방법뿐만 아니라 일반적으로 문제에 접근하는 방법에 대한 이해는 없습니다.

    예, 당신은 AI를 이해하지 못합니다. 오토 반에서 운전자가없는 자동차는, 만세가 AI라고 말하지 않는 사람은 누구입니까? 그러한 차에 무기를 부착하고 움직이는 모든 것을 파괴하는 것을 막는 것.

    “로봇 공학과는 거리가 멀다”는 말을 바꾸면 이것은 방해가된다.

    우리는 핵무기 사용이 복잡한 절차라는 것을 알고 있기 때문에 평화롭게 자고 있습니다.

    우리는 평화롭게 잠을 자고 있습니다. 그 대적은 버튼을 누르면 자신이 전 행성 재앙으로 타 버릴 것임을 알고 있기 때문입니다. 당신의 진술은 점점 더 이상 해지고 있습니다.
    핵 억제라는 용어에 익숙하십니까?

    예를 들어, Armata는 거의 기성품 인 자율 전투 모듈입니다 (기술은 이미이를 가능하게합니다). 취한 선장이 재미로 다른 XNUMX 개의 다른 모듈을 가장 가까운 도시로 보내지 않을 것이라는 보장은 어디에 있습니까?

    당신은 끔찍하게 먼 것이 아니라, 오해의 끝없는 틈을 넘어선 것입니다.


    철은 의심의 여지가 없다
    애벌레의 움직임, 에어 서스펜션, 사람, 녹색 사람 등은 중요하지 않습니다. 군중 속에서 죽이는 것이 중요합니다.

    XNUMX 학년 고등학교?


    제품 견적 : Mentat
    "자율 무기 시스템"은 AI보다 규모가 작지만 오늘날에도 환상적입니다.

    정말 미안하고 Tunguska와 Tor는 이미 어떤 식 으로든 독립적입니까? 가장 먼저 떠 올랐습니다.

    절대 안돼. 저런 남자가 안에 앉아 버튼을 누르면
  21. ㅁㅁ 2 8 월 2015 18 : 18 새로운
    • 0
    • 0
    0
    제품 견적 :
    제품 견적 : Mentat
    댓글에 얼마나 많은 환상 ...

    이것들은 의견과 당신의 표현입니다.

    물론이야. 진실은 나의 것이 아니라 지구의 공학 공동체에 대한 통합 된 견해입니다.

    세계 각국의 과학자, 엔지니어 및 사업가 수천 명에게 편지에 서명

    나는 그들이 우리보다 어리석지 않다고 생각합니다.

    아마 가능합니다. 그러나 편지의 내용을 읽고 이해하지 못했습니다. 모든 사람들이 미친 듯이 빨기 시작한 것은 인공 지능에 관한 것이 아니라, 원격으로 무기를 사용하면 그 사용에 대한 책임을 없애고, 살인을 용납 할 수없는 정도로 단순화하며, 운영자의 행동에 대한 도덕적 측면에 대한 인식을 줄입니다.
    그리고 AI의 출현 악화시킬 것이다. 이 상황.
  22. ㅁㅁ 2 8 월 2015 18 : 25 새로운
    • 0
    • 0
    0
    제품 견적 : Metlik
    AI의 생성은 순전히 기술적 인 문제이며 인간의 뇌가 어떻게 작동하는지에 대한 수수께끼는 없습니다.

    최근에 뉴런에서 양자 과정의 징후가 발견되었습니다. 이것은 수수께끼에 관한 단어입니다.
  23. 미끄러운 3 8 월 2015 12 : 50 새로운
    • 0
    • 0
    0
    제품 견적 : Mentat
    절대 안돼. 저런 남자가 안에 앉아 버튼을 누르면

    Vus가 달린 툰구 스카 선원의 정비공이 해치를 올바르게 닫지 않으면 총성이 없을 것이라고 상상합니다. 자동 발사 중 어떤 버튼을 눌렀는지 기억하면 모든 것이 깨끗해집니다.
  24. ma_shlomha 13 8 월 2015 10 : 40 새로운
    • 0
    • 0
    0
    공상 과학 소설 작가 Anatoly Dneprov는이 현상을 이야기에서 매우 명확하게 설명했습니다. "게는 섬을 돌아 다녀요" 1958로 돌아 가기

    엔지니어 Cookling의 지휘하에 상륙 파티가 작은 섬에 착륙했습니다. 그들은 Charles Darwin의 이론을 테스트하기 위해 재미있는 실험을 원합니다. 오직 동물 만이 진화하지 않고 유사한 로봇 메커니즘 인“게”를 스스로 조직하고 재생산합니다. "게"의 유일한 목적은 자체 기계를 만드는 것입니다. 자손을 생산하려면 금속, 철, 구리, 아연뿐만 아니라 에너지가 필요합니다. 적의 뒤쪽에있는 비슷한 게는 모든 금속을 빠르게 먹을 수 있습니다. 섬에 금속이 거의 없기 때문에 게는 싸움을 시작하고 최고의 메커니즘은 싸움에서 살아남아 자연 선택으로 이어집니다. 게에 코발트를“음식에”추가하면 공격적으로 만들어져 두려움없는 포식자로 변모합니다. 섬은 지옥으로 변합니다.
    1. ma_shlomha 13 8 월 2015 10 : 56 새로운
      • 0
      • 0
      0
      Raytheon은 전장에서 유도 미사일의 3D 인쇄를 제공합니다.

      궁극적으로 우리는 모든 제품을 한 번에 인쇄하려고합니다.”라고 매사추세츠 레이 테온 대학의 부사장 인 Chris McCarrol은 말했습니다.
  25. 잘못 30 8 월 2015 22 : 58 새로운
    • 0
    • 0
    0
    FSA에는 이미 킬러 로봇이 있습니다. 이들은 전투 드론 운영자입니다.
    콜 오브 듀티 게임과 같은 양심은 없습니다.
    목표는 멀리 있습니다 (혈액이 보이지 않고 통증의 울음 소리가 들리지 않음), 리모콘 (십자선을 잡고 조이스틱을 돌리고 버튼을 누르십시오).
    독일 인구가 구 파시스트 죽음 수용소의 영토로 끌려 가면서이 운영자들의 시체는 해체 될 것이다.
    사이보그, b * la.