과학자들은 킬러 로봇의 임박한 모습을 예견한다.
전 세계의 천명이 넘는 과학자, 엔지니어 및 사업가들이 자치 시스템 사용 금지에 관한 서한에 서명했습니다. оружия인공 지능을 부여 받았다. 그들 중에는 유명한 영국의 이론가이자 천체 물리학 자 스티븐 호킹 (Stephan Hawking), 언어학자인 노움 촘스키 (Noam Chomsky)의 구글 딥 마인드 데미스 하사 비스 (David Minhmith Demass Hassabis)의 전무 이사 인 애플 스티브 워즈니악 (Apple Steve Wozniak)의 공동 설립자 인 미국의 발명가이자 사업가 인 일롱 머스크 (Ilon Musk)
"비행기 조종사 나 특수 부대에 대상물을 파괴하라는 명령이 내려지면 조종사와 특수 부대도 지적 무기 역할을합니까?"
이 편지는 부에노스 아이레스에서 열리는 부에노스 아이레스 국제 인공 지능 회의에서 공개됐다.
"인공 지능 기술의 개발은 이러한 시스템이 향후 몇 년 동안 사업자에 배치 될 수있는 단계에 도달했습니다. 이러한 자율 유형의 무기는 화약과 핵무기가 발명 된 이후 군사 분야의 세 번째 혁명을 대표하는 것이므로 위험은 위대하다.
이 편지의 저자들은 방위 산업 전체를 대상으로 인공 지능 기술의 개발을 금지 할 것을 요구하지는 않았지만, 이러한 기술은 자율적이 아니어야하며 독립적 인 의사 결정의 기능을 부여 받아서는 안된다고 생각한다.
"만약 주요 군사력이 인공 지능으로 무기 체계를 개발한다면 세계 무기 경쟁은 불가피하게 될 것이다. 결과는 지금 예측 될 수 있습니다 : 자율 무기는 내일 카라시니 코프 (Kalashnikov) 폭행 소총처럼 내일처럼 평평해질 것입니다.
자율 시스템은 자동화된 시스템과 달리 인간의 참여를 전혀 포함하지 않습니다. 전문가들에 따르면 자율 무기를 만들기 전에는 아직 멀었습니다. 그럼에도 불구하고 현재 기술 개발 수준에서도 과학자들은 여러 가지 우려를 표명합니다. 중동에있는 사람을 파괴하라는 명령은 미국 사무실의 장교가 내릴 수 있습니다. 그리고 그가하고있는 일에 대한 인식 수준, UAV 운영자는 최전선에있는 군인이 가진 것과 매우 다를 수 있습니다. 별도의 문제는 가능한 사용입니다. 무적의 특별 서비스의 이익을 위해 표시하지 않고.
자율 시스템이나 자동화 된 시스템에서 오류를 완전히 제거하는 것은 불가능하지만, 후자의 경우 적어도 하나는 오류의 결과에 책임이있는 사람을 찾을 수 있습니다.
"인텔리전스 및 쇼크론 시스템은 자동화 된 시스템입니다. 무인 공중 차량의 전문가 인 데니스 페두 티노 프 (Denis Fedutinov)는 VZGLYAD 신문에 목표물을 식별하는 문제와 무기 사용에 대한 결정이 남아 있다고 전했다. - 그리고이 결정을 한 특정 사람을 찾을 수 있습니다. 그리고 오류가 발생하면 책임있는 문제가 발생합니다. 이 질문을 자동 시스템에 적용하면 개성은 없습니다. 나는 완전히 조기 발견. 적어도 가까운 미래에이 기능들은 그 사람과 함께 남아 있어야합니다. "
그는 UAV 개발 과정에서 자동 또는 자동으로 실현 가능한 작업의 비율이 증가하고 있다고 강조했다. "현재 우리는 이륙 / 착륙, 표적 탐지, 식별 및 추적의 자동화에 대해 이야기하고 있습니다. 앞으로는 다른 유인 및 무인 공중 차량을 사용하는 그룹에서 단 하나의 행동과 행동으로 목표의 자동 파괴 작업도 수립 될 것입니다. 이것은 "탐지 - 패배"주기 시간을 계속 감소시켜 각 시스템의 효율성을 높여야합니다. 한편, 목표를 식별하는 데 종종 오류가있어 민간인 사상자로 이어질 수 있습니다. 그러한 오류는 확실히 작은 규모 임에도 불구하고 가까운 장래에 지속될 것입니다 "라고 전문가는 말했다.
로봇 공학 전문가 인 Alexey Kornilov는 러시아의 모든 프로그램 인 "로봇 공학 : 러시아의 기술 및 기술 간부"의 자문위원이 VZGLYAD 신문에 말했다. 그러한 무기를 만들고 사용하는 문제는 수년간 논의되어왔다. "그러나 내 견해로는 로봇에 문제가 없다"고 전문가는 말했다.
Kornilov는 인공 지능이 무엇인지에 대해 보편적으로 받아 들여지는 정의는 현재 없다고 지적했다. 따라서 다른 분야의 전문가들은 좁은 영역에 대해서만 적절한 정의를 채택하고 채택합니다.
전문가는 인공 지능을 가진 무기를 언급하면서 "종종 이것은 특정 물체의 파괴 나 손상을 결정할 수있는 특정 시스템으로 이해된다"고 설명했다.
"현재 존재하는 그러한 시스템은 개는 말할 것도없고, 꿀벌과 같은 곤충의 수준까지조차도 (지적으로는 - 거의 보지 않고) 도달하지 못합니다. 그러나 페르시아인들과 싸우는 고대 스키 타이 인들이 꿀벌과 두드러기를 적에게 던 졌는지, 아니면 그가 범죄자라고 가정하고 개를 보내고 있다고 생각한다면 그는 그렇지 않을 수도 있지만 지능 무기도 사용합니다. "- 그는 주장한다.
또 다른 예 : 비행기 조종사 나 특수 부대에 대상물을 파괴하라는 명령이 내려지면 조종사와 특수 부대도 지적 무기 역할을합니까?
"섀시에 총을 올려 놓고 원격으로 제어하는 것은 기술적으로 매우 쉽습니다. 또한 시스템에 추가 기능을 제공 할 수 있습니다. 예를 들어, 무선 조종을하지 않고 일련의 독립적 인 행동을 수행 할 수 있도록하기 위해서는 A 지점에서 B 지점으로 이동하여 운영자에게 그 곳에서 일어나는 일에 대한 그림을 보내십시오. 그리고 그가 위험한 것을 발견하면, 그는 시스템에 화재를 내도록 명령 할 것입니다. 다음 단계에서는이 기계와 위험한 물체의 검색 기능을 제공 할 수 있습니다. 그녀는 운영자에게 말할 것입니다. 이봐 요, 나는이 곳에서 어떤 움직임을 보았습니다. 나는이 물체가 위험하다고 생각하고 그것을 파괴하는 것이 낫습니다. 그 후, 운전자는 파괴하라는 명령을 내릴 것입니다. 마지막으로, 운전자없이 잠재적 인 위험을 파악하고 화재 자체를 열 수 있도록 자동차에 대한 이러한 알고리즘 알고리즘을 처방 할 수 있습니다.
동시에 그는 자동차와 로봇 사람들에 대한 위협으로. 개의 경우와 마찬가지로 공격 명령을 내린 사람에게 책임이 있다.
"이것은 인공 지능의 기능이 아닙니다 ... 지하철의 개찰구가 가지고있는 개찰구에 대해서도 말할 수 있습니다. 그는 또한 귀하가 요금을 지불했는지 여부와 같은 여러 가지 상황을 고려하여 귀하를 실망 시킬지 여부를 "고려"해야합니다. 그리고 여기 똑같은 것이있다 "고 코닐 로프는 말했다.
요약하면, 전문가는 과학의 현 상태가 기술적으로 매우 다른 것들을 매우 위험하게 만들 수 있다고 말했다. 동시에 기술 자체의 개발은 인류에 문제를 일으키지는 않지만 이미 존재하는 모순을 악화시킬 수 있습니다. 어리석은 것을 탓하는 기술. 문제는 "기술적이지 않은"것입니다.
통제되지 않은 자율 시스템 개발과 관련된 두려움은 정기적으로 표현됩니다. 2 년 전 유엔 특별 보고관은 비사 법적, 요약 적 또는 임의적 처형에 대해 치명적인 자율 로봇 시스템 (LARS) 생산에 유비쿼터스 모라토리엄을 촉구했습니다.
전문가는이 유형의 무기에 대한 국제 표준이 개발 될 때까지 "국가 수준에서 LARS의 생산, 조립, 이전, 획득, 도입 및 사용에 대한 모라토리엄 소개"를 촉구했다. Haynes에서 이러한 로봇을 사용하면 전쟁과 평화의 조건에서 생명을 보호하는 것과 관련하여 광범위한 결과를 초래하는 문제가 제기됩니다.
특별 보고관은 이제 그러한 법적 틀이 존재하지 않으므로 특히 국제법의 기준에 따라 행동 할 것인가, 특히 군인과 민간인의 차이에 대한 정의에 관해서는 기계가 프로그램 될 수 있는지 여부가 불투명하다고 강조했다.
또한 전문가는 자율 로봇을 사용할 때 "적절한 법적 책임 시스템을 개발하는 것은 불가능합니다"라고 언급했습니다. "무인 항공기의 경우 사람이 화재를 시작할시기를 결정하는 반면, LARS에서는 탑재 컴퓨터가 목표를 정하는 사람을 결정합니다."
2012에서 인권 단체 인 휴먼 라이츠 워치 (Human Rights Watch)는 50 페이지의 "인간을 잃는다 : 로봇에 대한 논쟁"이라는 보고서를 발표했다.이 보고서에서는 완전 자동화 된 무기를 만들 위험에 대해 경고했다. 휴먼 라이츠 워치 (Human Rights Watch)가 하버드 로스쿨과 공동으로 작성한이 보고서는 개별 국가가 로봇 무기의 생산과 사용을 완전히 금지하는 국제 조약을 개발할 것을 촉구했다.
인권 활동가들은 자치 군사 무기가 아직 존재하지 않고 아직도 채택 되기는 어렵다고 지적했지만 일부 국가의 군대 (예 : 미국)는 이미 "킬러 머신 (killer machine)"창설에 중요한 돌파구를 구현 한 프로토 타입을 제출했습니다.
이 보고서는 미국이이 경기에서 선두를 달리고 있으며, 중국, 독일, 이스라엘, 한국, 러시아, 영국 등 일부 국가가이 분야에 참여하고 있다고 지적했다.
많은 전문가들에 따르면 전투 차량의 완전한 자율성에 따라 국가는 20에서 30 년으로 이동해야합니다.
정보