내일과 로봇과 싸운 다음날
로봇 공학은 현재 가장 유망한 군사 기술 분야 중 하나입니다. 현재까지 다양한 작업을 수행할 수 있는 자동화 장치가 이미 만들어졌습니다. 사실, 현재의 무인 항공기와 헬리콥터, 지상 추적 차량은 모든 능력에 대해 여전히 완전히 자율적으로 작동할 수 없습니다. 대부분의 경우 자율성은 주어진 지점으로 이동, 공간 추적, 일반 배경에서 눈에 띄는 물체 검색 등 뛰어난 지능이 필요하지 않은 일부 작업으로 제한됩니다. 웨이포인트 또는 탐지된 목표 공격에 대한 결정은 여전히 시스템 운영자가 내립니다. 남성. 군대의 완전 자동 운영 로봇 지금까지 공상 과학 소설의 "재산"으로 남아 있으며 과학자와 엔지니어는 이제 막 이 분야에서 자신감 있는 첫 걸음을 내딛고 있습니다. 로봇 기술의 발전은 자동화 시스템의 기능뿐만 아니라 인간 사회의 다른 측면에도 영향을 미칠 수 있습니다.
공상 과학 소설에서 한 수준 또는 다른 수준의 인공 지능을 가진 사람과 로봇의 상호 작용에 관한 심각한 문제가 종종 고려됩니다. 현재의 상황은이 사안을 실제 생활로 점진적으로 전환하는 것을 의미합니다. 이러한 이유로 이미 일부 사람들과 공공 기관은 향후 발전을 예측하고 가능하다면 적절한 조치를 취하려고 노력하고 있습니다. 얼마 전, 인권 단체 휴먼 라이츠 워치 (Human Rights Watch, HRW)는이 문제에 대한 보고서를 발표했습니다. 인간을 잃는 작업 : 살인 로봇에 대한 사례 ( "인류 : 살인 로봇에 대한 논거")는 완전 자율 전투 로봇 사용에 대한 전망과 실제 충돌 상황에서 작동 할 때 필연적으로 발생하는 문제에 대해 논의합니다. . 또한 보고서는 이러한 "진전"의 법적 측면에 대해 논의합니다.
우선, "인류애 상실"보고서의 저자들은 기존의 모든 로봇이 어느 정도 자율적이라는 사실에 주목했다.이 독립성의 수준 만 다르다. 따라서 전투를 포함하여 독립적 인 작업이 가능한 모든 로봇은 일반적으로 루프의 인간 (제어 시스템의 사람), 루프의 인간 (시스템 위의 사람) 및 루프의 인간 (시스템 외부 사람 관리). 전투 로봇의 맥락에서 그러한 분단은 다음 작업 알고리즘과 자율 수준을 의미합니다. 인간 조작원이 제어 시스템에 있으면 로봇이 독립적으로 목표물을 찾고 사람이 그 로봇을 파괴하라는 명령을 내립니다. 다른 두 가지 유형의 전투 로봇은 스스로 결정하고 공격 할 수 있지만 루프상의 인간이라는 개념은 사람의 통제 가능성을 암시하며 후자는 언제든지 로봇의 재량에 따라 로봇의 동작을 조정할 수 있습니다. 인간의 루프 로봇은 완전히 독립적이며 인간의 통제가 필요하지 않습니다.
HRW 직원에 따르면 인간이 통제하지 않는 완전히 자율적 인 로봇의 세 번째 카테고리는 미래에 가장 큰 위험이 될 것입니다. 기술 및 도덕적 문제 외에도 관련 법적 문제가 지적됩니다. 무엇보다도 일정한 사건이 발생할 경우, 그러한 전투 차량은 기본 국제 협약 위반을 포함하여 적대 행위의 출현 전체에 크게 영향을 미칠 수 있습니다. 우선, 휴먼 라이츠 워치 직원들은 제네바 협약에 호소한다. 더 구체적으로는 개발자에게 의무 사항 인 부분에 호소한다. оружия 민간인 안전을 확인하십시오. HRW는 전투 로봇 장비 제조업체는이 문제에 관심이없고 민간인들 사이의 손실을 수반 할 수표를 내지는 않을 것이라고 생각합니다.
로봇 전투 시스템의 사용과 관련된 위험에 대한 주요 전제 조건 인 HRW 직원은 유망한 로봇의 개발 수준이 불충분하다고 생각합니다. 인간과는 달리 전투 로봇은 적의 전투기를 민간인 또는 상처 입거나 죄수의 적극적으로 저항하는 적과 구별 할 수 없다고 생각합니다. 따라서 로봇이 죄수를 데려 가지 않고 부상당한 사람을 끝내지 못하게하는 위험은 너무 크다. 이 보고서의 저자는 미래 로봇의 능력에 대한 최선의 견해를 고수하지 않으며 유망한 전투 시스템이 무고하고 적극적인 적과 무의식적이거나 공격적인 민간인을 외모와 행동으로 구분할 수 없다고 생각합니다. 또한, 인권 전문가들은 로봇의 미래가 적의 행동을 예측하는 능력을 부정합니다. 즉, 항복하거나, 무기를 집거나 떨어 뜨리고, 로봇을 만나고, 그가 오해하여 공격 할 수있는 상황이 가능합니다.
휴먼 라이트 워치 (Human Rights Watch)는 인간의 특성이 결여되고 결과가 위험하다는 직접적인 결과로 인하여 인간의 자유와 인권을 억압하기 위해 로봇을 로봇에 사용할 가능성을 고려하고있다. 인권 활동가들은 인간과 달리 로봇이 명령을 논의하지 않고 지시 된 모든 것을 실행하기 때문에 "영혼없는 기계"가 폭동, 억압 등을 억제하는 이상적인 도구라고 생각합니다.
HRW는 인간의 통제가 없는 전투 로봇의 특징이 그들의 행동에 대한 책임이 없다는 점을 두려워합니다. 원격 제어의 운영자인 경우 무인 비행기 민간인을 공격하면 그는 그것을 요구할 것입니다. 로봇이 그런 범죄를 저질렀다면 처벌할 사람이 없을 것이다. 로봇 자체가 처벌의 본질을 이해하고 스스로 고칠 수 있는 이성적 존재가 아니며, HRW 직원들에 따르면 로봇을 임무에 보낸 군에 벌칙을 가하는 것은 물론, 로봇 개발자를 처벌하는 것도 무의미하다. 로봇의 하드웨어와 소프트웨어. 결과적으로 로봇은 전쟁 범죄의 도움을 받아 가장 사악한 방식으로 전투 임무를 해결하는 훌륭한 도구가 될 수 있습니다. 이 경우 밝혀진 모든 사실은 설계 결함이나 소프트웨어 오류로 비난받을 수 있으며 특정인의 유죄를 입증하는 것은 거의 불가능합니다. 따라서 인권 운동가들이 두려워하는 것은 아무도 범죄로 처벌받지 않을 것입니다.
Human Rights Watch는 위험성이 높기 때문에 각국에 완전 자율 전투 로봇의 개발을 포기하고 입법 차원에서 그러한 장비를 금지 할 것을 촉구합니다. 루프 내의 인간과 루프상의 인간의 개념에 관해서는 그러한 시스템의 개발이 모니터링되고 국제 표준을 준수하는지 점검되어야합니다. 즉 모든 책임있는 결정은 항상 적절한 지식과 관용을 지녔지 만 자동적이지 않은 사람이해야합니다.
현재의 추세를 살펴보면 모든 주요국들이 HRW의 보고서에 완전히 동의하지는 않습니다. 지금까지, 전제 조건은 생성뿐만 아니라 가장 자동화 된 시스템의 활발한 사용을 위해 형성되었습니다. 더욱이, 여러 경우에있어서, 그들의 적용은 국제 인도법에 위배되지 않을뿐만 아니라 어떤 의미로도 그 규범을 준수하는 데 도움이됩니다. 그러한 작업의 예로는 이스라엘의 미사일 방어 시스템 인 아이언 돔 (Iron Dome)이 있습니다. 이 복합 단지는 유도되지 않은 단거리 미사일을 가로 채기 위해 설계 되었기 때문에, 작전 알고리즘은 대부분의 작전이 자동으로 수행되는 방식으로 설계되었습니다. 또한 운영자의 적절한 명령에 따라 적 로켓 탐지에서부터 반출기 발사에 이르기까지 전체 차단주기를 자동으로 수행 할 수 있습니다. 이 덕분에 적의 카섬이 정착지에 도착하기 전에 그들을 파괴 할 수 있습니다. 거의 자율적 인 로봇의 사용으로 이스라엘은 시민의 생명과 건강을 지키고 파괴 된 건물의 복구를 막습니다.
자동화 된 "군인"의 개발을 계속하는 데 찬성하는 두 번째 주장은 인도 주의적 전제 조건을 가지고있다. 많은 수의 지상 전투 로봇을 사용하면 살아있는 전투기를 버리고 생명을 구할 수 있습니다. 로봇이 전투에서 손상을 입으면 신속하게 고칠 수 있고 스크랩을 위해 쓸어 버리고 이전 것과 완전히 다른 새로운 것으로 교체 할 수 있습니다. 그렇습니다. 군대를 키우고 훈련시키는 것보다 쉽고 저렴하게 이러한 기술을 생산할 수 있습니다. 분명히 로봇은 집회 직후에 전투에 돌입 할 수 있고, 출생 한 사람은 성장할 필요가 있고, 기본 기술을 배우고, 다양한 정보와 기술을 많이 배우고, 그 다음에 만 군사 업무를 배울 수 있습니다. 따라서 전투 로봇이 널리 보급되면 인력의 손실을 줄일 수 있습니다. 또한, 로봇 "군인"의 충분히 큰 함대를 유지하는 것은 비교적 적은 수의 운영자, 기계공 등이 필요합니다. 따라서 기계 역학에 의한 살아있는 군인의 교체와 관련하여, 이득은 두 배입니다 : 생명은 구원 받고 돈은 절약됩니다.
선진국의 전투 로봇의 과도한 독립성에 관한 인권 변호인에 대한 두려움에 대한 해답은 오랫동안 준비되어왔다. 예를 들어, 2 년 전 미국은 2036까지 군사 자동화 시스템을 개발하기위한 전략을 발표했습니다. 미국인들은 소위 말하는 첫 번째를 개발할 것입니다. 제어 독립 시스템. 즉 자율적으로 일할 능력이 있지만 심각한 결정을 내릴 권리는 없습니다. 장래에는 무장 세력과 완전 자율 기계를 가동 할 계획이지만, 진정으로 사람의 임무를 수행 할 수있는 그러한 기술의 첫 번째 프로토 타입은 올해의 2020보다 빨리 나타나지 않을 것입니다. 앞으로 몇 년 또는 심지어 수십 년 동안 전장에서 수많은 동성애 로봇이 나타나지 않을 것입니다. 로봇은 동정심과 자비를 모르고 명령만을 수행 할 수 있습니다. 모든 주요한 결정은 여전히 사람의 책임입니다.
로봇에게 더 큰 자치권을 부여하는 것에 관해서는 다소 흥미로운 의견 하나를 상기 할 필요가 있습니다. 그의 지지자들은 자동화 된 하드웨어가 아니라 전투 시스템에서 제외되어야하는 사람이라고 믿는다. 이 논문의 증거로서, 살아있는 사람들의 "디자인 결함"이 인용되었습니다. 모든 행동을 완전히 통제하는 것을 포함하여 전투 로봇을 제어하는 운전자는 병이 들거나 실수를 저 지르거나 의식적으로 형사 처벌을받을 수 있습니다. 이 관점에 따르면, 로봇 전투 컴플렉스의 "약한 고리"는 정확하게 인간의 실수에 관한 라틴어 속담을 완벽하게 준수하는 살아있는 인간 조작원입니다.
물론, 명백한 이유 때문에, 두 가지 견해는 로봇에게 행동의 자유를 부여하지 말고, 시스템에서 사람을 제거 할 필요성에 관해 말하지 않는 것으로서, 삶의 권리를 갖는다. 이 두 가지 의견에는 장점과 단점이 있습니다. 논쟁이 곧 전투 로봇 사용의 가장 유망하고 실행 가능한 개념을 확인하는 것을 중단하지는 않을 것입니다. 한 가지 방법으로 만 누가 옳은지 알아낼 수 있습니다 : 전투 로봇 개발에서 더 이상의 사건을 기다리는 것. 세계의 선진국 군대가 유망한 방향을 개발하기위한 이익이없고 어려운 방법을 선택하기 시작할 것 같지 않습니다. 그러나 지금은 결론을 도출하기가 어렵습니다. 아마도 현재의 추세는 앞으로도 계속 될 것입니다. 원격 제어 및 제한된 자율 장비는 계속 개발 될 것이며 실제로 실제로 사용될 것입니다. 그 동안 완전히 독립적으로 작동 할 수있는 근본적으로 새로운 하드웨어 - 소프트웨어 컴플렉스가 실험실에서 만들어집니다. 이러한 프로젝트의 현 상황은 앞으로 Human Rights Watch 보고서에 기술 된 문제가 인권 옹호자, 과학 소설 작가 및 과학자들의 관심 대상이 될 것이지만 사람들은 로봇의 행동에 대해 전적으로 책임을 질 것임을 시사합니다.
해당 사이트의 자료 :
http://hrw.org/
http://lenta.ru/
http://mport.bigmir.net/
http://ria.ru/
http://bbc.co.uk/
- 저자 :
- 리아 보프 키릴