전투 로봇은 전문가들을 놀라게합니다.
비정부기구인 휴먼라이츠워치(HRW)는 인공지능 무기가 만들어지기 전에 포괄적이고 선제적으로 금지하는 글로벌 국제조약을 체결하기 위한 국제연합을 만들겠다고 밝혔다. 군입대 금지를 위해 회사에 "로봇영국 수도에서 시작된 킬러'는 집속탄, 대인지뢰, 실명 레이저 금지 캠페인에 참여했던 다양한 비정부기구에 이미 합류했다.
리모컨과 달리 탱크 활동가들은 1930 년대 소비에트 연방에서 테스트 된 어뢰 보트 인 전차와 전장 자율 전투 로봇은 인류에게 치명적인 결함을 가질 수 있다고 주장한다. 미국 군함에 접근하는 항공기 또는 미사일을 격추시킨 Phalanx와 같이 과거의 가장 일반적인 완전 자율 시스템은 다소 좁은 전문화, 자체 틈새 시장을 가지고 있었고 임의의 요인이나 민간인 집단에서 거의 해결할 수 없었습니다.
그러나 예를 들어 이스라엘의 완전 자율 UAV Harpy와 같은 차세대 전투 로봇은 이미 훨씬 더 위험합니다. 지금까지 Harpy는 완전 자동 모드에서 레이더만 찾아 파괴하고 Fire-and-Forget 모드에서는 레이더에 미사일을 발사합니다. 그러나 이러한 UAV는 2012년 이란군이 미군과 함께 한 것으로 추정되는 것처럼 해킹되어 비행장에 착륙할 수 없다는 이유 때문에 전 세계 군대에게 매력적입니다. 무인 비행기.
여기서 가장 중요한 것은 전투 로봇을 운영하는 데 드는 비용이 저렴하다는 것입니다. 예를 들어, 원격 조종 무인기는 고비용의 명령 및 제어 스테이션뿐만 아니라 교대 근무를하는 잘 훈련 된 전문가가 있어야 할뿐만 아니라 잼 방지 통신도 필요합니다. 사실, 소형 UAV의 경우, 이것은 주요 지출 항목이됩니다. 이 지출 항목을 없앰으로써 국가는 운항 비용을 크게 증가시키지 않으면 서 수 천대의 비행 전투 로봇을 생산할 수 있습니다.
"로봇을 죽이는 것을 금지하는 캠페인"은 이러한 기계가 여전히 불완전하다는 주된 문제가 있다고 믿습니다. 그들은 민간인을 테러리스트, 다른 국적의 사람과 구별 할 수는 없습니다 (공평히 말하자면 국민도이 죄를 지어야한다고 말합니다). 동시에, 현대 세계에서 전쟁은 폭력의 확대로 이어질 수있는 곳에서 종종 싸우게됩니다. 이 조직은 특히 북한과의 국경 순찰을위한 특수 로봇을 만드는 한국의 발전에 대해 우려하고 있습니다. 그러한 로봇의 실수 하나가 심각한 무력 충돌을 일으킬 수 있습니다. 그러므로 합리적인 질문이 생깁니다 : 전쟁의 원인을 평화의 법정으로 옮길 가치가 있으며 인간 희생자 없이는 타당성과 신뢰성을 입증 할 수 없습니다.
동시에 한국 전쟁보다 더 심각한 문제가 있습니다. 핵 공격 "Oko"에 대한 소련의 자동 경보 시스템이 미국 탄도 미사일의 발사에 관한 일련의 거짓 신호를 발표 한 해의 1983 사건이 널리 알려졌다. Serpukhov-15 지휘부의 작전 사령관의 개입 만이 "보복"공격을 막아 냈습니다. 중립 대령은 ICBM의 "발사"를 분석 한 결과, 잠재적 인 적군이 전쟁을 시작하고 억제되지 않은 소련의 핵 병력에 의해 보복 공격을 대신 할만큼 어리석지 않다고 생각했다. "아이"시스템이 완전히 자율적 인 경우 어떻게 이런 상황이 끝날 수 있습니까?
여기서 우리는 가능한 핵전쟁에 대해 이야기했지만, 더 많은 예를들 수 있습니다. 예를 들어 2007에서는 남아공 군대에서 비극적 인 사건이 발생했으며 9 병사가 사망하고 14 사람들은 여러 가지 부상을 입었습니다. 비극의 주범은 스위스 - 독일 생산품 올리 콘 GDF-005의 자동 대공포였다. 이 총에는 능동 및 수동 레이더, 레이저 표적 지정 시스템이 장착되어 있으며 헬리콥터, 항공기, 순항 미사일 및 UAV와 같은 저속 비행 대상에서 빠르게 발사 할 수 있습니다. 자동 모드에서는 두 개의 35-mm 급격포가 사용됩니다.
연습 도중이 설치는 케이블 및 금속 패스너로 수동으로 고정하기 전까지 여러 번 실패했습니다. 그러나 어떤 점에서, 패스너는 그것을 견딜 수 없었고 설치 배럴은 반 킬로그램의 껍질을 오른쪽과 왼쪽으로 보내기 시작했습니다. 총은 침묵했다. 모든 탄약 (500 포탄) 만 사용했다. 남아프리카 군대의 대표 인 Quen Mangop 준장은 실패의 이유가 알려지지 않았다고 말했다. 그에 따르면 아마도 문제는 기계적 성격을 가질 수 있습니다. 그러나 전문가 중 상당수는 컴퓨터 오작동을 지적했으며,이 경우 비극의 원인을 밝힐 수 없습니다.
이 모든 것은 또 다른 전투 로봇 생성에 대한 보고서가 점점 더 많이 나타나는 배경에서 더욱 우울해 보입니다. 얼마 전 미 공군은 파업 시험 비행을 실시했습니다. 무인 비행기 X-47B는 항공모함 갑판에서 이륙해 사람의 도움 없이 전투 임무를 수행할 수 있다. 동시에 완전 자동 모드에서 목표물을 인식하고 발사할 수 있는 패트리어트형 방공 미사일 시스템은 꽤 오랫동안 존재해 왔습니다. 완전 자율 전투 차량을 만들기 위해서는 몇 단계만 남았습니다. 그러한 로봇은 인간의 많은 기능을 대신하여 전쟁에 대한 우리의 생각을 영원히 바꿔 놓을 수 있습니다.
현재 Atlanta의 Institute of Technology 연구소의 Henrik Christensen 교수는 게릴라 방법으로 운영되는 반란자를 찾기 위해 고안된 로봇을 테스트하고 있습니다. 이 연구는 잘 알려진 국방 기업인 BAE의 지원을받습니다. 이 프로젝트의 주요 목표는 적을 피난처로 삼은 지형을 연구하고 가능한 위치를지도에 배치하고 군사 작전을 계획하는 데 도움이되는 기타 정보를 수집 할 수있는 로봇을 만드는 것입니다. 그러한 로봇은 어떤 무기도 가지고 있지 않으며, 그들의 주요 목표는 정보 정보를 수집하는 것입니다.
워싱톤의 브루킹스 연구소 (Brookings Institution)에서 근무하는 미래의 군사 기술 전문가 인 피트 싱어 (Pete Singer)는 전장에서 전투 로봇이 출현하게되면 근본적인 많은 질문을 제기 할 것이라고 믿는다. 정기적으로 역사 군사 장비는 상황이 완전히 바뀌게 될 때가왔다. 예를 들어, 이미 화약 발명품, 기관총 모양, 핵 оружия, 컴퓨터. 싸우는 로봇은 또한 혁신적인 기술이 될 수 있습니다. 그러나 그 모습이 전투 전술에서 법, 윤리 및 정치 문제에 이르기까지 모든 것이 바뀔 것이라는 의미는 아닙니다.
대인 지뢰 금지 운동을 조직 한 1997의 노벨 평화상을 수상한 미국의 조디 윌리엄스 (Jody Williams)는 전쟁중인 로봇이 결국 치명적인 무기가 될 수 있다고 생각합니다. 그녀에 따르면, "자율적 인 전투 시스템"과 같은 인간의 귀를위한 중립적 인 용어는 꽤 사기성입니다. 그녀에 따르면, 사람들을 죽이는 것이 주요 임무이기 때문에 킬러 로봇이라고 부르는 것이 더 합리적입니다.
동시에 애틀랜타 공과 대학교 (University of Technology)의 교수 인 Ronald Arkin은 그렇지 않다고 생각합니다. Arkin은 소위 윤리적 관제사에 의해 통제되는 전투 시스템 개념의 저자입니다. 이러한 전투 로봇은 교전 규칙 및 국제법의 원칙을 준수하도록 프로그래밍되어 있습니다. Ronald Arkin에 따르면 모든 사람들은 소리를 지르며 두려워했다. "로봇은 악당이고 로봇은 살인자입니다!" 그러나 현재 전장에서 활동하는 사람들은 끔찍한 일을합니다. 강성은 행성의 모든 전쟁의 동반자 였다고 교수는 말했다. Arkin은 기술적 수단의 사용이 충돌 지역에있는 민간인들 사이의 손실 수를 줄일 것이라고 믿는다.
현재 미국뿐 아니라 전 세계의 76 국가에는 전투 로봇을 제작할 수있는 자체 프로그램이 있다고 과학자는 전했다. 요즘, 몇백 달러에, 이미 2가 이미 1 년 전에 분류되었던 UAV를 구입할 수 있습니다. 이러한 기술은 상당히 빠르게 전 세계적으로 확산되고 있습니다. 예를 들어 UAV는 사람을 포함하여 이전에 선택한 객체에 대한 정확한 경고를 전달하는 데 사용됩니다. 현재, 아프가니스탄과 파키스탄에서의 무인 타악기 사용은 이미 국제 사회에서 논란의 대상이되고 있습니다. 전투 로봇의 확산과 함께 이러한 논쟁은 필연적으로 그들의 윤리적 원칙의 영역으로 바뀔 것입니다.
그럼 아마 싸우는 로봇이 전혀 필요하지 않을까요? 그들은 무엇을 위해 생산됩니까? 사실은 대량 군대가 출현함에 따라 개인 군인의 행동 효과가 떨어지는 것이 었습니다. 징징 (Jingzhou)을 잡고있는 러시아 - 일본 전쟁 중 일부 5- 동 시베리아 연대의 병사들은 수십 번 소총 샷에서 1 번에 적을 때렸다. 동시에, 제 1 차 세계 대전과 제 2 차 세계 대전에서 히트 당 평균 발사 수는 10 000 - 50 000로 상승했습니다. 그것이 아주 간단하다면 - 대량 군대의 군인 대부분은 단순히 쏘는 법을 모르고 있었고, 세계 주요 군대 지휘관 중 95 % 이상은 자신의 부하가 소총에서 볼거리를 사용하는 것을 보지 못했습니다.
비슷한 상황이 포병과 다른 유형의 군대에서도 관찰되기 시작했다. 그래서 소련의 모든 살해당한 Wehrmacht 군인에 대한 동부 전선에서 100 포병과 광산에 대해 보냈습니다. 동일한 "효율성"으로 미국 군인은 제 2 차 세계 대전과 베트남 전쟁 중 탄약을 폐기했습니다. 군인의 수치 적 성장과 20 세기의 군사 기술의 급속한 발전은이 무기로 신뢰할 수있는 사람들의 훈련 감소를 동반했다.
동시에, 자율 전투 로봇은 소프트웨어, 날씨 및 무기 허용뿐만 아니라 이미 촬영하고 있습니다. 그리고 이것은 소프트웨어 개발이 끝난 후 적대 행위에 가담함으로써 로봇을 박탈당하는 인원의 손실이 커질 수 있음을 의미합니다. 그러한 대결의 결과를 제시하는 것은 쉽습니다. 서방 국가의 군대가 오랫동안 이라크 나 아프가니스탄에 머물 수 없다면, 정치적 리더십이 비참하게도 전투에서 막대한 손실을 입을 것이기 때문에 전투 로봇이 도입 된 후에 세계 여러 지역에서 점령군의 체류가 실질적으로 이루어질 것입니다 무제한. 군대가 그러한 로봇을 장착 한 국가의 희생자들은 거의 완전히 전투를 중단 할 것이고, 이들은 테러 공격에 의해 남겨진 시체의 수 (단지 무장 세력의 손에 남겨진 무기)와 비교 될 것이다.
정보 출처 :
-http : //compulenta.computerra.ru/tehnika/robotics/10006881
-http : //www.popmech.ru/article/2570-kosilschik
-http : //slon.ru/future/roboty_ubiytsy_mogut_izmenit_oblik_budushchikh_voyn-916543.xhtml
-http : //www.popmech.ru/article/13058-terminatorov-zapreyat
정보