Skynet이오고 있습니다 : 미국인들은 인공 지능을 가지고 노는 것을 마쳤습니다
은밀한 XQ-58A 발키리
해밀턴 시뮬레이션
24월 XNUMX일, 런던에서 열린 왕립항공우주협회 미래 전투 항공 우주 능력 정상회의의 국방 회의에서 미 공군 대령 터커 해밀턴은 이렇게 말했습니다. 역사 인공 지능의 영혼 없음에 대해.
전투 시뮬레이션 중 공습 통제 시스템 무인 비행기 그녀의 대원에게 가서 그를 파괴했습니다. 당연히 사실상. Hamilton 자신에 따르면 기계는 파괴 된 물체에 대한 보너스를 받았지만 운영자가 항상 목표물에 대한 작업을 확인하지는 않았습니다. 이를 위해 그는 지불했습니다. 문제를 해결하기 위해 드론은 관제센터에 로켓을 보냈다. 아마도 그것은 실험용 Stealthy XQ-58A Valkyrie 무인 항공기였으며 지상 기반 방공 시스템에서 작동했습니다.
기계의 특징은 작업자와의 통신 없이 자율적으로 작업할 수 있다는 것입니다. 실제로 인공 지능이 활용하여 원격 드라이버를 사실상 제거했습니다. 이에 대한 응답으로 시스템 관리자는 그러한 것을 기계에 금지했지만 여기에서 AI는 손실이 없었습니다. 릴레이 타워를 파괴하고 다시 자율 탐색을 시작했습니다.
해밀턴 대령은 국제 포럼에서 말하기에는 아직 어립니다. 출처: thedrive.com
해밀턴의 이야기는 순식간에 전 세계로 퍼졌습니다. 의견은 극적으로 나뉘 었습니다. 이것이 무능한 전사의 또 다른 수다라고 생각한 사람은 여기에서 악명 높은 Skynet의 탄생을 보았습니다. 조금 더 있으면 사이보그가 세상을 정복하고 사람들은 보너스 포인트를 위해 총에 맞을 것입니다. 대령의 진술에서 연기가 많이 났지만 평소와 같이 진실은 그 사이 어딘가에 있습니다.
미 국방부 공군본부 대변인 앤 스트레파넥은 불확실성을 더해 해밀턴의 말을 일화로 만들었다. The War Zone에서 그녀는 다음과 같이 말했습니다.
그리고 일반적으로 대령의 말은 문맥에서 벗어 났으며 그렇게 이해되지 않고 호기심에 더 가깝습니다. 아무도 펜타곤과 다른 반응을 기대하지 않았습니다. 이벤트 주변에서 많은 소음이 발생하여 전체 프로그램에 심각한 결과를 초래할 수 있습니다. 와우, 인공 지능은 도덕성이 결여되어 있습니다. 인간의 논리에 따라 작동하지만.
XNUMX월 초, 터커 해밀턴은 런던에서 열린 회의에서 자신의 말을 부인하려고 했습니다.
문제가 종결되고 청중이 흩어질 수 있는 것 같습니다. 하지만 너무 이르다.
생각할 거리
먼저 모든 사람이 알고 있지만 대략적인 정의를 내릴 수있는 사람은 거의없는 "인공 지능"이라는 용어를 다루겠습니다. 우리는 AI가 다음과 같은 2008 International Terminological Dictionary의 공식을 사용할 것입니다.
즉, 이것은 서양에서 일반적으로 허용되는 정의입니다.
기계가 작업자를 "진정"한 다음 중계탑을 부수기로 결정했을 때와 같이 작동했습니까? 물론 동기부여가 제대로 된 살인마라면 그 이상도 할 수 있을 것 같았다. 분류를 자세히 살펴보면 특정 유형의 AI를 찾을 수 있습니다. 소위 적응형(Adaptive AI)은 "시스템이 새로운 조건에 적응하고 생성 중에 제공되지 않은 지식을 습득하는 능력을 의미합니다."
이론적으로 실험 중 Stealthy XQ-58A Valkyrie의 "두뇌"행동에는 놀라운 것이 없습니다. Hamilton이 그의 보고서에서 올바르게 언급했듯이 프로그램은 처음에는 운영자의 파괴에 대한 제한조차 도입하지 않았습니다. 기계는 모든 것을 스스로 배웠습니다. 그리고 자신을 이기는 것이 직접적으로 금지되었을 때, 인공지능은 다시 한 번 적응하여 통신탑을 베어버렸다.
프로그래머에게는 많은 질문이 있습니다. 예를 들어, 왜 그는 자신의 타격에 대한 보너스를 잃는 알고리즘이 없었습니까? 이 질문은 2016년 퇴역 미 공군 장군 폴 셀바(Paul Selva)가 부분적으로 답변한 내용입니다.
글쎄요, 해밀턴 대령의 역사에서 온 프로그래머들은 분명히 수렁에 빠져 있습니다.
MQ-1B 프레데터 드론의 날개 아래 헬파이어. 출처: businessinsider.com
이제 펜타곤과 해밀턴의 변명을 매우 크게 믿어야하는 이유에 대해 알아보십시오.
첫째, 대령은 마치 주요 보고서에서주의를 분산시키는 것처럼 줄 사이의 이야기를 전달하는 것이 아니라 전체 프레젠테이션을이 주제에 바쳤습니다. 런던 회의 Future Combat Air & Space Capabilities Summit의 수준은 결코 농담에 도움이 되지 않습니다. 주최 측에 따르면 전 세계에서 최소 70명의 저명한 강사와 200명 이상의 대표가 참석했다. BAE Systems, Lockheed Martin Skunk Works 및 기타 여러 대기업의 대표는 군산 단지에서 일했습니다.
그건 그렇고, 거의 모든 보고서에서 우크라이나의 주제가 나왔습니다. 서방은 사건을 면밀히 모니터링하고 결과를 반영합니다.
그런 대표 포럼에서 노골적으로 난장판을 펴고, 세상의 절반을 휘젓고, 실언을 한 것에 대해 사과하려면? 이것이 사실이라면 해밀턴의 명성을 지울 수 없습니다. 이제서야 대령의 역량 수준이 넘어섰고, 이것이 그의 첫마디를 들어야 하는 두 번째 이유다.
Tucker Hamilton은 플로리다의 Anglin 공군 기지에서 AI 테스트 및 운영을 담당합니다. 기지의 지시에 따라 제96시험비행단에 제96기동부대가 창설됐다. 해밀턴은 AI와 함께 작업한 첫 해가 아닙니다. 항공 – VENOM 인프라가 개발되고 있는 부분 자율 F-16 바이퍼를 수년 동안 설계해 왔습니다. 작업은 꽤 잘 진행되고 있습니다. 2020년에는 전투기와 AI 및 실제 조종사 간의 가상 전투가 5:0의 점수로 끝났습니다.
동시에 해밀턴이 작년에 경고한 어려움이 있습니다.
2018년 해밀턴은 Auto GCAS로 Collier Trophy를 수상했습니다. AI 알고리즘은 조종사가 항공기에 대한 제어력을 상실한 순간을 결정하는 방법을 학습하고 자동으로 제어권을 잡고 충돌에서 차를 멀리했습니다. 그들은 Auto GCAS가 이미 누군가를 구했다고 말합니다.
결과적으로, 해밀턴이 위에서 그의 말을 철회하도록 요청받았을 가능성은 이 수준의 프로가 넌센스를 얼렸을 가능성보다 훨씬 더 높습니다. 더욱이 그들은 대령의 머리에서 몇 가지 "사고 실험"을 매우 서투르게 언급했습니다.
결과에 대한 회의론자 중에는 The War Zone이 있는데, 그의 언론인들은 Stefanek 국방부 대변인이 플로리다의 96번째 테스트 윙에서 무슨 일이 일어나고 있는지 정말로 알고 있는지 의심합니다. 워존은 해밀턴 기지에 요청을 했으나 현재까지 응답이 없다.
군대는 정말 두려운 것이 있다. 중국과 러시아가 미국 수준에 접근조차 하지 못하도록 인공지능 방어 프로그램에 막대한 돈을 쓰고 있다. 이와 함께 '스카이넷'과 함께 '터미네이터'의 출현 전망에 대해 시민사회는 적잖은 우려를 표하고 있다. 그래서 2018년 XNUMX월 저명한 세계 과학자들은 전문가들에게 더욱 강력한 인공 지능을 만들고자 하는 열망에 대해 생각해 보도록 촉구하는 공개 서한에 서명했습니다.
Hamilton에 따르면 AI는 사람이 원하는 모든 것을 수행하지 않습니다.
정보