인간 정신의 메모: 미국인들은 군사 인공 지능을 바꾸고 싶어합니다.
출처: vgtimes.ru
디지털 비인간화가 취소되었나요?
첫째, AI 파이터의 경고 한마디:
전투 인공 지능에 대한 모든 작업의 중단을 요구하는 평화주의자는 두 가지 유형으로 나뉩니다. 첫 번째는 수정된 "터미네이터" 및 기타 유사어입니다. 두 번째 - 전투 로봇의 최신 기능에 따라 미래를 평가합니다. 우선 타격 시스템을 갖춘 날개 달린 무인 차량.
무인 항공기에 의한 민간인의 실수 또는 고의적 파괴에 대한 충분한 에피소드가 있습니다. 중동에서는 미국 드론 하나 이상의 결혼식을 파괴했습니다. 비행 로봇 운영자는 축하 공대공 사격을 게릴라 총격전의 표식으로 식별했습니다. 특별히 훈련받은 사람이 수백 미터에서 대상의 세부 사항을 결정할 수 없다면 인공 지능에 대해 무엇을 말할 수 있습니까? 현재 머신 비전은 이미지 인식의 적절성 측면에서 인간의 눈과 뇌와 비교할 수 없습니다. 지치지 않는 한, 이 역시 적시에 대원을 교체하면 해결된다.
군사 인공 지능 위에 구름이 분명히 모여 있습니다. 한편으로, 이 분야에서 임박한 기술적 돌파구에 대한 점점 더 많은 증거가 있습니다. 다른 한편으로, 이러한 방향으로 작업을 제한하거나 심지어 금지하는 것에 찬성하는 목소리가 점점 더 많이 들립니다.
몇 가지 예입니다.
2016년 저명한 사상가와 수천 명의 다른 사람들이 인공 지능에 치명적인 무기를 제공하지 말 것을 요구하는 청원이 나타났습니다. 서명자 중에는 Stephen Hawking과 Elon Musk가 있습니다. 지난 20년 동안 이 청원은 XNUMX명 이상의 서명을 받았습니다. 통제되지 않은 인명 파괴 가능성과 관련된 순전히 인본주의적인 두려움 외에도 법적 불일치도 있습니다.
인공지능이 저지른 전쟁범죄를 바로잡는다면 누가 재판을 받게 될까요? 민간인과 함께 여러 마을을 불태운 드론 운영자는 쉽게 찾아 처벌할 수 있다. 인공 지능은 프로그래머의 공동 작업의 산물입니다. 여기에 한 사람을 유치하는 것은 매우 어렵습니다. 또는 예를 들어 동일한 Boston Dynamics와 같은 제조 회사를 판단할 수 있지만 자율 드론 생산에 참여할 사람은 누구입니까? 두 번째 뉘른베르크 재판소의 부두에 서고 싶은 사람은 거의 없을 것입니다.
출처: koreaportal.com
산업가와 프로그래머가 인공 지능 전투 기술의 개발 속도를 늦추려는 것은 아마도 이러한 이유 때문일 것입니다.
예를 들어, 2018년에 약 XNUMX개의 IT 회사와 거의 XNUMX천 명의 프로그래머가 전투 자율 시스템에서 일하지 않겠다고 서약했습니다. 구글은 XNUMX년 안에 인공 지능 분야에서 군사 계약을 완전히 포기할 것이라고 주장합니다. 전설에 따르면 그러한 평화주의는 우연이 아닙니다. 프로그래머는 군사 시스템 용 코드를 작성하고 있다는 사실을 알게 된 후 한꺼번에 종료하겠다고 위협했습니다. 결과적으로 그들은 우호적 인 옵션을 찾았습니다. 기존 계약은 완료되었지만 새로운 계약은 체결되지 않았습니다. 전투 AI 작업을 거부하는 날짜에 가까워지면 다루기 힘든 "프로그래머"가 단순히 해고되어 덜 재능있는 사람으로 대체 될 수 있습니다. 예를 들어, 저렴한 지적 자원으로 오랫동안 유명했던 인도에서.
그 다음에는 Stop Killer Robots 사무실이 있습니다. 이 사무실은 전투 AI를 금지하는 대회와 같은 것에 서명할 것을 세계 지도자들에게 촉구하고 있습니다. 지금까지 성공하지 못했습니다.
위의 모든 사항은 군 관계자가 해결 방법을 찾도록 합니다. 선거에서 한 시간도 안 돼 미국 대통령을 이길 것인데, 보편적인 성소수자 은총을 약속할 뿐만 아니라 군사 인공지능 개선 금지도 약속한다.
AI에 대한 인간의 생각
펜타곤은 AI 분야에서 어떤 종류의 돌파구를 마련하고 있는 것으로 보입니다. 또는 그는 그것을 확신했습니다. 자율 전투 시스템의 인간화를 규제하는 새로운 지침의 출현을 설명할 다른 방법은 없습니다. 캐슬린 힉스(Kathleen Hicks) 미국 국방부 차관은 이렇게 말했습니다.
자율 킬러 로봇에 경외감을 느끼는 모든 사람들의 이야기를 들어보셨나요? 앞으로 미국의 인공지능이 가장 인간적일 것이다. 미국인들처럼.
출처: robroy.ru
문제는 무기가 장착된 로봇에 악명 높은 "무력 사용에 대한 인간의 판단"을 주입하는 방법을 실제로 이해하는 사람이 없다는 것입니다. 지난 XNUMX월 말에 업데이트된 개념의 정확한 문구:
예를 들어 집을 청소할 때 공격기가 먼저 수류탄을 방에 던진 다음 스스로 들어가는 경우입니다. 이것이 인간의 판단입니까? 물론 아무도 그를 판단 할 권리가 없습니다. 특히 이전에 "누구 있습니까? "라고 외쳤다면 더욱 그렇습니다. 그리고 자율 로봇이 같은 계획에 따라 작동한다면?
인간의 판단은 어떤 식으로든 제한하기에는 너무 광범위한 개념입니다. 우크라이나 군대의 전투기에 의한 러시아 전쟁 포로의 처형도 인간의 생각입니까?
자율 전투 시스템에 대한 펜타곤 지침 3000.09에 추가된 것은 칭찬으로 가득 차 있습니다. 예를 들어,
그 전에는 분명히 그들은 전쟁 법에 따르지 않고 무분별하게 일했습니다.
동시에 미국과 유럽 언론에서는 펜타곤의 XNUMX월 이니셔티브에 대한 비판의 힌트가 없습니다. 인공 지능의 거짓된 인간화 아래에서 일어나는 일을 위장하려는 시도에 지나지 않습니다. 이제 미군은 육군 내 인공 지능 적들과의 싸움에서 확실한 트럼프 카드를 갖게 될 것입니다. 보세요, 우리는 단순한 AI가 아니라 "적절한 수준의 인간 판단"을 가지고 있습니다.
"인공 지능"에 대한 명확하고 일반적으로 받아 들여지는 정의가 아직 없다는 점을 고려할 때 주변의 모든 문자 생성은 아이러니하게 인식됩니다. 적어도.
대규모 데이터 배열과 함께 작동하는 수학적 알고리즘을 인간의 판단으로 만드는 방법은 무엇입니까?
이 주요 질문은 업데이트된 지침 3000.09에서 답변되지 않습니다.
정보