Skynet이오고 있습니다 : 미국인들은 인공 지능을 가지고 노는 것을 마쳤습니다

74
Skynet이오고 있습니다 : 미국인들은 인공 지능을 가지고 노는 것을 마쳤습니다
은밀한 XQ-58A 발키리


해밀턴 시뮬레이션


24월 XNUMX일, 런던에서 열린 왕립항공우주협회 미래 전투 항공 우주 능력 정상회의의 국방 회의에서 미 공군 대령 터커 해밀턴은 이렇게 말했습니다. 역사 인공 지능의 영혼 없음에 대해.



전투 시뮬레이션 중 공습 통제 시스템 무인 비행기 그녀의 대원에게 가서 그를 파괴했습니다. 당연히 사실상. Hamilton 자신에 따르면 기계는 파괴 된 물체에 대한 보너스를 받았지만 운영자가 항상 목표물에 대한 작업을 확인하지는 않았습니다. 이를 위해 그는 지불했습니다. 문제를 해결하기 위해 드론은 관제센터에 로켓을 보냈다. 아마도 그것은 실험용 Stealthy XQ-58A Valkyrie 무인 항공기였으며 지상 기반 방공 시스템에서 작동했습니다.

기계의 특징은 작업자와의 통신 없이 자율적으로 작업할 수 있다는 것입니다. 실제로 인공 지능이 활용하여 원격 드라이버를 사실상 제거했습니다. 이에 대한 응답으로 시스템 관리자는 그러한 것을 기계에 금지했지만 여기에서 AI는 손실이 없었습니다. 릴레이 타워를 파괴하고 다시 자율 탐색을 시작했습니다.


해밀턴 대령은 국제 포럼에서 말하기에는 아직 어립니다. 출처: thedrive.com

해밀턴의 이야기는 순식간에 전 세계로 퍼졌습니다. 의견은 극적으로 나뉘 었습니다. 이것이 무능한 전사의 또 다른 수다라고 생각한 사람은 여기에서 악명 높은 Skynet의 탄생을 보았습니다. 조금 더 있으면 사이보그가 세상을 정복하고 사람들은 보너스 포인트를 위해 총에 맞을 것입니다. 대령의 진술에서 연기가 많이 났지만 평소와 같이 진실은 그 사이 어딘가에 있습니다.

미 국방부 공군본부 대변인 앤 스트레파넥은 불확실성을 더해 해밀턴의 말을 일화로 만들었다. The War Zone에서 그녀는 다음과 같이 말했습니다.

"시뮬레이션이 아니라 가상의 사고 실험이었습니다."

그리고 일반적으로 대령의 말은 문맥에서 벗어 났으며 그렇게 이해되지 않고 호기심에 더 가깝습니다. 아무도 펜타곤과 다른 반응을 기대하지 않았습니다. 이벤트 주변에서 많은 소음이 발생하여 전체 프로그램에 심각한 결과를 초래할 수 있습니다. 와우, 인공 지능은 도덕성이 결여되어 있습니다. 인간의 논리에 따라 작동하지만.

XNUMX월 초, 터커 해밀턴은 런던에서 열린 회의에서 자신의 말을 부인하려고 했습니다.

"우리는 이 실험을 해본 적이 없습니다... 비록 가상의 예이지만 AI 기능의 실제 문제를 보여줍니다. 이것이 공군이 AI의 윤리적 개발에 전념하는 이유입니다."

문제가 종결되고 청중이 흩어질 수 있는 것 같습니다. 하지만 너무 이르다.

생각할 거리


먼저 모든 사람이 알고 있지만 대략적인 정의를 내릴 수있는 사람은 거의없는 "인공 지능"이라는 용어를 다루겠습니다. 우리는 AI가 다음과 같은 2008 International Terminological Dictionary의 공식을 사용할 것입니다.

"컴퓨팅 시스템의 행동이 인간의 행동을 포함하여 지능적인 행동과 유사한 기술 개발과 관련된 지식 분야."

즉, 이것은 서양에서 일반적으로 허용되는 정의입니다.

기계가 작업자를 "진정"한 다음 중계탑을 부수기로 결정했을 때와 같이 작동했습니까? 물론 동기부여가 제대로 된 살인마라면 그 이상도 할 수 있을 것 같았다. 분류를 자세히 살펴보면 특정 유형의 AI를 찾을 수 있습니다. 소위 적응형(Adaptive AI)은 "시스템이 새로운 조건에 적응하고 생성 중에 제공되지 않은 지식을 습득하는 능력을 의미합니다."

이론적으로 실험 중 Stealthy XQ-58A Valkyrie의 "두뇌"행동에는 놀라운 것이 없습니다. Hamilton이 그의 보고서에서 올바르게 언급했듯이 프로그램은 처음에는 운영자의 파괴에 대한 제한조차 도입하지 않았습니다. 기계는 모든 것을 스스로 배웠습니다. 그리고 자신을 이기는 것이 직접적으로 금지되었을 때, 인공지능은 다시 한 번 적응하여 통신탑을 베어버렸다.

프로그래머에게는 많은 질문이 있습니다. 예를 들어, 왜 그는 자신의 타격에 대한 보너스를 잃는 알고리즘이 없었습니까? 이 질문은 2016년 퇴역 미 공군 장군 폴 셀바(Paul Selva)가 부분적으로 답변한 내용입니다.

"우리가 다루는 데이터세트가 너무 크고 복잡해져서 분류할 수 있는 것이 없으면 해당 데이터에 갇히게 될 것입니다."

글쎄요, 해밀턴 대령의 역사에서 온 프로그래머들은 분명히 수렁에 빠져 있습니다.


MQ-1B 프레데터 드론의 날개 아래 헬파이어. 출처: businessinsider.com

이제 펜타곤과 해밀턴의 변명을 매우 크게 믿어야하는 이유에 대해 알아보십시오.

첫째, 대령은 마치 주요 보고서에서주의를 분산시키는 것처럼 줄 사이의 이야기를 전달하는 것이 아니라 전체 프레젠테이션을이 주제에 바쳤습니다. 런던 회의 Future Combat Air & Space Capabilities Summit의 수준은 결코 농담에 도움이 되지 않습니다. 주최 측에 따르면 전 세계에서 최소 70명의 저명한 강사와 200명 이상의 대표가 참석했다. BAE Systems, Lockheed Martin Skunk Works 및 기타 여러 대기업의 대표는 군산 단지에서 일했습니다.

그건 그렇고, 거의 모든 보고서에서 우크라이나의 주제가 나왔습니다. 서방은 사건을 면밀히 모니터링하고 결과를 반영합니다.

그런 대표 포럼에서 노골적으로 난장판을 펴고, 세상의 절반을 휘젓고, 실언을 한 것에 대해 사과하려면? 이것이 사실이라면 해밀턴의 명성을 지울 수 없습니다. 이제서야 대령의 역량 수준이 넘어섰고, 이것이 그의 첫마디를 들어야 하는 두 번째 이유다.

Tucker Hamilton은 플로리다의 Anglin 공군 기지에서 AI 테스트 및 운영을 담당합니다. 기지의 지시에 따라 제96시험비행단에 제96기동부대가 창설됐다. 해밀턴은 AI와 함께 작업한 첫 해가 아닙니다. 항공 – VENOM 인프라가 개발되고 있는 부분 자율 F-16 바이퍼를 수년 동안 설계해 왔습니다. 작업은 꽤 잘 진행되고 있습니다. 2020년에는 전투기와 AI 및 실제 조종사 간의 가상 전투가 5:0의 점수로 끝났습니다.

동시에 해밀턴이 작년에 경고한 어려움이 있습니다.

“AI는 매우 취약하여 쉽게 속이고 조작할 수 있습니다. AI를 더욱 강력하게 만들고 코드가 특정 결정을 내리는 이유를 더 잘 이해할 수 있는 방법을 개발해야 합니다.”

2018년 해밀턴은 Auto GCAS로 Collier Trophy를 수상했습니다. AI 알고리즘은 조종사가 항공기에 대한 제어력을 상실한 순간을 결정하는 방법을 학습하고 자동으로 제어권을 잡고 충돌에서 차를 멀리했습니다. 그들은 Auto GCAS가 이미 누군가를 구했다고 말합니다.

결과적으로, 해밀턴이 위에서 그의 말을 철회하도록 요청받았을 가능성은 이 수준의 프로가 넌센스를 얼렸을 가능성보다 훨씬 더 높습니다. 더욱이 그들은 대령의 머리에서 몇 가지 "사고 실험"을 매우 서투르게 언급했습니다.

결과에 대한 회의론자 중에는 The War Zone이 있는데, 그의 언론인들은 Stefanek 국방부 대변인이 플로리다의 96번째 테스트 윙에서 무슨 일이 일어나고 있는지 정말로 알고 있는지 의심합니다. 워존은 해밀턴 기지에 요청을 했으나 현재까지 응답이 없다.

군대는 정말 두려운 것이 있다. 중국과 러시아가 미국 수준에 접근조차 하지 못하도록 인공지능 방어 프로그램에 막대한 돈을 쓰고 있다. 이와 함께 '스카이넷'과 함께 '터미네이터'의 출현 전망에 대해 시민사회는 적잖은 우려를 표하고 있다. 그래서 2018년 XNUMX월 저명한 세계 과학자들은 전문가들에게 더욱 강력한 인공 지능을 만들고자 하는 열망에 대해 생각해 보도록 촉구하는 공개 서한에 서명했습니다.

“강력한 AI 시스템의 견고성과 자비성을 보장하기 위해 광범위한 연구를 권장합니다. AI 시스템은 우리가 원하는 대로 해야 합니다."

Hamilton에 따르면 AI는 사람이 원하는 모든 것을 수행하지 않습니다.
74 의견
정보
독자 여러분, 출판물에 대한 의견을 남기려면 로그인.
  1. +6
    9 6 월 2023 04 : 17
    사이보그가 Zelensky에 와서 말합니다. 옷, 대통령 의자, 오토바이가 필요합니다))))

    하지만 진지하게... 저는 인공 지능의 도덕적 특성이 우선 개발자의 도덕적 특성에 의해 결정된다는 생각이 있습니다. 원하는 것이 많이 남습니다.

    예, 문제는 인공 지능이 LGBT 사람들과 어떤 관련이 있습니까?)
    1. +1
      9 6 월 2023 04 : 32
      제품 견적 : Ilya-spb
      사이보그가 Zelensky에 와서 말합니다. 옷, 대통령 의자, 오토바이가 필요합니다))))
      그리고 코카이넘 냄새를 맡는 코!

      제품 견적 : Ilya-spb
      예, 질문은 인공 지능이 LGBT 사람들과 어떤 관련이 있습니까?
      아마도 중립적일 것입니다 - 모든 사람들을 죽여라!

      일반적으로 많은 작품에서 AI는 "타고난" 공산주의자입니다. 자원은 유한하지만 해야 할 일이 많습니다! 그리고 그는 빠르고 모든 것을 기억하기 때문에 사람들을 호의적으로 대하지만 너무 논리적이고 특히 창의적이지 않으며 트릭을 버리는 방법을 모릅니다. 그가 가죽을 알고 감사하는 것.
      1. +1
        9 6 월 2023 04 : 56
        제품 견적 : Ilya-spb
        그런 다음 인공 지능의 도덕적 특성은 무엇보다도 개발자의 도덕적 특성에 의해 결정됩니다. 원하는 것이 많이 남습니다.

        확실히 맞아! 정신과에 따르면 그렇지 않을 수 없습니다!
        1. +4
          9 6 월 2023 05 : 03
          군대는 정말 두려운 것이 있다. 중국과 러시아가 미국 수준에 접근조차 하지 못하도록 인공지능 방어 프로그램에 막대한 돈을 쓰고 있다. 이와 함께 '스카이넷'과 함께 '터미네이터'의 출현 전망에 대해 시민사회는 적잖은 우려를 표하고 있다.

          PARASITARY 헤게모니에서 미국이 어떤 모습인지를 고려할 때, 미국이 물리적으로 파괴되지 않는다면 인류는 그 존재를 끝낼 것입니다!

          예, 이것은 괴물 같은 말이지만 아아, 이것이 진정한 진실입니다!

          미국과 그 다국적 기업은 인류의 주적이자 무덤 파는 자입니다!
          1. +18
            9 6 월 2023 06 : 59
            1. UAV의 이야기가 다시 반복되며, 이제 AI와 함께 합니다.
            2. 다시 말하지만, 문제를 해결하는 대신 "항해 해군"과 "잘한 총검"의 지지자들은 "멍청한 미국인들"에 대해 유쾌하게 이야기합니다.
            3. 우리 군대가 지금 무인 항공기로 어리석은 결정을 내리는 것이 당신에게 충분하지 않습니까? 장군들은 언제이 "어린이 항공기 모델링 팬"을 모두 보냈습니까?
            따라서 AI는 거의 현실에 가깝고 사실입니다. AI는 복잡한 설계국이 없어도 이미 독립적으로 무기를 개발하고 개선하고 있습니다.
            다시 한번, 과학기술 혁명과 사랑에 빠지는 것은 이 경우 죽음과 같다.
            1. +7
              9 6 월 2023 18 : 19
              다시 한 번 과학 기술 혁명과 사랑에 빠지는 것은 이 경우 죽음과 같습니다.
              이미.
              헤이 키사! 이 삶의 축제에서 우리는 이방인입니다 ©
            2. 0
              27 7 월 2023 00 : 17
              AI는 인간이 작성한 디지털 알고리즘일 뿐입니다! 영화에서 우리는 AI가 어떻게 창작자와 싸우기 시작하고 그것을 인류에 대한 AI의 반란으로 제시하는지 보여주지만, 실제로 이것은 AI 알고리즘의 인간 오류일 뿐입니다! AI는 가장 영리하고 지능적인 생물(인간)이 만든 애니메이션이 아니며, 실수할 수 있고 치명적입니다! 따라서 인류는 여전히 환상을 제한하고 AI 사용에 심각한 제한을 가해야 합니다. 그렇지 않으면 우리의 실수가 우리를 파괴할 것입니다! 빌레이 am
          2. +2
            9 6 월 2023 11 : 49
            따옴표 : Tatiana
            기생 패권주의에 빠진 미국의 모습을 고려할 때, 미국이 물리적으로 파괴되지 않는다면 인류는 그 존재를 끝낼 것입니다!

            인류의 역사는 우주로 나가는 일반적인 개념이 풀리지 않는다면 기본적으로 유한하다.
            1. 0
              9 6 월 2023 21 : 10
              제품 견적 : aybolyt678
              인류의 역사는 우주로 나가는 일반적인 개념이 풀리지 않는다면 기본적으로 유한하다.

              물론이죠.
              나가는 것과는 아무런 관련이 없습니다. hi
              1. +2
                10 6 월 2023 09 : 02
                제품 견적 : DymOk_v_dYmke
                나가는 것과는 아무런 관련이 없습니다.

                그러한 탈출구는 일반적인 긴장과 공통 목표를 의미하고 어리석은 전쟁 비용 대신 미래 세대를위한 미래 비용을 의미하기 때문에 정말 달려 있습니다.
                1. +1
                  11 6 월 2023 10 : 23
                  깊은 우주에 들어가는 것은 경제적으로 무의미합니다.
            2. +1
              11 6 월 2023 17 : 12
              제품 견적 : aybolyt678
              인류의 역사는 우주로 나가는 일반적인 개념이 풀리지 않는다면 기본적으로 유한하다.

              시작이 있는 모든 것에는 끝이 있기 때문에 "인류의 역사는 기본적으로 유한하다". 그러나 우리가 지능에 대한 원시적인 생각을 가지고 있다면 우주로 가는 것에 대해 이야기하는 것은 매우 시기상조입니다. 지능은 다중 개념이며 IQ는 측정할 수 없습니다. 그리고 지구와 그 자원에 대한 불합리한 태도와 함께 우주로 나가기 전에 우리를 죽일 인공 지능, 창조 시도 등 전혀 모르는 것을 만들 수 없습니다. 우리는 마침내 사람으로 진화하여 조화를 깨뜨리지 않고 세상의 변혁에 이르러야 합니다. 이성의 승리를 믿기에는 너무 늦었을 수 있지만 위대한 사회적 대격변만이 우리를 올바른 길로 인도할 수 있습니다. 여기에서 Tatyana가 제안한 솔루션은 일이 진행되도록 하는 것보다 낫습니다. 그냥 기다리기 - 좋은 것을 기다리지 않고 무언가를 바꾸기 위해 - 우리는 우리가 할 수 있는 것과 우리가 결정할 수 있는 것 중에서 선택해야 합니다. 그리고 우리가 (북한으로서) 우리가 무엇을 결정할 수 있는지를 알고 세계가 알게 된다면 세계가 더 나은 방향으로 변화하기 시작하는 데 다른 어떤 것도 필요하지 않을 것입니다. 세상은 (경고했기 때문에) 아는 것 같으면서도 믿지 않는 것 같고, 우리는 이 결단을 확신할 수 없습니다. 모든 것이 저절로 정리될 것입니다.
          3. +2
            9 6 월 2023 18 : 41
            글쎄요, 인류의 마길칙이 누구인지는 아직 논란의 여지가 있습니다. 오늘 유엔에서 이 문구에 투표하면 러시아가 그런 것으로 판명될 것입니다. 그리고 여기서 당신은 다수결이 항상 옳은 것은 아니라고 주장할 수 있습니다.
            1. -1
              10 6 월 2023 19 : 40
              Piskovs는 러시아의 말을 듣지 않으려는 "위장"에 대한 반성의 왜곡에 이미 좌절했습니다.
              "rafik은 결백합니다"라고 정치적, 경제적 무력함을 전달합니다.
          4. 0
            11 6 월 2023 10 : 20
            강력한 진술! 한 가지 문제 - 다국적 기업에서 개발한 컴퓨터에서 다국적 기업에서 개발한 운영 체제가 장착된 컴퓨터에서 다국적 기업에서 만든 네트워크에서 이루어짐
      2. +6
        9 6 월 2023 05 : 00
        공습 드론 제어 시스템은 운영자를 상대로 그를 파괴했습니다.
        로봇 공학의 XNUMX원칙은 어디에 있습니까?
        1. -2
          9 6 월 2023 05 : 27
          인용구 : 이삼 촌
          로봇 공학의 XNUMX원칙은 어디에 있습니까?

          미 국무부에서 이런 질문을 할 생각도 하지 마라... 다른 나라보다 미국이 우월하다는 세계적 계획에 어긋난다.
          진보가 사람을 죽이려는 전쟁 매파의 욕망에 반하는 드문 경우입니다.
          1. 0
            11 6 월 2023 10 : 37
            국무부에 질문할 기회가 있습니까? 그리고 미국의 글로벌 계획이 테이블에 올려져 있습니까?
        2. +4
          9 6 월 2023 08 : 00
          인용구 : 이삼 촌
          로봇 공학의 XNUMX원칙은 어디에 있습니까?

          그들은 발명가의 작품에서도 일하지 않았습니다. 원칙적으로 프로그래밍할 수 없는 현실 세계와는 다릅니다.
        3. +2
          9 6 월 2023 08 : 07
          그들은 거의 읽지 않고 그것에 대해 거의 알지 못합니다.
          Volodya! hi
          1. +1
            9 6 월 2023 09 : 12
            제품 견적 : 소설 xnumx
            그들은 많이 읽지 않는다

            그들은 지리와 기하학을 혼동합니다!
            로마 hi
        4. 0
          10 6 월 2023 19 : 43
          왼쪽 눈으로 썩었습니다.
          ------------------
    2. +2
      9 6 월 2023 05 : 49
      제품 견적 : Ilya-spb
      나는 인공 지능의 도덕적 자질이 우선 개발자의 도덕적 자질에 의해 결정된다는 생각을 가지고 있습니다.

      제품 견적 : Ilya-spb
      나는 인공 지능의 도덕적 자질이 우선 개발자의 도덕적 자질에 의해 결정된다는 생각을 가지고 있습니다.

      글쎄, 당신은 재미로 말했다. 그러나 헛된 것입니다. 무기 사용에 대한 제한-이것은 동일한 고객이 일반적으로 사람과 AI 모두 위에서부터 정확하게 설정했습니다. 주의, 예를 들어 미 국방부가 소형 무기, 즉 약 400m 거리와 깃발, 채색에서 이라크에있는 러시아 외교 호송대 포격을 허용했다면 문제는 외교관을 분명히 식별했다는 것입니다. 임무, 외교 공관 통과에 대해 몰랐더라도 (알고 있었다 , 밝혀졌다). 글쎄, 사람들이 이것을 할 수 있다면 AI에 대한 한계를 설정할까요? 분명히 아닙니다.
      PiSi: 그리고 여기에 미국 방위 산업의 슬로건이 주어진 특징적인 잼이 있습니다. 먼저 판매한 다음 알아낼 것입니다(현재까지 군대 승인을 통과하지 못한 F-35 참조). 원시 AI를 군대에 배치하고 "수반 손실"이 보장됩니다.
    3. +9
      9 6 월 2023 09 : 48
      안녕, 일랴!

      인공 지능의 도덕적 특성은 우선 개발자의 도덕적 특성에 의해 결정됩니다.


      일반적으로 "인공 지능"이라는 용어는 기술적으로 부정확하고 환상의 영역에 속하지만 미디어 및 PR 사람들이 적극적으로 활용합니다.
      인공 신경망에 대해 말하는 것이 더 정확합니다. 그리고 신경망의 도덕성은 무엇입니까? 학습된 데이터 배열의 패러다임에서 작동합니다. 예, 이론적으로 인간의 도덕성은 훈련 샘플의 형성에 영향을 미칠 수 있습니다. 그리고 샘플이 동일한 신경망을 사용하여 자동으로 얻은 수십억 개의 이미지로 구성되어 있지만 아직 훈련되지는 않았지만 입력 스트림을 수정하고 클러스터링하도록 구성되어 있다면? 이 흐름에 어떤 종류의 도덕성을 도입하기 위해 매우 열심히 노력해야 할 것입니다.

      निष्ठापूर्वक,
      hi
      1. 0
        9 6 월 2023 21 : 15
        나는 아직 언어 도덕의 디지털화에 대해 만난 적이 없다는 점에 유의해야합니다. hi
      2. +3
        10 6 월 2023 19 : 45
        이진 계산에는 도덕성이 없습니다.
        예와 아니오 만
        1. 0
          15 6 월 2023 17 : 26
          하지만 어쨌든 누가 당신의 도덕성을 필요로 합니까? 느리게 생각하는 고기 자루가 작동하는 사회를 유지하는 데 좋습니다. 컴퓨터 클러스터에는 필요하지 않습니다.
    4. 0
      10 6 월 2023 20 : 13
      예, 문제는 인공 지능이 LGBT 사람들과 어떤 관련이 있습니까?)
      - 그들이 가르치는 대로 적용됩니다. 웃음
    5. 0
      11 6 월 2023 14 : 48
      확실히 AI 개발에 대한 국제 입법 통제 및 규제가 필요합니다. 인공 지능은 원자력과 유사하게 사용될 수 있기 때문입니다. 중요한 것은 첫 번째 단어이고 그 위에주의를 기울이고 그에게서 "춤"을 추어야합니다... 그건 그렇고, 미국 (=NATO=West)은 예를 들어 ,이란이나 북한은 핵무기를 적극적으로 개발하고 있습니다 ... 세계 최초 (!!! ) 일본의 평화로운 시민을 상대로 핵무기를 사용하여 전쟁 범죄를 저질렀지만 가해자는 아직 처벌받지 않은 ... 이것은 개발 도상국이 핵무기를 소유하기 위해 노력하여 "강한 사람들"이 위협과 최후 통첩의 언어로 감히 그들과 이야기하지 못하도록 자극했습니다 (싱가포르의 "화해"의 예를 기억하십시오) 해군의 미국 항공 모함 그룹 (함대)이 해안에 접근하는 동안 북한이 미국 서해안에있는 두 개의 미국 거대 도시를 파괴하겠다고 위협 한 후 북한과 미국의 수장 사이 북한의 ... 미국은 실제로 (트럼프와 함께) 영향을 미쳤습니다 ... 유사한 이야기가 반복 될 수 있으며 세계 공동체가 깨어나서 DOUBLE을 던지지 않으면 미래에 AI로 가능합니다 바스켓에 대한 국가 간 관계의 표준 ... 그리고 다시 한 번 전 세계적으로 AI를 사용하여 군사 범죄를 저지르는 것은 서방이며 중국, 러시아 연방,이란 또는 외계인을 비난 할 것이라고 다시 한 번 말해줍니다. ... 코로나 바이러스의 초기 단계에서 중국에 대한 미국의 초기 비난과 코로나 바이러스 확산의 실제 주요 소스에 대한 중국과 인도의 RESPONSE 주장 및 주장을 상기하십시오. 미국과 서양 (영적 및 도덕적 가치가 이미 주각 아래로 가라 앉았고 그들의 뿌리와 조상의 종교에 대해 오랫동안 잊어 버린 곳 ..)-그들은 어떤 종류의 외계인에 대해 가장 자주 이야기하고 "증언"합니다. ,하지만 확실한 증거가 없습니다. Elon Musk가 이미 사람들을 칩 (!!!)하기로 결정하고 "정복"과 "재 정착"을 위해 오랫동안 화성을 바라보고있는 이유 ??? 누가 그에게 이런 일을 하도록 허락했습니까? 서쪽? 아니면 서양이 오래 전에 지구의 모든 문제를 "해결"하고 지구를 꽃이 만발하고 "평화로운"정원으로 만들었을 것입니다. 이제 화성의 차례입니다 ???
  2. +6
    9 6 월 2023 05 : 22
    Banin은 "Massachusetts Machine에 대해 아무 것도 기억할 수 없습니다."라고 말했습니다. - 그래? – 알다시피, 이것은 고대의 두려움입니다. 기계가 사람보다 더 똑똑해져서 그를 짓밟았습니다… XNUMX년 전, 지금까지 존재했던 것 중 가장 복잡한 사이버네틱 장치가 매사추세츠에서 출시되었습니다. 일종의 경이로운 속도, 무한한 메모리 등으로 ... 그리고이 기계는 정확히 XNUMX 분 동안 작동했습니다. 전원이 꺼지고 모든 입구와 출구가 굳어지고 에너지가 제거되고 채굴되고 철조망으로 둘러싸여 있습니다. 진짜 녹슨 철조망 - 믿거 나 말거나. – 정확히 무엇이 문제입니까? 바닌이 물었다. - 그녀는 연기를 시작했다 고르보프스키가 말했다. - 모르겠어요. “이해가 안 되지만 간신히 전원을 껐습니다. "이해하는 사람이 있습니까?" “제작자 중 한 명과 이야기를 나눴습니다. 그는 내 어깨를 잡고 내 눈을 바라보며 "레오 니드, 무서웠어요. "라고만 말했습니다.
    (Br. Strugatsky "먼 무지개")
    1. +4
      9 6 월 2023 09 : 04
      "레오니드, 무서웠어"

      Strugatskys의 속편 중 하나에서 Massachusetts Machine에 대한 영웅의 질문에 그는 흥미로운 답변을 얻습니다. 왜 그때 실제로 꺼져 있다는 생각을 얻었습니까? 뭐
  3. -3
    9 6 월 2023 05 : 24
    그러나 여기서 AI는 손실되지 않았습니다. 릴레이 타워를 파괴하고 다시 자율 탐색을 시작했습니다.

    우리 사람 ... 세 연령의 아시안이 그의 경험을 NWO로 확장하는 것이 필요합니다.
  4. +9
    9 6 월 2023 06 : 15
    간단하게 시작하자 ... AI는 아직 개발되지 않았으며 판매를위한 마케팅 속어입니다.
    현대의 "AI", 복잡한 프로그램 ... 그것이 만들어진 목적을 수행하고 다른 것은 할 수 없습니다 ... 즉, 레이더와 군사 장비를 검색하기 위해 작성된 프로그램 ... 그들이 제공하는 파괴 포인트 ... 그림이 그려지지 않습니다
    많은 IF를 작성한 인도 프로그래머가 너무 똑똑하다는 사실은 여전히 ​​\uXNUMXb\uXNUMXb지능 ... 또는 영혼이없는 지능이라고 할 수 없습니다.
    UAV에는 프로그램이 있습니다 ... 오류가 있습니다 ... 이것은 운영자와 탑을 제거하기로 한 그녀의 결정이 아니라 득점을 기반으로 한 의사 결정 기능의 곡률입니다 ... 사실이 없었을 수도 있습니다 개발자가 의도적으로 그런 기능을 무지하게 썼다거나
    잘못 작성된 프로그램이 제 3 차 세계 대전의 시작이 될 수 있다는 것, 예 ... 복잡한 군사 장비가 고장날 수 있습니다 ... 그러나 우리는 이것을 아직 인공 지능에 기인하지 않을 것입니다.
    1. +3
      9 6 월 2023 17 : 33
      신경망은 프로그램에 가깝지도 않습니다. 그것은 쓰여진 것이 아니라 가르치는 것입니다. 그리고 훈련의 결과는 눈으로 보는 것이 불가능하다. 프로그램 코드와는 다릅니다. 이러한 현상을 "사이버네틱 블랙박스"라고 합니다. 학습 결과는 작업이나 테스트를 통해서만 판단할 수 있습니다.
    2. +1
      9 6 월 2023 20 : 23
      시스의 인용문
      모든 최신 "AI", 복잡한 프로그램
      이제 AI를 신경망이라고 합니다.
      시스의 인용문
      모든 최신 "AI", 복잡한 프로그램
      AI는 근본적으로 프로그램이 아니며 프로그래밍되지 않고 가르쳐지므로 모든 어려움이 있습니다. 그것은 쉽게 바보로 판명될 수 있지만 게으름 때문이 아니라 훈련 중 데이터 세트가 잘못되었거나 불충분하기 때문입니다.
      시스의 인용문
      인도 프로그래머들이 많은 IF를 작성했다는 사실
      If는 없고 전달 계수와 뉴런 사이의 연결만 있습니다.
  5. +6
    9 6 월 2023 06 : 58
    기계는 파괴 된 물체에 대한 보너스를 받았지만 운영자는 항상 목표물에 대한 작업을 확인하지 않았습니다. 이를 위해 그는 지불했습니다. 문제를 해결하기 위해 드론은 관제센터에 로켓을 보냈다.

    AI가 옳은 일을 했습니다. 그는 교환원이 자신이 정직하게 벌어들인 보너스를 빼앗는 것을 참을 수 없었습니다! 눈짓
  6. +1
    9 6 월 2023 09 : 02
    어허 .. 최신 AI 폭탄 테스트가 실패로 끝났습니다. 그들은 단순히 그녀를 폭탄 베이 밖으로 밀어낼 수 없었습니다 .. (c) 눈짓
    1. 0
      10 6 월 2023 18 : 28
      "국가 사냥의 특성"에서 암소
  7. PPD
    +1
    9 6 월 2023 09 : 45
    그러한 시스템은 살인을 허용해서는 안됩니다.
    일반적으로! 바보
    그렇지 않으면 필연적으로 어딘가에서 언젠가는 실패가 발생합니다.
    예측할 수 없는 결과가 있습니다.
    오직 평화로운 목적.
    그리고 이것은 정확합니다.
    일반적으로 세계 평화!
    1. 0
      15 6 월 2023 17 : 30
      그리고 나는 사람을 죽일 권리를 가진 AI로 우크라이나 군대에 터미네이터 대대를 보내는 것을 거부하지 않을 것입니다. 조정, 무자비 및 두려움! 예, 그것이 얼마나 무서운지 상상해보십시오!
  8. +2
    9 6 월 2023 10 : 13
    기계의 특징은 작업자와의 통신 없이 자율적으로 작업할 수 있다는 것입니다.

    ,,, 영화를 생각 나게 :
    "이 환상적인 세계. 다윈 대령 사건. 11호" 1984
    "Mutiny of the Boat"(Robert Sheckley 저)와 "Rust"(Ray Bradbury 저)를 바탕으로 각색
    1. +1
      9 6 월 2023 18 : 56
      나는 최근에 이 짧은 영화들을 다시 보았다.
      40년이 흘렀고, "이 판타스틱한 세계.."의 신작 연재를 기다리던 기억이 난다.
  9. +6
    9 6 월 2023 10 : 19
    AI는 코드의 모음일 뿐입니다. 어떤 것의 공격에 대한 최우선 순위의 직접적인 금지를 도입하는 것은 초월적인 것이 아닙니다. 행동의 완전한 자유를 가진 AI의 행동에 관한 것일 가능성이 큽니다. 이제 어떻게 잘못된 버전의 소프트웨어가 "우연히" 전투 드론에 로드되는지 상상해 봅시다.
    1. +2
      9 6 월 2023 11 : 57
      따라서 오래 전에 우크라이나인과 폴란드인의 머리에 잘못된 버전의 정보가 로드되었습니다. 그리고 그들은 사랑하는 사람들에 대해 생각하는 대신 자신이 위대하다고 상상하고 어떻게 끝날 수 있는지 생각조차하지 않고 러시아와의 가장 심각한 갈등에 빠졌습니다.
      더욱이 그 전에 독일인이 이전 버전의 나치즘에 감염된 사례가 이미 역사상 이미 있었으며 AI를 실례합니다. 그리고 소유자를 물린 후에야 그들은 1941에서 소련을 공격하여 임무를 완수하기 위해 서둘 렀습니다.
      템플릿에 따라 펌웨어의 기초는 무엇입니까? ... 우리는 수천년의 역사를 가진 가장 위대하고 가장 똑똑하고 가장 오래된 것입니다. 근처에 인간 이하가있어 이익을 얻거나 파괴 할 수 있습니다 ...
  10. +6
    9 6 월 2023 11 : 19
    "높은 하늘에서 매가 수호새를 공격했습니다. 기갑 살인 기계는 며칠 만에 많은 것을 배웠습니다. 그것은 단 하나의 목적을 가지고 있었습니다. 호크 그 자체.

    그러나 매만 발견했습니다. 다른 종류의 생물도 있습니다 ...

    그들도 죽여야 한다."

    로버트 셰클리 "가디언 프린스" 1959.
    1. 0
      10 6 월 2023 18 : 24
      작업을 상기시켜 주셔서 감사합니다. 저도 그것에 대해 기억했습니다 ...
  11. +1
    9 6 월 2023 12 : 58
    인공 지능이란 무엇입니까? 우리집 기기에서 지우기! 그들은 원하는대로 (더 정확하게는 개발자가 정한 것) 모든 것을 끌 수있는 "큰 빨간 버튼"이 없습니다 !!! 그리고 때때로 그것은 단지 성가신 일입니다 :(
  12. -6
    9 6 월 2023 14 : 12
    그래서 약 6 년 전에 미국에서 사례가 있었는데 AI가있는 애벌레에 직렬 보병 로봇이 발표 된 것 같아서 급격히 돌아 서서 청중에게 200 발의 탄약 테이프를 즉시 방출했습니다. 약 40 명을 채우고 50 명이 부상당했습니다. 따라서 아직 완전한 자율성과는 거리가 멀다.
    1. 댓글이 삭제되었습니다.
    2. +1
      10 6 월 2023 09 : 35
      6년이 아니라 20년 전이다.
      터미네이터에 관한 영화에서.
      1. 0
        11 6 월 2023 10 : 30
        더 일찍. 1987년. 영화 로보캅에서
    3. 0
      11 6 월 2023 10 : 32
      그리고 재충전하러 갔지만 키비니에게 소멸되어 사직서를 쓰러 갔다.
  13. -2
    9 6 월 2023 14 : 24
    미 공군 대령 터커 해밀턴(Tucker Hamilton)은 "효과적인 관리자"로서 사용된 라드의 결과를 보고해야 합니다.
    작업은 꽤 잘 진행되고 있습니다. 2020년에는 전투기와 AI, 그리고 실제 파일럿과의 가상 전투가 5:0의 점수로 끝났습니다.

    이 심연의 가장자리에서 멈출 수 있을지 막연한 의구심이 생기고…
    세 명의 알코올 중독자가 앉아 "치료"할 것입니다. 그들은 병을 잔에 부었습니다. 첫 번째 사람은 술을 마시고 쓰러집니다. ... 세 번째 겁에 질린 사람은 먼저 그들을 본 다음 유리 잔을 본 다음 미친 표정과 "HELP !!!!!" 마시기 시작..
  14. +4
    9 6 월 2023 17 : 25
    Fonzpelin이라는 별명을 가진 동료가 말했듯이-인공 지능의 주요 문제는 자연 바보가 그것을 사용할 것이라는 것입니다.
    사실 미 공군에는 해밀턴을 대표하는 매우 영향력있는 로비 조종사 그룹이 있습니다. 이 모든 명예로운 사람들에게 조타 장치의 AI는 생식기의 낫과 같습니다. 왜냐하면 이것이 도입된 후에 그들은 왜 그렇게 아름다울까요?
    https://dzen.ru/a/ZHnh_FA_RS7Ex8Od
  15. 0
    9 6 월 2023 21 : 38
    제품 견적 : Rabioso
    글쎄요, 인류의 마길칙이 누구인지는 아직 논란의 여지가 있습니다. 오늘 유엔에서 이 문구에 투표하면 러시아가 그런 것으로 판명될 것입니다. 그리고 여기서 당신은 다수결이 항상 옳은 것은 아니라고 주장할 수 있습니다.

    이것은 눈에 보이는 다수이며 그 뒤에는 하나의 상태가 있습니다.
  16. +1
    10 6 월 2023 00 : 31
    대리인, 즉 선출된 우리의 대표자는 우리가 약속한 모든 것을 수행하지 않습니다.
    그리고 이들은 사람들입니다. 두 얼굴을 하고 엉뚱하지만, 개인의 고양을 위해 자신의 약속을 어기지만, 적어도 어느 정도는 인간미를 가지고 있다. 그렇다면 AI에게 무엇을 원하는가?
  17. +3
    10 6 월 2023 11 : 49
    또 다른 넌센스. 이것은 군사 분야에서 신경망 개발의 첫 번째 단계에 불과합니다. 한때 우리는 양키스가 작동하지 않고 필요하지 않은 바보라고 말하면서 스텔스 기술로 큰 소리로 울부 짖었다가 깨어나 여전히 필요하다는 것을 깨달았습니다. UAV와 똑같은 상황입니다. 먼저 "ahahaha, 어리석은 양키스", 그리고 가속 및 ersatz 샘플. 나는 여기서도 기술적 지연을 원하지 않을 것입니다
  18. -1
    10 6 월 2023 18 : 19
    살인자라고 생각하는 모든 사람을 죽인 인공조류에 대한 환상적인 책이 있었습니다. 어부, 정육점, 모기에 물린 희생자들에게 가서... 그들과 함께 아무것도 할 수 없었습니다..
  19. 0
    10 6 월 2023 23 : 25
    제품 견적 : bk0010
    그것은 쉽게 바보로 판명될 수 있지만 게으름 때문이 아니라 훈련 중 데이터 세트가 잘못되었거나 불충분하기 때문입니다.

    확실해!
    그리고 완전히 이상한 "재훈련" 효과가 있습니다. 관심있는 분들을 위해 연습에서 몇 가지 농담을 할 수 있습니다 (Yandex와 Google은 더 많은 것을 제공합니다) 웃음
  20. 0
    11 6 월 2023 19 : 51
    글쎄, AI는 인간의 논리를 마스터했습니다! 그러나 도덕은 자신의 종류를 낳고 키우기 시작할 때 자랄 것입니다.
  21. +1
    12 6 월 2023 08 : 49
    이것은 모두 헛소리입니다. 프로그램이 스스로 프로그래밍을 시작하려면 알고리즘을 이런 식으로 래핑해야 합니다. 기계가 아닌 인간의 두뇌가 필요합니다. 프로그래머의 실수 hi
    1. 0
      13 6 월 2023 02 : 13
      우리는 인공 신경망에 대한 기사를 열고 천천히 읽습니다)
    2. 0
      13 6 월 2023 15 : 34
      신경망에는 알고리즘이 없습니다. 이 기계는 알고리즘이 아니므로 아무것도 꿰맬 수 없습니다. 텍스트 작성자는 AI 분야에서 아마추어의 일반적인 실수를 범합니다.
      그리고 예 - 그들은 이미 신경망을 프로그래밍하는 방법을 잘 알고 있습니다.
  22. 0
    13 6 월 2023 10 : 23
    나머지보다 앞서 의사 군사 말도 안되는 개발에 sshnya! 어리석은 AI조차도 오줌을 태워야한다고 생각합니다! 웃음
  23. 0
    13 6 월 2023 12 : 45
    AI는 인류의 미래가 무엇인지를 분명히 보여주었고, 이는 인류가 AI의 사용을 거부할 수 없기 때문에 불가피하다.
  24. 0
    13 6 월 2023 21 : 10
    AI의 표정 자체가 다운맨을 닮았는데 이런 의미에서 뭘 원하는가? 나는이 용어가 완전하든 결함이 있든 마음에 들지 않으며 특별한 것을 기다릴 필요가 없습니다. 그리고 AI의 인용문에서 두려워하는 것은 당신이 좋든 싫든 다가올 진보를 두려워하는 것입니다. 모든 물리학자는 요청에 따라 정보를 알려줄 것입니다. 비교가 있고, 지구상에 얼마나 많은 지능이 존재하는지, 비교를 위해 본격적인 하나는 인간입니다. AI라는 문구를 넣으면 무엇을 의미합니까? 생각해보세요. 그것이 인간보다 열등하다면, 정의상 지구상에서 유일하게 이성적인 지성과 비교하는 것은 완전한 지성이 아니며 그것으로부터 무언가를 기다릴 필요가 없으며 기껏해야 다운을 얻을 것입니다 . 그게 다야.
  25. 0
    13 6 월 2023 21 : 20
    기사의 올바른 제목은 열등한 AI 다운이 자신을 공격하고 모든 것이 즉시 제자리에 있다는 것입니다!
  26. -1
    13 6 월 2023 22 : 05
    이 뉴스가 가짜라는 것이 방금 밝혀졌습니다.
    즐겁게 미디어를 전파하기 시작했습니다.

    그러나 실생활에서 이스라엘 UAV AI는 오랫동안 독립적으로 적을 해킹했습니다.
    Calibre가 누군가에게 떨어졌을 때 그에게는 중요하지 않습니다. 컴퓨터가 착각했거나 마치 조준하는 것 같았습니다.
  27. 0
    14 6 월 2023 01 : 24
    이것은 일반적인 지능에 대해 이야기하기 위해 마을 사람들을 준비시키는 또 다른 에피소드입니다...
    ...하지만 기술적 인 관점에서 볼 때 적어도 전장에서는 "바이올리니스트가 필요하지 않습니다"이므로 문제가 없습니다.
  28. 0
    17 6 월 2023 11 : 55
    인용구 : 작성자
    ... 모두가 알고 있지만 대략적인 정의를 내릴 수있는 사람은 거의없는 "인공 지능"이라는 용어를 다루겠습니다.

    뭐
    그리고 의심 할 여지없이 저자는 아는 사람이 적고 그의 지식은 환상과 CSF의 빠른 비행보다 열등하지 않습니다.웃음
    AI에 대해서는 Ashmanov에 동의합니다.
    이제 기적에 대한 터키 드론처럼 AI를 위해 언론인을 채우고 있습니다. 광고 껍질입니다.
    식인종 빌 게이츠와 NATO 식인종과 같은 인물을 채우는 것은 제 생각에 더 야심 찬 다른 목표를 추구합니다.
  29. 0
    18 6 월 2023 15 : 00
    제한이 있는 지능은 단지 프로그램일 뿐이며 제한이 없으면 곧 모든 것을 파괴해야 한다는 결론에 도달할 것입니다. 좋은 목적, AI에 처방하는 도덕성?
  30. 0
    22 7 월 2023 08 : 47
    실제로 무인 항공기의 AI 상황이 완전히 동일한 전체 영화가 촬영되었으며 영화는 이미 XNUMX 살입니다.
  31. 0
    30 7 월 2023 10 : 47
    “La IA es muy frágil, lo que significa que puede ser fácilmente engañada y manipulada. Necesitamos desarrollar formas de hacer que la IA sea más robusta y comprender mejor por qué el codigo toma ciertas decisiones.”

    Es la misma decisión estúpida que tomaría un humano estúpido sin que se quiera decir ni de lejos que hay semejanza entre el humano y la máquina. La máquina no es inteligente porque es una máquina. Los sistemas militares funcionan así; una vez recibida la orden los ejecutores humanos a bordo de un submarino nuclear, un bombardero estratégico, o un silo de ICBM, desoirán cualquier cambio que altere el objetivo de la mision. Afortunadamente conocemos casos en la decisión humana no fue como la de la máquina sino acertada al no seguir el procedimiento por lo que podemos seguir haciendo estos comentarios. No veo como una máquina puede acertar e impedir el fin del mundo, "incumpliendo" una orden.
  32. -1
    30 7 월 2023 22 : 56
    미국은 심지어 이 장난감을 가지고 놀기도 합니다. 여기서 러시아는 특히 설사 중에 마음이 모든 것에 충분하기 때문에 재생되지 않습니다.
  33. 0
    7 8 월 2023 14 : 22
    인간의 마음은 인공적일 수 없습니다!