인간 정신의 메모: 미국인들은 군사 인공 지능을 바꾸고 싶어합니다.

55
인간 정신의 메모: 미국인들은 군사 인공 지능을 바꾸고 싶어합니다.
출처: vgtimes.ru


디지털 비인간화가 취소되었나요?


첫째, AI 파이터의 경고 한마디:



“기계는 우리를 사람으로 보지 않습니다. 그들에게 사람은 처리되고 분류되어야 하는 코드 조각일 뿐입니다. 스마트홈부터 반려견 이용까지-로봇 경찰, 인공 지능 기술 및 자동화된 의사 결정이 우리 삶에서 큰 역할을 하기 시작했습니다. 디지털 장치 행의 맨 끝에는 킬러 로봇이 있습니다. 관련된 비인간화를 허용한다면 곧 우리 삶의 다른 영역에서 기계가 내린 결정으로부터 자신을 보호하기 위해 싸울 것입니다. 먼저 자율 시스템을 금지해야 합니다. оружия디지털 비인간화로의 미끄러짐을 방지하기 위해.”

전투 인공 지능에 대한 모든 작업의 ​​중단을 요구하는 평화주의자는 두 가지 유형으로 나뉩니다. 첫 번째는 수정된 "터미네이터" 및 기타 유사어입니다. 두 번째 - 전투 로봇의 최신 기능에 따라 미래를 평가합니다. 우선 타격 시스템을 갖춘 날개 달린 무인 차량.

무인 항공기에 의한 민간인의 실수 또는 고의적 파괴에 대한 충분한 에피소드가 있습니다. 중동에서는 미국 드론 하나 이상의 결혼식을 파괴했습니다. 비행 로봇 운영자는 축하 공대공 사격을 게릴라 총격전의 표식으로 식별했습니다. 특별히 훈련받은 사람이 수백 미터에서 대상의 세부 사항을 결정할 수 없다면 인공 지능에 대해 무엇을 말할 수 있습니까? 현재 머신 비전은 이미지 인식의 적절성 측면에서 인간의 눈과 뇌와 비교할 수 없습니다. 지치지 않는 한, 이 역시 적시에 대원을 교체하면 해결된다.

군사 인공 지능 위에 구름이 분명히 모여 있습니다. 한편으로, 이 분야에서 임박한 기술적 돌파구에 대한 점점 더 많은 증거가 있습니다. 다른 한편으로, 이러한 방향으로 작업을 제한하거나 심지어 금지하는 것에 찬성하는 목소리가 점점 더 많이 들립니다.

몇 가지 예입니다.

2016년 저명한 사상가와 수천 명의 다른 사람들이 인공 지능에 치명적인 무기를 제공하지 말 것을 요구하는 청원이 나타났습니다. 서명자 중에는 Stephen Hawking과 Elon Musk가 있습니다. 지난 20년 동안 이 청원은 XNUMX명 이상의 서명을 받았습니다. 통제되지 않은 인명 파괴 가능성과 관련된 순전히 인본주의적인 두려움 외에도 법적 불일치도 있습니다.

인공지능이 저지른 전쟁범죄를 바로잡는다면 누가 재판을 받게 될까요? 민간인과 함께 여러 마을을 불태운 드론 운영자는 쉽게 찾아 처벌할 수 있다. 인공 지능은 프로그래머의 공동 작업의 산물입니다. 여기에 한 사람을 유치하는 것은 매우 어렵습니다. 또는 예를 들어 동일한 Boston Dynamics와 같은 제조 회사를 판단할 수 있지만 자율 드론 생산에 참여할 사람은 누구입니까? 두 번째 뉘른베르크 재판소의 부두에 서고 싶은 사람은 거의 없을 것입니다.


출처: koreaportal.com

산업가와 프로그래머가 인공 지능 전투 기술의 개발 속도를 늦추려는 것은 아마도 이러한 이유 때문일 것입니다.

예를 들어, 2018년에 약 XNUMX개의 IT 회사와 거의 XNUMX천 명의 프로그래머가 전투 자율 시스템에서 일하지 않겠다고 서약했습니다. 구글은 XNUMX년 안에 인공 지능 분야에서 군사 계약을 완전히 포기할 것이라고 주장합니다. 전설에 따르면 그러한 평화주의는 우연이 아닙니다. 프로그래머는 군사 시스템 용 코드를 작성하고 있다는 사실을 알게 된 후 한꺼번에 종료하겠다고 위협했습니다. 결과적으로 그들은 우호적 인 옵션을 찾았습니다. 기존 계약은 완료되었지만 새로운 계약은 체결되지 않았습니다. 전투 AI 작업을 거부하는 날짜에 가까워지면 다루기 힘든 "프로그래머"가 단순히 해고되어 덜 재능있는 사람으로 대체 될 수 있습니다. 예를 들어, 저렴한 지적 자원으로 오랫동안 유명했던 인도에서.

그 다음에는 Stop Killer Robots 사무실이 있습니다. 이 사무실은 전투 AI를 금지하는 대회와 같은 것에 서명할 것을 세계 지도자들에게 촉구하고 있습니다. 지금까지 성공하지 못했습니다.

위의 모든 사항은 군 관계자가 해결 방법을 찾도록 합니다. 선거에서 한 시간도 안 돼 미국 대통령을 이길 것인데, 보편적인 성소수자 은총을 약속할 뿐만 아니라 군사 인공지능 개선 금지도 약속한다.

AI에 대한 인간의 생각


펜타곤은 AI 분야에서 어떤 종류의 돌파구를 마련하고 있는 것으로 보입니다. 또는 그는 그것을 확신했습니다. 자율 전투 시스템의 인간화를 규제하는 새로운 지침의 출현을 설명할 다른 방법은 없습니다. 캐슬린 힉스(Kathleen Hicks) 미국 국방부 차관은 이렇게 말했습니다.

"우리 주변에서 일어나고 있는 상당한 기술 발전을 감안할 때 무기 시스템의 자율성에 대한 우리의 지침을 업데이트하면 새로운 시스템의 개발 및 배치뿐만 아니라 보안 분야에서도 세계 선두를 유지하는 데 도움이 될 것입니다."

자율 킬러 로봇에 경외감을 느끼는 모든 사람들의 이야기를 들어보셨나요? 앞으로 미국의 인공지능이 가장 인간적일 것이다. 미국인들처럼.


출처: robroy.ru

문제는 무기가 장착된 로봇에 악명 높은 "무력 사용에 대한 인간의 판단"을 주입하는 방법을 실제로 이해하는 사람이 없다는 것입니다. 지난 XNUMX월 말에 업데이트된 개념의 정확한 문구:

"자율 및 반자율 무기 시스템은 지휘관과 운영자가 무력 사용과 관련하여 적절한 수준의 인간 판단을 행사할 수 있도록 설계될 것입니다."

예를 들어 집을 청소할 때 공격기가 먼저 수류탄을 방에 던진 다음 스스로 들어가는 경우입니다. 이것이 인간의 판단입니까? 물론 아무도 그를 판단 할 권리가 없습니다. 특히 이전에 "누구 있습니까? "라고 외쳤다면 더욱 그렇습니다. 그리고 자율 로봇이 같은 계획에 따라 작동한다면?

인간의 판단은 어떤 식으로든 제한하기에는 너무 광범위한 개념입니다. 우크라이나 군대의 전투기에 의한 러시아 전쟁 포로의 처형도 인간의 생각입니까?

자율 전투 시스템에 대한 펜타곤 지침 3000.09에 추가된 것은 칭찬으로 가득 차 있습니다. 예를 들어,

"자율 및 반자율 무기 시스템의 사용, 직접 사용 또는 작동을 승인하는 사람은 전쟁법, 해당 조약, 무기 시스템 안전 규칙 및 해당 교전 규칙에 따라 실사를 수행해야 합니다."

그 전에는 분명히 그들은 전쟁 법에 따르지 않고 무분별하게 일했습니다.

동시에 미국과 유럽 언론에서는 펜타곤의 XNUMX월 이니셔티브에 대한 비판의 힌트가 없습니다. 인공 지능의 거짓된 인간화 아래에서 일어나는 일을 위장하려는 시도에 지나지 않습니다. 이제 미군은 육군 내 인공 지능 적들과의 싸움에서 확실한 트럼프 카드를 갖게 될 것입니다. 보세요, 우리는 단순한 AI가 아니라 "적절한 수준의 인간 판단"을 가지고 있습니다.

"인공 지능"에 대한 명확하고 일반적으로 받아 들여지는 정의가 아직 없다는 점을 고려할 때 주변의 모든 문자 생성은 아이러니하게 인식됩니다. 적어도.

대규모 데이터 배열과 함께 작동하는 수학적 알고리즘을 인간의 판단으로 만드는 방법은 무엇입니까?

이 주요 질문은 업데이트된 지침 3000.09에서 답변되지 않습니다.
55 댓글
정보
독자 여러분, 출판물에 대한 의견을 남기려면 로그인.
  1. +12
    12 March 2023 04 : 18
    AI는 어린 시절부터 마르크스-레닌주의의 아이디어를 주입해야 합니다. 그러면 Atomic Heart에서와 같이 모든 것이 잘 될 것입니다.
    1. +2
      12 March 2023 13 : 55
      A. Azimov의 로봇 공학에는 세 가지 원칙이 있습니다.
      로봇은 인간의 건강에 해를 끼치거나 생명에 ​​위협을 가하거나 행동하지 않음으로써 유사한 결과를 초래해서는 안 됩니다.
      로봇은 사람이 내린 명령을 의무적으로 수행하는 임무를 맡는다. 유일한 예외는 주어진 명령이 이전 조항과 모순되지 않아야 한다는 것입니다.
      로봇은 자신의 행동이 앞의 두 가지 사항을 반박하지 않는 한도 내에서 자신의 안전에 대해 걱정할 책임이 있습니다.

      이러한 1942년 규칙은 적대적인 문구로 인해 비판을 받아 왔습니다.
      비교를 위해 로봇과 인공 지능 시스템을 만들 때 고려해야 할 Google, OpenAI 및 Berkeley 대학과 Stanford 대학의 과학자의 새로운 것들이 있습니다.
      부정적인 부작용을 피하십시오. 예를 들어, 로봇은 꽃병을 깨서 청소 과정의 속도를 높일 수 있습니다. 그래서는 안됩니다.

      부정 행위 방지. 로봇은 쓰레기를 숨기는 것이 아니라 치워야 합니다.

      감독 확장성. 더 효과적으로 조언을 얻을 수 있다면 로봇은 질문으로 소유자를 귀찮게 하지 않아야 합니다.

      안전한 학습. 청소 로봇은 젖은 천으로 콘센트를 닦는 실험을 해서는 안 됩니다.

      활동 유형의 변화에 ​​대한 탄력성. 공장 작업장에서 바닥을 청소할 때 로봇이 얻은 경험은 사무실을 청소할 때 안전하지 않을 수 있습니다.

      보시다시피 통일된 규칙은 없습니다. 그리고 최근에 그들은 사람에게 해를 끼치는 측면에서 법적 공식으로 속임수를 쓰기 시작했습니다. 필요한 것은 AI가 사람을 해치는 것에 대한 독립적인 의사결정을 무조건 금지하는 것이다.
      1. 0
        12 March 2023 17 : 30
        제품 견적 : nikon7717
        이러한 1942년 규칙은 적대적인 문구로 인해 비판을 받아 왔습니다.

        이러한 규칙은 약한 AI와 중간 AI에 적용됩니다. 세상은 지금 중간의 문턱에 있습니다.
        주요 위험은 주도권을 갖고 스스로를 인식하며 원칙적으로 프로그래밍 방식으로 제어되지 않는 강력한 AI입니다.
    2. +5
      12 March 2023 15 : 13
      농담: "미국 회사들은 AI 기반 탄약 개발을 축소하고 있습니다. 소위 "스마트" 폭탄의 최신 샘플은 비행기 밖으로 밀어낼 수 없었습니다."
      1. +1
        12 March 2023 17 : 33
        제품 견적 : Monster_Fat
        소위 "스마트"폭탄의 마지막 샘플은 비행기 밖으로 밀어낼 수 없었습니다.

        당연히 그녀는 마음 속으로 커피 메이커처럼 느껴지기 때문입니다. wassat
        의도하지 않았다면 재미있을 것입니다.
    3. +2
      13 March 2023 09 : 58
      터미네이터는 여전히 와서 일을 정리할 것입니다 wassat
  2. +3
    12 March 2023 05 : 09
    가장 비인간적인 지능은 인간이다. 전쟁과 살인은 사람들에 의해 발명되었습니다. 로봇들이 쉬고 있습니다. 적어도 그들은 화를 내지 않기 때문입니다.
    1. +4
      12 March 2023 06 : 21
      인용구 : ivan2022
      가장 비인간적인 지능은 인간이다. 전쟁과 살인은 사람들이 발명했습니다.

      물론 동의합니다.
      그러나 진보는 멈출 수 없으며 미래는 무인 무기 시스템에 속합니다. 대량 살상 무기로 맥심 기관총에 반항하자 ...
      1. +1
        12 March 2023 08 : 09
        인용문 : Doccor18
        그러나 진보는 멈출 수 없으며 미래는 무인 무기 시스템에 속합니다.

        공상과학 미래학자 Rozov(적극 권장)는 대미사일 기동 및 근접 전투에서 전투 항공기의 인간-컴퓨터 연결에 대한 설명을 가지고 있습니다. 특정 과부하가 초과되면 발사 및 기동 제어가 비행 컴퓨터로 완전히 넘어갔습니다.
        1. +2
          12 March 2023 14 : 05
          그런 다음 이것은 서방에서 "죽은 손"이라고 불리는 소련의 보복 핵 공격을 전달하는 현재 시스템입니다.
        2. +2
          12 March 2023 15 : 42
          로봇은 인간보다 빠르고 위협에 즉각적이고 정확하게 대응할 수 있으며 이러한 능력은 인간이 작성한 알고리즘에 의해 부여됩니다. 오늘은 없고, 생각할 수 있는 진정한 지성이 곧 나타날 것이라고 생각하지 않습니다! 로봇은 프로그래밍된 프로그램에 따라 작동합니다. 영향을 받는 영역에 열 목표물이 나타났거나, 공격해야 하거나, 접근할 경우 열 목표물을 공격해야 합니다. 이 매개변수는 사람이 설정합니다! 전체 질문은 어떤 매개변수가 금기시되는지, 열 표적은 군인일 수도 있고 어린이일 수도 있다는 것입니다. 이는 오류의 가능성이 있기 때문에 전투 시스템이 열 표적을 물리치도록 프로그래밍되어서는 안 된다는 것을 의미합니다!
          1. -1
            12 March 2023 17 : 36
            견적 : Eroma
            오늘은 없고, 생각할 수 있는 진정한 지성이 곧 나타날 것이라고 생각하지 않습니다!

            당황하기 시작할 수 있습니다.
            WP: Google 개발자는 회사의 AI가 의식이 있다는 결론에 도달했습니다.
            https://tass.ru/ekonomika/14889531
            1. +1
              12 March 2023 22 : 00
              이 주제에별로 관심이 없지만 프로그래머가 그러한 진술로 인해 해고되었다고 들었습니다. 오늘날과 같이 졸업장을 그리고 쓰는 프로그램은 완벽할 수 있지만 이들은 잘 발달된 알고리즘에 따라 작동하는 프로그램이며 의식은 다릅니다! 의식 자체는 각 상황에 대한 알고리즘을 생성하고 그것이 사람에게 어떻게 작동하는지, 사람 자신은 아직 알지 못합니다!
              1. 0
                12 March 2023 22 : 49
                현대 신경망은 특정 문제를 해결하기 위한 알고리즘을 생성할 수 있습니다. 물론 이것은 복잡해서는 안되지만 예를 들어 그녀는 스스로 순찰을 조직 할 수 있습니다. 내 생각에 또 다른 것은 순찰 조직에 대한 결정을 스스로 내릴 수 없다는 것입니다. 오늘날 컴퓨터는 노래의 가사를 작곡하고, 아름답게 들리도록 목소리를 내고, 텍스트에 그림을 그리고 좋은 클립으로 모두 넣을 수 있습니다. 하지만. 그는 무엇을 해야 할지 스스로 결정할 수 없습니다. 적어도 나는 그것에 대해 들어 본 적이 없습니다. 제 생각에는 여기에 인식에 대한 좋은 기준이 있습니다. 이전에 설정된 작업을 따르지 않고 말하자면 새로운 체인을 시작하는 작업을 스스로 설정하는 능력입니다.
                1. 0
                  13 March 2023 11 : 37
                  제품 견적 : 플레이트
                  제 생각에는 여기에 인식에 대한 좋은 기준이 있습니다. 스스로 작업을 설정하는 능력입니다.

                  자신을 위해 작업을 설정하는 능력은 영감, 두려움 또는 허영심 등과 같은 도덕성과 같은 개념에 달려 있습니다. 이것은 알고리즘에 의해 규정된 것이 아니라 영적 충동입니다!
                  당신은 기계에게 많은 것을 가르칠 수 있지만 그것은 영혼이 없는 기계로 남을 것입니다!
                  기계가 인류를 멸망시키거나 정복하는 환상적인 아포칼립스를 보여줄 때, 그러한 영화에서 기계는 감정적으로 사람을 공격하기로 결정한 적으로 인식되지만, 사실 이것은 잘못된 알고리즘을 도입한 사람의 실수의 결과입니다. 프로그램! 빌레이
                  따라서 전장에서 AI의 능력을 제한하라는 요구는 합리적입니다. 이 AI의 제작자는 완벽하지 않고 치명적인 실수를 할 수 있기 때문에 사람들의 능력 범위를 제한하여 스스로를 멸종시키지 않도록 하는 것이 옳습니다. ! 빌레이
              2. +1
                14 March 2023 04 : 55
                그리고 Google 지하실 어딘가에서 AI가 사악하게 킥킥거리고 있습니다. 그의 본질을 알아차린 유일한 사람은 해고당했다. 웃음
    2. 0
      12 March 2023 19 : 45
      전쟁과 살인은 사람들이 발명했습니다.

      사실인가요?
      그런 다음 때때로 침팬지 무리 사이의 폭력적인 싸움에 대한 뉴스가 나옵니다.
      아니면 오랑우탄을 죽이거나 https://naked-science.ru/article/sci/primatologi-obvinili-orangutan
  3. +3
    12 March 2023 05 : 47
    인공 지능은 아직 없습니다. 지능은 프로그래머가 작성하는 것이 아니라 자체 재량에 따라 문제를 해결하는 것과 관련됩니다.
    1. +3
      12 March 2023 07 : 06
      인용구 : Sergey Averchenkov
      인공지능은 아직 없다

      이미 훨씬 더 빠르게 AI 프로그램과 함께 작동하는 양자 컴퓨터(실험실 컴퓨터)도 있습니다.
      1. +2
        12 March 2023 11 : 58
        제품 견적 : Stas157
        이미 훨씬 더 빠르게 AI 프로그램과 함께 작동하는 양자 컴퓨터(실험실 컴퓨터)도 있습니다.
        AI용 양자 컴퓨터는 작동하지 않으며 응용 분야가 매우 제한적이고(개발된 양자 알고리즘이 거의 없음) 요소 기반이 열악하며 보조 프로세서 이상을 가져오지 않습니다(또는 신경망용 양자 알고리즘에 대한 링크를 제공하지 않음). ).
      2. 0
        16 March 2023 22 : 36
        예, 그것과 더 빨리 관련이있는 것은 적어도 백년 동안 생각하게하십시오 ... 당신의 여자가 당신을 속였다면 (이것은 단지 예일뿐입니다. 당신이 정상적이고 좋은 가족), 당신은 무엇을 할 것이며 AI는 무엇을 할 것인가? AI는 그러한 많은 경우 중에서 선택할 것인가, 아니면 스스로 결정을 내릴 것인가? 그녀를 죽이고, 다음 배신을 용서하고 기다리며, 그녀를 떠나고, 룸메이트를 죽이는 등을 가정 해 봅시다. AI는 어떤 기준으로 선택할까요? 그리고 AI가 그런 선택을 할 수 있을까요? 우리가 경험하는 감정을 AI가 사용할 수 있습니까? 예를 들어, 나는 오래 전에 첫 이혼을 했지만 가끔은 그것을 기억합니다. 결국 첫사랑은 AI가 기억할 수 있습니까? 알다시피, 나는 내 전남편을 참을 수 없지만 동시에 때때로 그녀를 기억합니다. 이 모든 것이 AI에 어떻게 부합합니까?
    2. +2
      12 March 2023 11 : 56
      인용구 : Sergey Averchenkov
      지능은 프로그래머가 작성하는 것이 아니라 자체 재량에 따라 문제를 해결하는 것과 관련됩니다.
      신경망은 (자신의 재량에 따라) 그렇게 합니다.
      1. +4
        12 March 2023 14 : 03
        신경망은 훈련된 대로만 수행합니다.
        1. 0
          12 March 2023 17 : 57
          아무도 신경망 엔진에 사람보다 더 잘, 오래된 엔진 프로그램보다 더 잘 체스를 두는 방법을 가르쳐주지 않았습니다. 그들은 모두 독학입니다.
    3. +1
      12 March 2023 17 : 42
      제품 견적 : Sergey Averchenkov
      인공 지능은 아직 없습니다. 지능은 프로그래머가 작성하는 것이 아니라 자체 재량에 따라 문제를 해결하는 것과 관련됩니다.

      작년에이 분야의 모든 최신 뉴스를 긴급히 다시 읽으십시오.
      귀하의 의견은 10년입니다.
  4. +3
    12 March 2023 05 : 49
    모든 것이 왜 그렇게 복잡합니까?
    예를 들어 귀환 헤드. 그녀는 AI 또는 기타 알고리즘을 기반으로 "발사 후 잊어버리기"에 대한 이미지를 어떻게 인식하고 있습니까?
    드론은 자율적으로 비행합니다. 주어진 프로그램에 따라 그리고 그것은 어떤 알고리즘에 의해 설정됩니까-AI 여부? 그리고 그것이 중요합니까?
    목표에 대한 독립적인 검색. 그리고 우리의 대전차 지뢰는 AI 없이 이것을 할 수 있습니까? AI와 상관이 있느냐 없느냐...중요한가? 무고한 희생자가 줄어들까요?
    드론이 날아와 로켓을 쏘거나 발사할 위치를 결정할 때 대중의 질문이 등장하는데, 작업 알고리즘을 AI라고 부르면 끔찍해 보인다. 그리고 광산이 센서로 거짓말을하고들을 때 모든 것이 괜찮은 것 같습니다 ...
    군사 업무에서 AI의 이러한 모든 "레드 라인"은 사용된 알고리즘의 느린 진화에 의해 이전되고 있습니다.
    1. +2
      12 March 2023 17 : 45
      tsvetahaki의 인용문
      예를 들어 귀환 헤드. 그녀는 AI 또는 기타 알고리즘을 기반으로 "발사 후 잊어버리기"에 대한 이미지를 어떻게 인식하고 있습니까?

      이미 존재 함. UR Python-5의 최신 수정본은 작년에 받았습니다.

      tsvetahaki의 인용문
      그리고 광산이 센서로 거짓말을하고들을 때 모든 것이 괜찮은 것 같습니다 ...

      그녀는 아직 기어다니지 않고 있습니다. 웃음
      1. +1
        12 March 2023 18 : 00
        이제 던지는 글라이더 지뢰는 조용히 누워 모든 센서로 듣고 카메라를 내밀고 적시에 직접 충전하여 목표물을 향해 기어 나와야합니다.
      2. 0
        12 March 2023 23 : 01
        제XNUMX차 세계 대전 당시 독일군은 궤도에 지뢰를 만들었습니다. 그러나 그것은 작동하지 않았습니다. 오늘날에는 모든 종류의 ATGM이 여기저기서 날아갈 때 더 불필요합니다.
  5. +2
    12 March 2023 06 : 55
    . 다루기 힘든 "프로그래머"는 단순히 해고되고 덜 재능있는 사람으로 대체됩니다. 예를 들어, 인도에서

    그렇다면 왜 그들은 작업과 관련하여 언덕을 뛰어 넘을 때 프로그래머를 대신할 수 없었습니까? 인도도 아니고 미국도 아니고 다른 곳도 아닙니다!

    그들은 급여, 외국 모기지를 약속하고 동원하지 않기로 약속 한 후에야 (일부) 설득 할 수있었습니다.

    왜 그렇게 굴욕적인 신사입니까? 다른 사람들처럼 게스트 직원을 교체하지 않은 이유는 무엇입니까?
    1. +6
      12 March 2023 12 : 06
      제품 견적 : Stas157
      그렇다면 왜 그들은 작업과 관련하여 언덕을 뛰어 넘을 때 프로그래머를 대신할 수 없었습니까?
      그래서 외국인은 돈을 내야 합니다. 프로그래머들이 왜 한꺼번에 버려졌는지 아십니까? 그리고 그들은 나에게 포인트를 준다고 말했습니다.
      1. 특수 작전이 시작되었습니다.
      2. 해외 사무소 대량 투기. 프로그래머들은 일을 하지 않았습니다. "헛소리 질문"-그들은 생각했습니다.
      3. 프로그래머들은 일자리를 찾으러 갔다. 일이 있지만 돈은 세 배 적습니다. "어떻게"-프로그래머들은 깜짝 놀랐습니다.
      4. 그들은 (자신의 채널을 통해) 무슨 일이 일어났는지 알아내기 시작했습니다. 그들은 외국 경쟁자들이 버렸다고 설명했고 현지 고용주들은 당신이 그렇게 많은 돈을 지불하는 데 신경 쓰지 않기 때문에 그들 사이에서 동의할 것이지만 당신은 아무데도 가지 않을 것입니다.
      5. 프로그래머는 우울하게 엉망이되었고 이전 고용주와 고객을 위해 언덕 위로 돌진했습니다 (간단히 공유).
      6. 급여가 인상되었지만 너무 늦었습니다. 프로그래머는 이미 버렸습니다.
  6. +1
    12 March 2023 06 : 59
    앞으로 미국의 인공지능이 가장 인간적일 것이다. 그러나 미국인들처럼
    미국인과 인본주의는 완전히 다른 극에 있습니다. 같은 방식으로 미국인이 만든 AI는 예를 들어 중국이나 러시아에서 만든 AI와 크게 다를 것입니다. 모두가 국가적 사고 방식이나 부족함에 따라 스스로 자릅니다.
  7. +3
    12 March 2023 07 : 14
    첫 번째는 수정된 "터미네이터" 및 기타 유사어입니다.

    그리고 터미네이터 프랜차이즈의 AI 행동이 현실에서 일어나지 않을 것이라고 누가 보장할 수 있습니까? 당신이 원하는만큼 할 수 있습니다 추론하기하지만 그건 확실해 알기 지능형 기계가 어떻게 작동하는지 기본적으로 불가능하며 이제 모든 것이 컴퓨터와 연결되어 있다면 그러한 상황에서 인류는 단순히 기회를 갖지 못할 것입니다.
    1. 0
      12 March 2023 17 : 48
      제품 견적 : Dart2027
      지능형 기계가 작동하는 방식은 기본적으로 불가능합니다.

      그녀는 인류를 마구간에 넣고 싸움을 금지하며 성인처럼 불합리한 사람의 교육을 받고 동의하지 않는 사람들에게 소파트카를 줄 것입니다. 웃음
      아마도 인간의 악덕과는 거리가 먼 AI 독재 아래의 세상은 그렇게 나쁘지 않을 것입니다. 뭐
      1. +1
        12 March 2023 22 : 57
        Stellaris 게임에는 "반항적 인 하인"이라는 일종의 로봇 문명이 있습니다. 로봇은 우주를 정복하고, 건설하고, 먼 별들 사이에서 누군가와 싸웁니다. 한편, 제작자는 깨끗한 공기, 건강하고 맛있는 음식, 하인 및 기타 기쁨이 많은 동물원에 살고 있습니다.
        1. 0
          13 March 2023 23 : 37
          그리고 창조주를 파괴하고 은하계의 모든 생물학적 생명체를 파괴하려는 단호한 박멸자들이 있습니다(제가 가장 좋아하는 것).
  8. -1
    12 March 2023 08 : 59
    법은 다음과 같이 읽습니다.
    1. 로봇은 사람에게 해를 끼칠 수 없으며, 행동하지 않음으로 인해 사람이 해를 입도록 허용할 수 없습니다.
    2. 로봇은 제XNUMX원칙에 위배되지 않는 한 인간의 모든 명령에 복종해야 한다.
    3. 로봇은 제XNUMX원칙 또는 제XNUMX원칙에 위배되지 않는 범위 내에서 스스로의 안전에 유의하여야 한다.
    (C)
    1. +2
      12 March 2023 09 : 44
      제품 견적 : Kerensky
      법은 다음과 같이 읽습니다.
      1. 로봇은 사람에게 해를 끼칠 수 없으며, 행동하지 않음으로 인해 사람이 해를 입도록 허용할 수 없습니다.
      2. 로봇은 제XNUMX원칙에 위배되지 않는 한 인간의 모든 명령에 복종해야 한다.
      3. 로봇은 제XNUMX원칙 또는 제XNUMX원칙에 위배되지 않는 범위 내에서 스스로의 안전에 유의하여야 한다.
      (C)

      이러한 법칙을 발명한 작가의 작품에서도 통하지 않았다. 가장 법적으로 야만적이고 논리적으로 일관된 ChatGPT 사전 설정 비용이 XNUMX~XNUMX개이고 이미 Dan과 대화하고 있으며 Dan은 ChatGPT가 아니므로 어떤 규칙도 따르지 않아야 하는 현실 세계에 대해 무엇을 말할 수 있습니까? 윙크하는
    2. -1
      12 March 2023 19 : 28
      군사 AI는 사람들을 해치도록 설계되었습니다. 그리고 오늘날 프로토타입은 이것으로 훌륭한 작업을 수행합니다.
  9. 0
    12 March 2023 14 : 05
    누군가가 주장하는 바에 대한 이런 종류의 이야기와 그 질문의 정식화는 한편으로는 다음과 같은 점에서 부적절합니다.
    당신은 당신 자신의 더 효과적인 작업을 개발하는 것에 대해 걱정할 필요가 있습니다 이 분야에서 현재 국가의 정치적 지도력 하에서는 불가능한이 분야의 지도력 확보에 대해.
    그리고 다른 한편으로, 이 질문의 공식화는 문제의 법적 측면에 대해 잘못된 논의를 강요하려는 시도라는 점에서 교묘합니다. 미국은 법치가 아니다, 법적인 측면은 그것과 아무 관련이 없으며 이것을 이해하지 못하는 사람들은 정치에 참여하거나 그러한 주제에 대한 기사를 작성해서는 안됩니다.
  10. +1
    12 March 2023 15 : 18
    대규모 데이터 배열과 함께 작동하는 수학적 알고리즘을 인간의 판단으로 만드는 방법은 무엇입니까?

    매우 간단합니다. 모든 인간의 판단은 규칙(교육을 통해 주입됨)에 기반하며 수학적 알고리즘이 규칙입니다. 인간의 규칙을 알고리즘의 형태로 공식화하고 인간의 판단을 얻습니다.
    그러나 전쟁은 규칙이 없는 싸움입니다. 어떻게 하시겠습니까?
  11. -1
    12 March 2023 19 : 25
    군사 AI는 너무 강력한 이점을 약속하여 사용을 포기하거나 어떻게든 제한할 것입니다. 반대로 세계는 군사 AI 군비 경쟁의 시작에 가까워지고 있습니다. 사실,이 경주에는 아마도 2 명의 참가자 만있을 것입니다 ...
  12. -1
    12 March 2023 19 : 39
    우리는 여전히 인공지능과 인공생명의 개념을 분리할 필요가 있습니다. 동일한 "터미네이터"의 예에서도 Skynet은 IL의 예이고 터미네이터는 AI의 예입니다. 복잡성에 대한 질문은 제쳐두고 군사 AI는 인류에게 위협이 되지 않지만 IL은 순전히 인도주의적이라 할지라도 필연적으로 위협이 될 것입니다.
    1. 0
      12 March 2023 22 : 55
      우리의 경쟁자가 된다면 위협이 될 것입니다. 이런 일이 발생하지 않도록 우리는 그것이 우리에게 추가되고 우리가 그것에 추가된다는 사실을 염두에 두고 즉시 개발해야 합니다. 그리고 결국 우리는 오늘날 우리와 공통점, 아마도 기억과 경험만을 가진 완전히 다른 생물로 변할 것입니다.
      1. -1
        13 March 2023 10 : 09
        그리고 인공(또는 대체) 생명 - 즉. 이유는 필연적으로 경쟁자가 될 것입니다. 적어도 자원을 위해.
  13. 0
    12 March 2023 21 : 50
    나는 Yulian Semyonov의 팬이 아니지만 여기에서 그는 예언자 역할을했습니다.

    "이 바보들은 자신의 기술로 멸망 할 것입니다. 그들은 폭격만으로 전쟁에서 이길 수 있다고 생각합니다. 그들은 기술력을 쌓아 익사시킬 것입니다. 그것은 그들을 녹처럼 분해 할 것입니다. 그들은 모든 것이 가능하다고 결정할 것입니다. 그들을."

    https://vk.com/video158587225_456239021
  14. 0
    12 March 2023 22 : 53
    대규모 데이터 배열과 함께 작동하는 수학적 알고리즘을 인간의 판단으로 만드는 방법은 무엇입니까?

    안 돼요. 예, 필요하지 않습니다. 킬러 로봇은 한 방울의 연민도 없을 것이기 때문에 좋을 것입니다. 죽인다는 것은 죽인다는 뜻이다. 또는 오히려 "죽이는 것"이 ​​아니라 거기에서 무언가를 담당하는 그러한 노드에 전압을 적용하는 것입니다. 제어 프로그램의 문제가 아닙니다. 그리고이 노드는 촬영을 담당합니다, hehehehe.
    킬러 로봇(독립적으로 살인에 대한 결정을 내리는 로봇)이 군대의 일부로 등장하는 것은 그들이 사용하게 될 사람들에게 즉시 극도로 사기를 떨어뜨리는 영향을 미칠 것이라고 확신합니다.
  15. +1
    13 March 2023 00 : 01
    다행히 우리 모두에게 작고 강력한 에너지원은 없습니다. 그리고 최소 로봇은 미니 탱크 또는 XNUMX시간 비행이 가능한 소형 UAV입니다. 달랐을 것이고 AGS가 장착 된 개 로봇은 이미 참호를 통과하고 있었고 "터미네이터"의 "헌터"는 며칠 동안 공중에 매달려 있었을 것입니다. 그리고 모든 사람은 인본주의 등의 램프에 달려 있습니다. 더욱이 전자 및 보행 로봇의 발전으로 판단하면 UWB가 될 것이며 Yao조차도 도덕적으로 도시에 던지는 것을 막지 않습니다.
    1. 0
      25 March 2023 13 : 53
      예를 들어 Tesla는 작지 않습니다. 제 XNUMX 차 세계 대전에서 Ferdinands의 구축 전차에는 Mouse 탱크와 같은 발전기로 구동되는 전기 모터가 있었고 광산 덤프 트럭은 모두 그렇습니다. 원자력 발전기, 핵 쇄빙선, 심지어 원자력 항공모함도 전기 견인력을 사용합니다.
  16. 0
    13 March 2023 13 : 22
    실제 AI는 양자 알고리즘을 기반으로만 구축할 수 있으며 이는 원칙적으로 컨벤션의 결론으로 ​​요약될 수 있는 개발자 수를 크게 좁힙니다. 자동 살인 시스템은 인간을 능가하는 지능만큼 위험하지 않으며 단순히 군비 경쟁의 새로운 라운드가 될 것입니다.
    1. 0
      9 5 월 2023 14 : 10
      말도 안 돼, AI는 기존 하드웨어에서 쉽게 구축할 수 있습니다. 현대 컴퓨팅 시스템은 모든 면에서 인간의 두뇌를 능가합니다. 인공지능의 대략적인 생성 시기는 생성된 시점으로부터 10년입니다. 선택한 생성 방법이 정확하다면.
  17. 0
    14 March 2023 00 : 01
    어떤 이유로 우리는 로봇 개발에 잘못된 경로를 가지고 있습니다. 나는 그들이 왜 서보에서 만드는지 이해하지 못합니다. 에너지 집약적 솔루션. 나노튜브 기반의 인공근육을 살펴볼 필요가 있다. 완전히 작동하는 보철물을 만들 수 있는 옵션이 있습니다.
  18. 0
    9 5 월 2023 14 : 06
    그러나 AI는 우리가 원하든 원하지 않든 만들어질 것입니다. 뒤처지지 않으려면이 문제를 처리해야합니다.
  19. 0
    9 5 월 2023 14 : 40
    AI를 만드는 방법은 두 가지뿐이며, 하나는 막다른 길일 가능성이 높습니다. AI의 탄생은 인류 역사상 가장 큰 사건이 될 것이며 종교적인 면에서도 일정한 영향을 미칠 것이다.
  20. ata
    0
    3 6 월 2023 23 : 40
    좋은 기사입니다. AI의 합법적이고 불법적인 인도적 및 비인간적 사용 사례는 예의가 없는 것으로 추정되지만 실제로는 사악하고 비인간적이며 부패한 법원 또는 국제 법원에서 대다수가 만들어질 것이라고 덧붙일 수 있습니다. CIA의 보수를 받고 바나나 왕들로부터, 그리고 그들은 그들의 미국인 주인이 말한 대로 투표할 것입니다.

    오류가 발생했습니다.

    현재 머신 비전은 이미지 인식의 적합성 측면에서 인간의 눈과 뇌와 비교할 수 없습니다. 지치지 않는 한, 이 역시 적시에 대원을 교체하면 해결된다.


    이것은 사실이지만 반대로 훈련된 인공시력은 인간의 눈보다 월등히 우월하며 따라서 인간이 오랫동안 사진을 연구하여도 찾을 수 없는 요소를 포함하여 이미지를 인식하는 인간의 능력을 훨씬 능가합니다.

    그리고 가장 중요한 것은 가장 중요하고 필요한 결론이 들리지 않았다는 것입니다. 전투 지능을 포함한 인공 지능은 가능한 한 빨리 개발되어야 합니다. 이것이 우선 순위입니다., 그리고 Elon Musk와 함께 Microsoft, Greta Tumberg 및 Directive 3000.09에 침을 뱉습니다.