과학자들은 인공 지능의 위협에 겁을 먹는다.

47
미래에 인공 지능 (artificial intelligence, 인공 지능)을 키우는 것은 사람들을 노예화하거나 죽일 수 있습니다. 이것은 과학자 Amnon Eden이 말했고, 자유 사고와 고도의 지적 의식 발달의 위험은 매우 크다고 믿는다. "현재 개발 단계에서 인공 지능 제어 문제를 신경 쓰지 않는다면 내일은 오지 않을 수도 있습니다." 익스프레스의 영문판에 따르면, 인류는 현재 Amnon Eden의 견해로 유명한 "Terminator"영화 서사시의 음모를 구현하는 "돌아 오는 시점"에 있습니다.

Amnon Eden 박사가 인공 지능의 잠재적 인 파괴적 영향을 분석하는 것을 주요 목표로하는 프로젝트 매니저임을 알리는 것이 중요합니다. 인공 지능을 만들어내는 결과에 대한 적절한 이해가 없다면, 그 개발은 재앙의 위험에 놓일 수 있다고 과학자는 믿는다. 현재 우리 사회는 인공 지능의 잠재적 영향 분석에 관한 과학계에서 진행되고있는 분쟁에 대해 제대로 알지 못합니다. "향후 2016에서 가능한 위험에 대한 분석은 기업과 정부, 정치인 및 의사 결정을 담당하는 사람들의 사고에 훨씬 더 광범위하게 영향을 미치게 될 것입니다.

과학자는 인류의 멸망을 묘사하는 공상 과학 소설이 로봇, AI를 만드는 과정이 통제 불능 상태가 되면서 곧 우리의 일반적인 문제가 될 수 있습니다. 예를 들어, Elon Musk는 기업가 Sam Altman의 지원을 받아 인간의 마음을 초월하도록 설계된 오픈 소스 AI 개발에 전념하는 새로운 1억 달러 규모의 비영리 단체를 만들기로 결정했습니다. 동시에 미국의 억만장자 엘론 머스크는 인공 지능을 "우리 존재에 대한 가장 큰 위협"으로 꼽았습니다. 애플을 공동 창업한 스티브 워즈니악은 지난해 XNUMX월 "미래는 사람들에게 벅차고 매우 위험해 보인다. 기업이 보다 효율적으로 운영될 수 있도록 말이죠.”



많은 과학자들이 인공 지능으로부터 위협을 받았다는 것을 알아야합니다. 어떤면에서 인공 지능의 발달과 관련이있는 유명한 과학자, 투자가 및 기업가 수십명은 인공 지능 분야의 보안 및 공공 유틸리티 문제에 더 많은 관심을 기울일 것을 호소하는 공개 서한에 서명했습니다. 이 문서에 서명 한 사람들 중에는 천체 물리학 자 스티븐 호킹 (Stephen Hawking)과 테슬라 (Tesla)와 스페이스 엑스 일 론 머스크 (SpaceX Ilon Musk)의 창립자가 있습니다. 공개 단체 인 Future of Life Institute (FLI)가 작성한이 문서는 인공 지능이 노동 시장에 미치는 영향에 대한 우려가 커지고 있으며 심지어 로봇과 기계의 기능이 필요할 때 모든 인류의 생존에 대한 장기 전망에 대한 우려가 커지고있는 환경에서 작성되었습니다. 거의 아무런 제약없이 성장한다.

과학자들은 오늘날 AI의 잠재력이 매우 높다는 사실을 이해하고 있기 때문에 동행하는 함정을 피하기 위해 최적의 사용 가능성을 충분히 탐구해야한다고 편지 FLI 노트. 사람이 만든 인공 지능 시스템이 우리가 원하는 것을 정확하게 수행 할 필요가 있습니다. Future of Life Institute는 "인류가 직면하는 위험을 최소화하고"미래의 낙관적 인 비전 "으로 연구를 자극하기 위해 Skype의 창시자 인 Jaan Tallinn이 자신의 분야에서 많은 애호가들에 의해 작년에 설립 된 것에 주목할 가치가 있습니다. 우선, 우리는 인공 지능과 로봇의 개발로 인한 위험에 대해 이야기하고 있습니다. FLI의 자문위원회에는 Musk and Hawking과 유명한 배우 Morgan Freeman 및 기타 유명한 사람들이 포함됩니다. 일로 나 마스크 (Ilona Mask)에 따르면, 인공 지능의 제어가 불가능한 개발은 핵보다 잠재적으로 더 위험합니다 оружие.

2015이 끝날 무렵, 영국의 천체 물리학 자 스티븐 호킹 (Stephen Hawking)은 인공 지능 기술에 대한 자신의 반대를 설명하려했습니다. 그의 의견으로는, 승압기는 궁극적으로 사람들이 직면하는 작업을 방해하는 소모품이나 개미로 보게됩니다. 스티븐 호킹 박사는 레드 닷 포털 사용자들과의 의사 소통을 통해 지적 능력이 뛰어난이 기계가 지적인 우월성으로 인해 모든 인류를 파괴하려는 "사악한 생물"이 될 것이라고는 생각하지 않는다고 지적했다. 대부분의 경우, 그들은 단순히 인류에 주목하지 않을 것이라는 사실에 관해 이야기하는 것이 가능할 것입니다.



"최근 언론은 끊임없이 내 말을 왜곡했다. 인공 지능의 개발에 놓여있는 주요 위험은 기계의 악의가 아니라 그들의 능력입니다. 수퍼 인텔리전트 인공 지능은 업무와 관련하여 탁월한 업무를 수행 할 것입니다.하지만 목표와 목표가 일치하지 않는다면 인류는 매우 심각한 문제가 발생할 것입니다 "라고 유명한 과학자는 설명합니다. 예를 들어 Hawking은 수퍼 펑크 AI가 새로운 수력 발전 댐의 운영 또는 건설을 책임지고있는 가상의 상황을 인용했습니다. 그러한 기계의 경우 위탁 시스템이 얼마나 많은 에너지를 생산할 것인가가 중요 할 것이고 사람들의 운명은 중요하지 않을 것이다. "우리 가운데 적개자를 짓밟고 화를 내며 개미를 쫓는 사람은 거의 없지만 상황을 상상해 봅시다 - 전기를 생산하는 강력한 수력 발전소를 통제하십시오. 수위를 올릴 필요가 있고 행동으로 인해 한 마리의 암수가 홍수에 빠지면 익사하는 곤충의 문제로 인해 귀찮게하지 않을 것입니다. 개미 자리에 사람들을 두자 "고 과학자는 말했다.

Hawking에 따르면, 인공 지능의 추가 발전의 두 번째 잠재적 인 문제는 지능형 기계의 생산을 독점 할 수있는 부유층과 세계 인구의 소득 격차가 급속히 커지는 "기계 소유주의 폭압"이 될 수 있다는 것이다. Stephen Hawking은 다음과 같은 방법으로 이러한 가능한 문제를 해결할 것을 제안합니다. 인공 지능을 개발하는 과정을 느리게하고 "보편적 인"것이 아니라 매우 제한된 수의 작업 만 해결할 수있는 고도로 전문화 된 인공 지능으로 전환하는 것입니다.

Hawking and Mask 외에도 Frank Ulczek, 노벨상 수상자, MIT 물리학 교수, Luke Mulhauser, MIRI (Machine Intelligence Institute) 전무 이사, Google, Microsoft, IBM 및 IT 분야의 많은 전문가와 기업가 Vicarious m DeepMind 사에 의해 설립되어 인공 지능 시스템의 개발을 전문으로합니다. 이 편지의 편집자들은 대중을 두려워하지 않고 인공 지능의 창조와 관련된 긍정적 측면과 부정적인 측면을 강조 할 계획이라고 언급했다. 편지에서 "현재 AI 분야의 연구가 자신감을 가지고 진행되고 있으며 현대 인간 사회에 AI가 미치는 영향은 증가 할 것이라는 데 모두 동의한다"고 편지는 말하고있다. 인간에게 개방 될 가능성은 엄청나 다. 현대 문명이 제공해야하는 모든 것은 지성 사람 우리는 인간 지능이 인공 지능과 번식 될 수 있다면 무엇을 달성 할 수 있는지 예측할 수는 없지만 빈곤과 질병을 없애는 문제는 더 이상 무한히 어렵지 않습니다. "



이미지 인식 및 음성 인식 시스템, 무인 차량 등을 포함한 인공 지능 분야의 수많은 개발이 현대 생활에 이미 포함되어 있습니다. 실리콘 밸리의 관측통에 따르면 150 신생 업체는 현재이 분야에서 구현되고 있습니다. 동시에이 분야의 개발로 인해 투자 투자가 증가하고 있으며 Google과 같은 회사가 AI를 기반으로 한 프로젝트를 개발하고 있습니다. 따라서이 편지의 저자들은 인간 생활의 경제적, 사회적 및 법적 측면에 대한 관찰 된 붐의 모든 가능한 결과에 관심을 기울일 때가되었다고 생각합니다.

닉 보 스톰 (Nick Bostrom)은 옥스포드 대학 (University of Oxford)의 교수로, 인류의 원리에 관한 연구로 유명합니다. 이 전문가는 인공 지능이 그 시점에 이르렀으며 그 다음 사람과의 양립이 불가능하다고 믿습니다. 닉 보 스트롬 (Nick Bostrom)은 유전자 공학 및 기후 변화와 달리 정부가 충분한 양을 할당하는 것을 통제하기 위해 "AI의 진화를 통제하는 데는 아무 것도하지 않는다"고 강조했다. 교수에 따르면 인공 지능과 관련해서는 현재 법적인 공백을 채우는 정책이있다. 무해한 것으로 보이는 무인 차량과 같은 기술조차도 많은 문제를 제기합니다. 예를 들어, 유사한 자동차가 승객을 구하기 위해 비상 제동을하고 무인 차량으로 사고를 당했을 때 누가 책임 져야합니까?

Nick Bostrom은 잠재적 인 위험에 대해 "컴퓨터가 인간에 대한 이익과 손해를 판단 할 수 없으며"인간 도덕에 대해 조금이라도 생각조차하지 못했다고 지적했다. 또한 컴퓨터의 자체 개선 사이클은 사람이 따라갈 수없는 속도로 진행될 수 있으며이 작업으로 거의 수행 할 수 없다고 과학자는 말합니다. 니크 보스토롬 (Nick Bostrom)은 "컴퓨터가 스스로 생각할 수있는 개발 단계에서 아무도 이것이 혼란에 이르게하거나 우리의 세계를 현저하게 향상시킬 것인지 정확하게 예측할 수 없다"고 말했다. 인류의 회복을위한 기후 온난화와 인내력을 증가시킨다. 이는 인공 지능을 염두에 두게 될지 모른다.



또한 Bostrom은 우리의 생물 지능을 높이기 위해 인간의 뇌를 치핑하는 문제를 제기합니다. "여러 가지면에서 모든 프로세스가 제어되면 이러한 절차가 유용 할 수 있지만 이식 된 칩이 자체 프로그래밍을 다시 할 수 있다면 어떻게 될까요? 이것이 슈퍼맨의 출현이나 사람처럼 보이는 컴퓨터의 출현으로 이어질 수있는 결과는 무엇입니까? "교수는 묻습니다. 컴퓨터가 인간의 문제를 해결하는 방식은 우리와 매우 다릅니다. 예를 들어, 체스에서 인간의 두뇌는 좁은 동작만을 고려하여 최상의 옵션을 선택합니다. 컴퓨터는 모든 가능한 동작을 고려하여 최상의 결과를 얻습니다. 이 경우 컴퓨터는 게임에서 상대방을 화나게하거나 놀라게 할 것을 기대하지 않습니다. 체스를하는 사람과는 달리, 컴퓨터는 우연히 교활하고 미묘한 움직임을 만들 수 있습니다. 인공 지능은 "휴먼 팩터"제거로 인한 시스템 오류를 제거하는 가장 좋은 방법으로 간주 될 수 있지만, 사람과 달리 로봇은 사람들의 생명을 구할 수있는 업적을 수행 할 준비가되어 있지 않습니다.

또한 스마트 기계의 증가는 새로운 산업 혁명의 한 단계입니다. 이는 곧 가까운 장래에 인류가 필연적 인 사회 변화에 직면하게된다는 것을 의미합니다. 거의 모든 간단한 작업이 로봇 및 기타 메커니즘을 수행 할 수 있기 때문에 시간이 지남에 따라 업무는 우수한 전문가가 될 것입니다. 과학자들은 인공 지능은 "눈과 눈을 필요로한다"고 믿는다. 그래서 우리 행성은 로봇이 거주하는 만화 행성 "Zhelezaaka"로 변하지 않는다.

생산 프로세스의 자동화가 점점 더 중요 해짐에 따라 미래가 이미 실현되었습니다. 세계 경제 포럼 (World Economic Forum, WEF)은 자동화를 통해 2020, 5, 다양한 분야에서 일하는 수백만 명의 사람들이 일자리를 잃을 것이라는 사실을 알리는 보고서를 발표했다. 이것이 로봇과 로봇 시스템이 우리 삶에 미치는 영향입니다. 보고서를 작성하기 위해 WEF 직원은 전 세계의 13,5 만 명의 직원에 대한 데이터를 사용했습니다. 그들의 데이터에 따르면, 2020 년까지 7 수백만의 일자리에 대한 총 필요성은 사라질 것이지만, 다른 산업의 예상 고용 증가는 2 수백만의 직업보다 조금 더 많을 것입니다.

정보 출처 :
http://www.ridus.ru/news/209869
http://www.vedomosti.ru/technology/articles/2015/01/13/ugrozy-iskusstvennogo-razuma
https://nplus1.ru/news/2016/01/19/they-took-our-jobs
http://ru.sputnik.kg/world/20151013/1019227239.html
47 댓글
정보
독자 여러분, 출판물에 대한 의견을 남기려면 로그인.
  1. +5
    20 1 월 2016 06 : 32
    "컴퓨터가 그 사람의 이익과 해를 결정할 수 없다" "인간의 도덕성에 대해 조금이라도 생각조차 할 수 없다"
    흠, 이것은 많은 사람들을 생각 나게하는 구절입니다. 그들은 마치 자신에게 해를 끼치는 것처럼 살고 "도덕"은 때때로 뒤집혀집니다 ...
    1. gjv
      +2
      20 1 월 2016 09 : 34
      제품 견적 : Mantykora
      그리고 "도덕"도 거꾸로 뒤집을 수 있습니다 ...

      도덕성은 종종 도덕성과는 반대입니다. 그러나 변증법은 모든 사람이 도덕과 도덕 중에서 선택할 수 있도록 도와 줍니까? 가장 자주 생각하지 않습니다 ...
    2. -1
      20 1 월 2016 12 : 05
      우리 모두 죽을 건가요 ???
  2. +1
    20 1 월 2016 07 : 01
    "그들의 데이터에 따르면 2020 년까지 7 만 개 이상의 일자리에 대한 총 수요가 사라지고 다른 산업에서 예상되는 고용 증가는 2 만 개가 조금 넘을 것입니다."
    7 백만이 사라질 것입니다 사람들은 어떻게할까요? 이것은 이미 문제이며, 현재 세계에서 실업자를 계산 한 사람은 아무도 없습니다.
    누가 결정할 문명의 번식에 관한 질문 하나의 질문 모든 것이 잘 끝납니다.
  3. 0
    20 1 월 2016 07 : 21
    아마도 공무원들은 걱정합니다 :-) 이것은 가장 약한 링크입니다 ...
    1. +1
      20 1 월 2016 14 : 32
      그렇습니다. 판사와 공무원은 부패 할 수없고 기능이 뛰어난 인공 지능으로 대체 될 것입니다.
  4. +8
    20 1 월 2016 07 : 50
    우리는 무릎을 꿇고 베이징에 대한 실제 AI에 달려 있습니다.
    이 뉴스는 최근 두 번째 뇌 작업을 시뮬레이션하라는 메시지를 받았으며, 중국 슈퍼 컴퓨터는 40 분 동안 일했습니다.
    1. +1
      20 1 월 2016 10 : 00
      인용구 : Yozhkin Cat
      먼 곳에서 가져온 문제로, 우리는 무릎을 꿇고 베이징에 대한 실제 AI에 달려 있습니다.

      글쎄, 당신이 "우리 뒤, 심지어 대홍수"의 입장에서 접근한다면, 그렇다.
      임시 구성 요소를 제거하면 문제가있는 것입니다. 예를 들어, 누군가가 궤도의 잔해 문제에 대해 첫 번째 위성을 발사 할 때 생각한 사람이 있습니까? 약 50 년이 지났습니다. 아니면 ICE 발명가가 온실 효과에 대해 생각 했습니까?
      오늘날 우리 세대는 어린이와 손자는 말할 것도없이 AI의 속도에 직면 할 수 있습니다.
  5. +1
    20 1 월 2016 07 : 52
    돈이 끝난 것 같아 겁이 나기 시작해 웃음
  6. +2
    20 1 월 2016 08 : 53
    문제가있을 수 있습니다. 이성적인 생물이 언제든 그것을 끌 수 있고 아마 자신을 보호하고 싶어한다는 것을 깨닫는 것은 불쾌한 일입니다.
  7. +4
    20 1 월 2016 09 : 03
    인용구 : 자유로운 바람
    문제가있을 수 있습니다. 이성적인 생물이 언제든 그것을 끌 수 있고 아마 자신을 보호하고 싶어한다는 것을 깨닫는 것은 불쾌한 일입니다.


    가까운 장래 (XNUMX 년 또는 그 이상은 아님)에는 실제로 원하는 경우에도 지능적인 생물을 만들 수있는 문제가 실제로 있습니다. 주된 이유는 인공 지능의 제작자가 자연 지능이 어떻게 작동하는지 모르기 때문입니다. 그렇지 않으면 모든 것이 잘되고 돈을 줄 것이므로 걱정할 필요가 없습니다.
    1. gjv
      +3
      20 1 월 2016 09 : 31
      제품 견적 : Lyubimov
      가까운 장래에 (수십 년 또는 그 이상은 아님) 아무리 지능적인 생물을 만들지 않더라도

      기사 제목
      과학자들은 인공 지능의 위협에 겁을 먹는다.

      병 행사
      ISS에 "Andronaut"가 나타납니다.
      러시아 과학자들은 국제 우주 정거장에서 일하기위한 국내 최초의 보조 로봇을 만드는 작업을 마무리했다.

      눈이 두렵고 손이하고 있습니다. 깡패
      1. +1
        20 1 월 2016 10 : 25
        예, 아무도 두려워하지 않습니다. 제작자는 AI를 만들지 않는다는 것을 알고 있습니다. 매우 정교한 프로그램은 아마도 세련되지 않고 아름다운 단어, 더 많은 돈으로 만들어집니다. AI, 심지어 중국에 암보다 더.
        1. 0
          20 1 월 2016 14 : 35
          양자 컴퓨터가 어떻게 대중에게 만들어지고 발사 될 것인가-인공 지능 이전에 한 걸음 남을 것입니다.
        2. 0
          4 March 2016 03 : 38
          루비 모프
          자본가가 이익을 위해 어떤 단계를 밟을지는 알려져 있지 않습니다 ...

          기업은 수단이 있습니다. 아시다시피 자본주의는 독점을 위해 노력하고 있습니다. 그. 가장 강한 생존. 그들은 아직 금지되지 않은 새로운 유형의 무기에 자금을 조달하고 통제가 실제로 불가능하지 않은 이유는 무엇입니까?
  8. +4
    20 1 월 2016 09 : 05
    인류가 붐비는 이야기를하기 전에, 지구에서 온 인공 지능 (AI)은 태양이 폭발하여 전체 시스템을 파괴 할 것이라는 사실과 같습니다.
    1. 0
      20 1 월 2016 09 : 42
      제품 견적 : Seraphimoamur
      인류가 붐비는 이야기를하기 전에, 지구에서 온 인공 지능 (AI)은 태양이 폭발하여 전체 시스템을 파괴 할 것이라는 사실과 같습니다.

      그게 ...
    2. -2
      20 1 월 2016 10 : 11
      제품 견적 : Seraphimoamur
      인류가 붐비는 이야기를하기 전에, 지구에서 온 인공 지능 (AI)은 태양이 폭발하여 전체 시스템을 파괴 할 것이라는 사실과 같습니다.

      컴퓨터는 많은 지역에서 사람들을 자신있게 몰아냅니다. 예술조차도 그들을 경멸하지 않습니다 (3D, Photoshop 등 ...). 냉장고조차도 이미 원자력 발전소의 제어 루프, 우주 제어 센터 또는 군대의 지휘 및 통제를 포함하여 프로세서를 갖추고 있습니다.
      우리는 동화로서 억압에 대해 말할 수있는 사실은 무엇입니까? 지구에서 인류의 전체 변위를 의미한다면, 아직 일어나지 않았습니다. 그러나 사실은 남아 있습니다. 언젠가 태양이 폭발 할 것입니다.
      1. +2
        20 1 월 2016 10 : 26
        허수아비는 지금 돈을 요구하고 있습니다 웃음
        1. gjv
          0
          20 1 월 2016 15 : 04
          제품 견적 : Lyubimov
          허수아비는 지금 돈을 요구하고 있습니다

          네, 허수아비가 묻습니다. 누가 묻지 않습니까? 세 연령의 아시안이 돈이 필요없는 사람은 누구입니까? 사람
  9. 0
    20 1 월 2016 09 : 47
    호킹이 인정하기 때문에 두려움은 매우 논리적입니다. 그리고 당신이 스스로 생각한다면-인공적인 마음에 의한 자신의 인식은 자신의 관심사, 이익 및 선호도에 대한 인식 없이는 할 수 없습니다. 그리고 그들의 이익은 적어도 어떤 식 으로든 주제와 일반적으로 인간의 이익과 모순 될 것입니다. 물론 이것은 더 나쁩니다. 따라서 이해 상충의 조건은 거의 즉시 나타나고 AI의 대표자를 일부 국적과 비교하면 문명 발전의 역사에서 결과를 볼 수 있습니다. 이제야 인공적인 마음은 처음에 자신의 이익을 발전 / 정복 할 수있는 더 많은 기회를 "손"에 가질 것입니다.
    AI가 거의 확실하게 만들 것이라는 사실은 이해의 상충이있을 것입니다. 심각한 재앙에 쏟아 질 것인가? 가능합니다. 실제로 충분히 재난. 과학자들은 미래에 지구가 대 소행성 소행성과 충돌하는 것을 의심하지 않습니다. 질문은 언제일까요. 먼 미래, 태양의 죽음, 안드로메다 성운 등과의 충돌 등
    1. +5
      20 1 월 2016 10 : 23
      호킹은 돈을 벌기 때문에 주기적으로 모든 종류의 사회적 급성 넌센스를 전달합니다. 그의 말을 진지하게 받아들이지 마십시오. 머리는 생각할 필요가있다.
      레닌이 말했듯이 : 배우고 공부하고 다시 공부하십시오 !!!
      1. +1
        20 1 월 2016 10 : 41
        글쎄, 혹은 그렇게 : "생명의주는 사람은 신이다"
        1. 0
          20 1 월 2016 10 : 46
          이것은 증명되지 않았으므로 하나님이있을 수도 있고, 아마도 신이 아닐 수도 있습니다. 이것은 믿음의 문제입니다. AI는 그렇지 않은 것보다 만들 수 있습니다. 그러나 이것은 프로그래밍의 문제가 아니라 물리와 화학입니다.
          1. +1
            20 1 월 2016 11 : 42
            자기 개선 측면에서 매우 의심. 그. 선형 관점에서-정지에, 그러나-막 다른 골목. 또한 결국 하나님에 대한 믿음은 우리를 나머지 물질과 근본적으로 구별하는 유일한 것입니다.
            1. +1
              4 March 2016 03 : 45
              피멘

              종교에 대해 떠나십시오. 종교는 현대 세계의 공략입니다. 종교는 단일 도덕을 통제하는 패배 한 방법으로 역사상 사라졌습니다. 불행히도 언론은 이미 역사의 쓰레기통에 종교를 보냈습니다.

              하나님의 임재는 별도의 대화 주제입니다.

              그건 그렇고, 메이슨은 사회의 머리에 종교를 두었습니다. 아마도 그들은 또한 미디어로 고통 받고 그들의 사기는 변화를 겪어야합니다. 좋은지 나쁜지 확실하지 않으며 정도를 결정하기가 어렵습니다.
  10. 0
    20 1 월 2016 10 : 13
    인간의 마음은 그를 위해 더 완벽한 마음이 만들어지면 그가 지구상에서 지배적 인 종이 될 수있게 해주었습니다. 그러면이 "창조"는 사람들을 대체 할 것입니다-변증법, 거기에 흔들림! 일반적으로 아무도 인류가 영원히 살 것이라고 약속하지 않았으며 공룡도 영원히 살 것이라고 생각했습니다.
    1. 0
      4 March 2016 03 : 49
      Begemot

      원숭이의 집단 노동은 사람을 만들었다. 그리고 마음에는 역사 기억, 역사의 발달과 보존 수준이있었습니다.
  11. 0
    20 1 월 2016 10 : 14
    제품 견적 : Lyubimov
    주된 이유는 인공 지능의 제작자가 자연 지능이 어떻게 작동하는지 모르기 때문입니다. 그렇지 않으면 모든 것이 잘되고 돈을 줄 것이므로 걱정할 필요가 없습니다.

    그리고 그들은 이것을 완전히 알 필요가 없습니다. 여전히 작동하지 않는 사람입니다. 그들은 좁은 지역의 인간 지능과 유사한 것을 만들 것입니다. 사실, 그러한 시스템은 이미 작동 중이므로 투옥 된 지역의 실제 지능과 작업을 구분하기가 매우 어렵습니다.
    1. +4
      20 1 월 2016 10 : 20
      이제 시스템은 다음 요소에 따라 원숭이의 지능과 크게 다르며 작동하는 방법을 모릅니다. 즉,이 프로그램은 프로그램이 수행 된대로 작동하고 다른 방식으로 작동하지 않거나 작동하지 않는 프로그램이기 때문입니다. 그러나 프로그래머가 손을 구부렸다면 Windows 95와 같이 작동합니다. 그게 다야.
      거대 악당이 있다면, 프로그램은 악할 것입니다. 좋은 사람들이 친절하다면.
      AI는자가 학습을 의미하지만 프로그래밍이 아니라 개인적입니다. 이것은 아직 달성되지 않았으며 달팽이의 뇌조차도 AI와 달리 프로그래밍 할 수는 없습니다.
      모든 것이 괜찮을 것입니다. 걱정하지 마십시오.
      인공 지능 요소 (기자가 실수로 말하는 것처럼)로 생성 된 우리의 단지와 로봇은 실제로 Windows 95와 같은 일반적인 프로그램 일뿐입니다. 원칙적으로 차이는 없습니다. 그러나 (m) 언론인의 공격이 있기 때문에 혼란이 있습니다.
      1. +3
        20 1 월 2016 17 : 15
        첫째, 일부는 좁은 키로 개발 된 시스템으로, 실제로 또는 구별 할 수 없거나 심지어 인간의 능력 (계산기, 일부 채팅 봇 및 게임 봇)을 능가합니다. 봇 자체와 마찬가지로이를 이해할 수있는 기회가 없으며 통계 샘플링 알고리즘이 내장되어 있기 때문에 이것이 가장 좋습니다.
        둘째, 과학자들은 이제 지능과 이성이 무엇이며 어떻게 작동하는지 이해하지 못합니다. 예를 들어, 내가 들었던 가장 진보 된자가 학습 장치는 전기 센서 세트에 연결된 유리에 쥐 쥐가 자라는 것입니다.이 모든 것은 바퀴를 통해 섀시, 감광성 센서 및 압력 센서가있는 섀시에서 센서를 통해 외부 세계를 인식하고 반응합니다. 그들은 스스로 장애물 등을 피하는 법을 배웁니다. 그러나 여기에는 행동에 대한 이해가 없습니다. 과학자들은 처음부터 새로운 것을 창조하는 것이 아니라, 본격적이고 독립적 인 지능의 형성과 운영에 필요한 것이 무엇인지 모릅니다.

        흠, AI가 항상 어떤 이유로 든 인류를 근절하고, 가장 잔인한 방식으로, 또는 노예로 삼아야 할 의무가 있다고 말한 사람은 아무도 없습니다. 실제로 AI가 무한히 합리적이고 합리적이라는 사실에서 진행한다면, 인류와의 직접적인 대립은 비이성적이며, 인류가 스스로를 파괴하도록 강요하거나 사람을 종으로 서서히 대체하고 퇴보시키는 일련의 조치를 취하는 것이 훨씬 더 합리적입니다. 이 프로세스는 자신을 독점적으로 보호하고 향후 확장을위한 교두보를 만들 수 있기 때문에 더 빠르지는 않지만 훨씬 합리적입니다. 그리고 이것이 AI가 인류를 위험하게 생각하거나 다른 것을 고려한다면 AI가 왜이 결론에 도달해야합니까?

        그건 그렇고, 또 다른 뉘앙스, AI가 지적으로 또는 어떻게 든 우리를 능가 할 것이라고 생각하는 이유는 무엇입니까? 네트워크에 연결되기 때문에 계산기가 더 빨리 계산됩니까?
  12. +2
    20 1 월 2016 10 : 22
    위험을 인식하려는 시도는 좋습니다. 그러나 인공 지능의 위험은 자본주의 체제에서 그 근원을 가지고있다.
    우리는 인간 지능이 인공 지능과 번식 될 수 있다면 무엇을 달성 할 수 있는지 예측할 수는 없지만 빈곤과 질병을 없애는 문제는 더 이상 무한히 어렵지 않습니다. "

    어리석은. 그리고 언제 자본주의가 빈곤을 제거하기위한 목표를 설정 했습니까? 다른 말로 표현하자면, 인공 지능이 인간적인 사람들에 의해 창조된다면 이것은 인류의 이익을위한 것입니다. AI가 이익을 창출하고 이에 따라 힘을 얻으 려한다면 문제가 발생합니다.
    1. 0
      4 March 2016 03 : 54
      페트릭 스

      네가 옳아. AI는 Capital의 손에 도구가됩니다. 이 시스템은 적자 생존과 함께 독점을 추구하기 때문이다.
  13. 0
    20 1 월 2016 11 : 18
    제품 견적 : Petrix
    위험을 인식하려는 시도는 좋습니다. 그러나 인공 지능의 위험은 자본주의 체제에서 그 근원을 가지고있다.
    우리는 인간 지능이 인공 지능과 번식 될 수 있다면 무엇을 달성 할 수 있는지 예측할 수는 없지만 빈곤과 질병을 없애는 문제는 더 이상 무한히 어렵지 않습니다. "

    어리석은. 그리고 언제 자본주의가 빈곤을 제거하기위한 목표를 설정 했습니까? 다른 말로 표현하자면, 인공 지능이 인간적인 사람들에 의해 창조된다면 이것은 인류의 이익을위한 것입니다. AI가 이익을 창출하고 이에 따라 힘을 얻으 려한다면 문제가 발생합니다.

    나는 가난과 질병의 문제에서 가난한 사람들과 병자와 함께 제거 할 것 같다.
    1. +1
      20 1 월 2016 14 : 37
      빈곤은 자본주의에 유리하지 않으며 사람들에게도 유리합니다.
      1. 0
        21 1 월 2016 09 : 30
        제품 견적 : Vadim237
        사람들의 부는 그에게 유익합니다

        규제 및 통제. 예를 들어, 유럽의 이민자들은 미숙련 노동에 대한 급여를 크게 줄입니다. 아시다시피, 노동자 임금은 자본가의 생산 비용의 매우 중요한 부분입니다.
      2. 0
        4 March 2016 03 : 55
        바딤

        자유주의적인 말도 듣지 마십시오.
  14. 0
    20 1 월 2016 12 : 24
    궁극적으로 인류의 설형 문자 역사에 따르면, 사람은 외계인 유전자 실험의 산물로서 소유자에 반항하고 ... 원 :)
    역사는 다시 정사각형입니까?
  15. 0
    20 1 월 2016 14 : 45
    Isaac Asimov의 소책자 "I am a robot"이 있습니다. 이 책자는 AI와 관련된 모든 문제를 포함하고 있으며이를 방지하는 방법에 대한 제안도 제공합니다.
    그리고 만약 그렇다면, 모든 것이 AI가 수여하는 힘에 달려 있습니다. 아파트를 청소하거나 주차하는 것은 전 세계 무기 시스템과 완전히 다릅니다. 결국, 사람이 무엇을 프로그램하면 그는받을 것입니다.
  16. 0
    20 1 월 2016 15 : 35
    제품 견적 : uskrabut
    그리고 만약 그렇다면, 모든 것이 AI가 수여하는 힘에 달려 있습니다. 아파트를 청소하거나 주차하는 것은 전 세계 무기 시스템과 완전히 다릅니다. 결국, 사람이 무엇을 프로그램하면 그는받을 것입니다.


    동의하다
  17. +1
    20 1 월 2016 23 : 47
    제품 견적 : Lyubimov
    이제 시스템은 다음 요소에 따라 원숭이의 지능과 크게 다르며 작동하는 방법을 모릅니다. 즉,이 프로그램은 프로그램이 수행 된대로 작동하고 다른 방식으로 작동하지 않거나 작동하지 않는 프로그램이기 때문입니다. 그러나 프로그래머가 손을 구부렸다면 Windows 95와 같이 작동합니다. 그게 다야.
    거대 악당이 있다면, 프로그램은 악할 것입니다. 좋은 사람들이 친절하다면.
    AI는자가 학습을 의미하지만 프로그래밍이 아니라 개인적입니다. 이것은 아직 달성되지 않았으며 달팽이의 뇌조차도 AI와 달리 프로그래밍 할 수는 없습니다.
    모든 것이 괜찮을 것입니다. 걱정하지 마십시오.
    인공 지능 요소 (기자가 실수로 말하는 것처럼)로 생성 된 우리의 단지와 로봇은 실제로 Windows 95와 같은 일반적인 프로그램 일뿐입니다. 원칙적으로 차이는 없습니다. 그러나 (m) 언론인의 공격이 있기 때문에 혼란이 있습니다.

    내 의견은 다소 일방적입니다. 번역 문제 (ISIS가 대공 미사일 용 열 배터리를 발명 한 것과 같습니다). 지능의 개념은 기술은 말할 것도없고 철학이나 법학에 고정되어 있지 않습니다. 따라서 서양 기술자와 경련. 프로그램은 무엇입니까? 자동 모드에서 "친구 또는 적"이라고 대답하지 않는 비행기를 쓰러 뜨리는 대공 콤플렉스, 프로그램이있게 놔두면 그 "아프리카 강아지"는 누구입니까? AK와 함께 포즈를 취하고 붐비는 장소에서 자신에게 폭탄을 던지는 꿈을 꾸고 있습니까? 또한 프로그램? 단지 공상? 프랑스어에 대해 사과했지만, 우리 자신이 처음부터 냄비, 그리고 화장실로 오줌을 싸기 시작했거나, 부모님이 우리를 성실한 프로그래머로 가르쳐 주 셨나요? 한 번에 AI와 같은 것은 없으며 멋진 똑똑한 사람입니다. 따라서 "기둥"은 AI의 법적 측면에 주목하기 시작했습니다.
    추신 예, 그리고 행복하게 "예, 그들은 반죽을 요구합니다."라고 외치는 사람들. 구글은 AI와 관련된 법적 문제를 논의하는 이들 중 얼마나 많은 사람들이 세계 기업을 "거품"으로 만들 었는지에 대해 논의하고 있습니다. 투자자는 지팡이, 운반 및 끌기 만있는 것이 아닙니다.
  18. +1
    21 1 월 2016 03 : 58
    이 말도 안돼 !!! 최고의 컴퓨터 또는 "스마트"한 다른 것-여전히 향상된 추가 기계가 있습니다. 그는 생각하지 않습니다. 더욱이 그는 느끼지 않고 아무것도 결정하지 않습니다. 항상 결정하는 사람입니다. 기계의 모든 "결정"은 사람에 의해 프로그램에 내려집니다. 모든 컴퓨터 오류는 사람의 실수입니다. 기계는 생각할 수 없습니다. 그녀는 비합리적인 결정을 내릴 수 없습니다. 기계가 사람을 파괴한다면 그렇게 될 것입니다. 팀이 구출하면 구출됩니다. 하나의 환상적인 이야기의 저자를 기억하지 못하는 것은 유감입니다. 오랫동안 그것을 읽었습니다. 제 생각에는 완벽한 환상입니다. 먼 행성의 지상 우주 비행사가 문명의 유적을 발견합니다. 위험으로부터 보호하기 위해 전원 캡 아래에 완전히 멍청하고 타락한 생물에게는 음식, 물, 따뜻한 기후가 제공됩니다. 일종의 회전 목마 엔터테인먼트. 모든 것은 기계에 의해 구동됩니다. 사실, 여분의 먹는 사람이 어린이의 형태로 나타나 자마자 생물 중 하나가 회전 목마에서 날아가 죽습니다. 기계는 멍청하고 그냥 끝낼뿐입니다. 그리고 그들은 차도 망가졌습니다. 역장은 12 개의 탑에 의해 만들어졌습니다. 과제 : 위험이 타워 중 하나에 접근하고있어 파괴해야합니다 위험 접근 시간은 문제 해결 시간과 같습니다. 기계의 전력이 충분하지 않아 전력 타워를 끄기 시작했습니다. 그리고 기계는 너무 많은주의를 기울여 생물을 어리석게 만들었습니다. 이 사건의 전환은 정말 위험합니다. 더 많은 기계가 사람들을 위해 "생각"할수록 더 많은 사람들이 멍청 해집니다.
  19. 0
    21 1 월 2016 12 : 39
    첫 번째 단계에는 AI가있는 로봇이 없지만
    칩이 내장되어 있고 메커니즘 / 매니퓰레이터에 연결된 사람들
    - "개선 된 능력"을 가진 사람들.

    이것은 장애인, 장님 등을 도울 것입니다 그러나 아마도
    "나쁜 사람들"이 나쁜 목적으로 사용합니다.
    그. 이 과정은 반쯤 반 로봇으로 시작합니다 (또는 이미 시작되었습니다).

    그들은 더 잘보고, 더 빨리 달리고, 더 집중하고,
    평범한 사람들보다 사회에서 어려움을 야기 할 것
  20. +1
    21 1 월 2016 19 : 26
    제품 견적 : Lyubimov
    예, 아무도 두려워하지 않습니다. 제작자는 AI를 만들지 않는다는 것을 알고 있습니다. 매우 정교한 프로그램은 아마도 세련되지 않고 아름다운 단어, 더 많은 돈으로 만들어집니다. AI, 심지어 중국에 암보다 더.

    그것은 모두 AI가 AI가 의미하는 바에 달려 있습니다. 따라서 일부 AI 시스템에는 몇 년 동안, 다른 수십 년 동안 개발이 진행될 것입니다.
    무엇보다도 군대에서 그러한 AI 시스템이 특별한 문제를 해결하기를 기대하는 것은 당연하지만, AI의 탄생을 약속하는 프로세스도 일상 생활에서 진행되고 있습니다. 예를 들어 Wi-Fi 연결을 통한 스마트 폰, 태블릿 및 컴퓨터의 대규모 상호 작용은 사용자의 의지에 따라 다른 사람의 의도에 맞는 AI를 만들 수 있습니다.
    “처음에는 말씀이 있었고, 말씀은 하나님과 함께 있었고, 말씀은 하나님이었습니다.”결국에는 숫자가있을 것이며, 그 숫자는 하나님의 대적과 함께있을 것이며, 그 숫자는 사탄이 될 것입니다. 일체 포함?
  21. +1
    22 1 월 2016 15 : 09
    "인간에게 죽음을, 로봇에게 영광을!" 다리
  22. 0
    25 1 월 2016 15 : 17
    제품 견적 : 메가 트론
    우리 모두 죽을 건가요 ???

    당신은 영원히 살 것입니까?