인공 지능. 러시아 국가 안보의 미래?
10 년간의 개발
인공 지능이 전 세계 일반 사람들의 삶에 더 깊이 침투하고 있다는 것은 비밀이 아닙니다. 이는 전 세계적으로 인터넷이 확산되고 컴퓨팅 성능이 크게 향상되어 촉진됩니다. 인간의 뇌와 어느 정도 유사한 신경망은 개발중인 소프트웨어의 작업을 질적으로 향상시킬 수있게 해주었다. 그러나 신경망은 여전히 인간의 뇌 수준과는 거리가 멀고, 특히 에너지 효율면에서 매우 멀고, 작동 알고리즘은 여전히 이해하기가 매우 어렵습니다.
인공 지능 산업의 돈은 몇 가지 제한 사항과 자동 조종 장치 자동차의 공진 사건에도 불구하고 넓은 강을 따라갑니다. 작년에 승인 된 국가 전략에 따르면이 지역의 IT 솔루션 시장은 21,5 십억을 초과했습니다. 신은 얼마를 알고 있지만 매년 증가 할 것입니다. 그리고 2024에 의해 세계의 전체 AI는 조건 적으로 140 십억의 가치가 있으며, AI 도입으로 인한 잠재적 인 경제 성장은 1 조에 달할 것입니다. 달러. 실제로, 세계 추세를 따라 잡으려는 시도는 앞서 언급 한 국가 전략의 10 월 10의 10 월 2019의 블라디미르 푸틴 대통령의 승인이었습니다. 동시에, 프로그램 자체는 세계 지도자와의 격차를 줄이는 것뿐만 아니라이 시장에서 최고의 선수 수를 입력한다고 선언합니다. 그리고 2030 연도까지이를 수행 할 계획입니다. 이 경로의 명백한 장애물 중에는 러시아 소프트웨어가 잠재적 위험을 수반한다는 많은 국가의 보호주의 진술이있을 것입니다.
그들은 러시아 토양에서 AI의 "무제한"능력을 어디에서 실현할 것인가? 우선, 그것은 위험한 산업에 종사하는 사람들의 교체와 함께 일상적인 작업의 자동화입니다 (읽기 : 군대 포함). 또한 최근에는 단순히 눈사태처럼 생성 된 빅 데이터를 사용하여 진지한 작업을 계획하고 있습니다. 그들은 경영진의 결정에 대한 예측을 개선 할뿐만 아니라 인력의 선택과 훈련을 최적화 할 수 있다고 가정합니다. 10 년 후 교육을 통한 건강 관리는 적극적인 AI 사용자가 될 것입니다. 의학에서는 예방, 진단, 약물 복용량 및 외과 적 개입이 부분적으로 또는 완전히 기계 마음에 주어질 것입니다. 학교에서는 AI가 학습 과정의 개별화, 전문 활동에 대한 아동의 성향 분석 및 재능있는 청소년의 조기 식별에 관여합니다. 이 전략에서“모든 수준의 교육에서 교육 프로그램의 틀에서 교육 모듈의 개발 및 구현에 관한 조항을 찾을 수 있습니다. 즉, AI의 기초가 학교에서 가르쳐 질 것인가?
평소와 같이 인공 지능 개발의 실질적인 결과 외에도 과학 전문 환경은 세계 전문 간행물에서 러시아 과학자의 논문 수와 인용 색인을 증가시켜야합니다. 그리고 2024 연도, 곧 AI 분야에서 역량을 가진 시민의 수가 러시아에서 증가 할 것입니다. 특히 해외 전문가를 유치하고 러시아에서이 주제를 다루는 외국인을 유치함으로써이를 실현할 수있을 것이다.
그러나 AI는 논란의 여지가있는 품질을 가지고 있는데,이 전략은 "인공 지능과의 인간 상호 작용을위한 윤리적 규칙을 개발함으로써"해결되어야합니다. 컴퓨터 인텔리전스의 콜드 계산으로 인해 편견과 불공평 한 일반화가 이루어집니다.
AI 바이어스
현대 AI 시스템의 기능에 관한 수많은 질문 중 바퀴가 달린 자동차 자동 조종에 대한 현재 불완전한 알고리즘이 강조되어 있습니다. 아마도 가까운 미래에 도로에서 AI가 운전하는 자동차를 볼 수 없을 것입니다. 우리는 이것에 부적합한 도로 조건을 가지고 있으며 기후는 일년 내내 자동 조종 장치를 사용하는 것을 선호하지 않습니다. 진흙과 눈은 가장 진보 된 센서 시스템을 빠르게 "눈부시게"합니다. 로봇. 또한 AI의 대규모 도입은 필연적으로 전 세계 수백만 명의 작업을 앗아갈 것입니다. 그들은 재교육을 받거나 남은 시간을 게으름으로 보내야 할 것입니다. 예를 들어, 2015 년, 2020 년 새해까지 회계사, 사서, 교정자 및 테스터의 직업은 구식이 되었습니다. 그러나 그럼에도 불구하고 대부분의 직업의 프로필이 변경되고 AI의 부정적인 요소가 여기에서 우세할 것입니다. 어쨌든 AI가 사회에 더 많이 도입될 것이라는 전망은 정부 규제 당국에 많은 질문을 제기합니다. 그리고 그것들을 해결하는 방법을 아는 사람은 거의 없는 것 같습니다.
이미 지평에 서있는 또 다른 문제는 의사 결정의 AI 편향입니다. 미국인들은 재발 사례를 예측하기 위해 15 주에 COMPAS 시스템을 도입했을 때이 문제를 가장 먼저 만났습니다. 그리고 모든 것이 매우 잘 시작된 것처럼 보였습니다. 대량의 데이터 (빅 데이터)를 기반으로 처벌의 심각성, 교정 기관 정권 또는 조기 배포에 대한 권장 사항을 공식화 할 수있는 알고리즘을 개발할 수있었습니다. 프로그래머들은 식사 전 시간에 배고픈 판사는 지나치게 가혹한 형벌을 견뎌 낼 수 있으며, 잘 먹은 형벌은 너무 관대하다고 주장했다. AI는이 절차에 콜드 계산을 추가해야합니다. 그러나 COMPAS와 그와 유사한 프로그램은 모두 인종 주의적이었다. AI는 백인보다 재발하려는 경향이 아프리카 계 미국인에게 2 배나 자주 잘못 비난했다 (45 % vs 23 %). AI는 일반적으로 공정한 범죄를 저지른 범죄자로 간주하는데, 이는 법을 위반할 가능성이 통계적으로 낮기 때문에 예측이 더 낙관적입니다. 이와 관련하여 미국에서는 보석, 선고 및 조기 석방 문제를 해결함에있어 AI의 폐지에 대한 목소리가 점점 더 자주 들립니다. 동시에 미국 법무부는 이러한 시스템의 프로그램 코드와 아무 관련이 없습니다. 모든 것은 타사 개발자가 구매합니다. Predpol, HunchLab 및 Series Finder와 같은 전세계 여러 도시의 거리에서 작동하는 소프트웨어 시스템은 이미 통계적으로 효과가 입증되었습니다. 범죄는 감소하고 있지만 인종적 편견이없는 것은 아닙니다. 가장 흥미로운 점은 많은 분석 매개 변수가 분류되어 있기 때문에이 시스템의 인공 두뇌에 다른“바퀴벌레”가 무엇인지 알 수 없다는 것입니다. 또한 인공 지능이 AI가 특정 결정을 내리는 방법을 이해하고 있다는 것은 의심의 여지가 있습니다. 법 집행 및 정의뿐만 아니라 채용 기관에서도 비슷한 상황이 발생하고 있습니다. 대부분의 경우 AI는 약한 성별과 연령 후보를 제외하고 청년 채용을 선호합니다. 그들이 서구에서 성 (race)과 인종의 평등을 전파하는 서구의 가치가 최근의 서구의 업적 인공 지능에 의해 위반된다는 것은 재미있다.
AI의 이론과 실제에 대한 짧은 탈선의 결론은 다음과 같습니다. 소셜 네트워크 및 기타 소스의 데이터가 마케팅 또는 정치적 조작을 위해 대량으로 처리되는 경우와 정의의 검이 AI의 손에 넘겨 지거나 국가 안보의 무기고에 전달되는 경우가 있습니다. 치우친 결정의 가격은 여러 번 증가하며 무언가를해야합니다. 성공한 사람은 21 세기의 진정한 통치자가 될 것입니다.
정보