인공 지능의 이점 및 위험
AI 란?
SIRI에서 자율 주행 차에 이르기까지 인공 지능 (AI)이 빠르게 발전하고 있습니다. 공상 과학 소설에서는 AI를 인간과 유사한 특성을 가진 로봇으로 묘사하는 경우가 많지만 AI는 Google의 검색 알고리즘에서 IBM의 Watson, 자율 무기에 이르기까지 모든 것을 포함할 수 있습니다.
오늘날 인공 지능은 좁은 작업 (예 : 안면 인식 만 또는 인터넷 검색 만 또는 자동차 운전 만)을 수행하도록 설계되었다는 점에서 좁은 AI (또는 약한 AI) 로 적절하게 알려져 있습니다. 그러나 많은 연구자들의 장기적인 목표는 일반 AI (AGI 또는 강력한 AI) AI)를 만드는 것입니다.. 좁은 AI는 체스 나 방정식 풀기와 같은 특정 작업에서 인간을 능가할 수 있지만, AGI는 거의 모든인지 작업에서 인간을 능가합니다.
AI 안전성을 연구하는 이유는 무엇입니까?
단기적으로 AI가 사회에 미치는 영향을 유익하게 유지한다는 목표는 경제 및 법률에서 검증, 타당성, 보안 및 제어와 같은 기술 주제에 이르기까지 다양한 분야의 연구에 동기를 부여합니다. 랩톱이 충돌하거나 해킹 당하면 사소한 성가신 일이 될 수 있지만, AI 시스템이 자동차, 비행기, 심장 박동기, 자동 거래를 제어 할 경우 원하는 작업을 수행하는 것이 더욱 중요해집니다. 시스템 또는 전력망. 또 다른 단기 과제는 치명적인 자율 무기에 대한 파괴적인 군비 경쟁을 방지하는 것입니다..
장기적으로 중요한 질문은 강력한 AI에 대한 탐구가 성공하고 AI 시스템이 모든인지 작업에서 인간보다 나아진다면 어떻게 될 것인가 하는 것입니다. 1965 년 IJ Good이 지적했듯이 더 스마트 한 AI 시스템을 설계하는 것은 그 자체로 인지 작업입니다. 이러한 시스템은 잠재적으로 재귀 적 자기 개선을 거쳐 지능 폭발을 유발하여 인간의 지능이 훨씬 뒤처 질 수 있습니다. 혁신적인 신기술을 발명함으로써 그러한 초 지능 은 우리가 전쟁, 질병 및 빈곤을 근절하는 데 도움 이 될 수 있으므로 강력한 AI의 생성은 인류 역사상 가장 큰 사건이 될 수 있습니다. 그러나 일부 전문가들은 AI가 초 지능화되기 전에 AI의 목표를 우리의 목표와 일치시키는 법을 배우지 않는 한 마지막이 될 수도 있다는 우려를 표명했습니다.
강력한 AI가 달성될 수 있을지 의문을 품는 사람도 있고 초 지능 AI의 생성이 유익하다고 주장하는 사람도 있습니다. FLI에서는 이러한 가능성을 모두 인식하고 있지만 인공 지능 시스템이 의도적으로 또는 의도하지 않게 큰 피해를 입힐 가능성도 인식하고 있습니다. 우리는 오늘의 연구가 미래에 이러한 잠재적인 부정적인 결과를 더 잘 준비하고 예방하는 데 도움이 될 것이라고 믿습니다. 따라서 함정을 피하면서 AI의 이점을 누릴 수 있습니다.
AI가 어떻게 위험할 수 있습니까?
대부분의 연구자들은 초 지능 AI가 사랑이나 증오와 같은 인간의 감정을 나타내지 않을 것 같으며 AI가 의도적으로 자비 돕거나 악의적이 될 것이라고 기대할 이유가 없다는 데 동의합니다. 대신 AI가 위험이 될 수 있는 방법을 고려할 때 전문가들은 다음 두 가지 시나리오를 가장 가능성이 높다고 생각합니다.
AI는 파괴적인 일을 하도록 프로그래밍되어 있습니다. 자율 무기는 죽 이도록 프로그래밍된 인공 지능 시스템입니다. 잘못된 사람의 손 에이 무기는 쉽게 대량 사상자를 초래할 수 있습니다. 더욱이 AI 군비 경쟁은 우연히 AI 전쟁으로 이어질 수 있으며 이로 인해 대량 사상자가 발생할 수 있습니다. 적에 의해 좌절되는 것을 피하기 위해이 무기는 단순히 "끄기"가 매우 어렵도록 설계되어 인간이 그러한 상황에 대한 통제력을 잃을 수 있습니다. 이 위험은 좁은 AI에서도 존재하지만 AI 인텔리전스 수준과 자율성이 증가함에 따라 커집니다.
AI는 유익한 일을 하도록 프로그래밍되어 있지만 목표를 달성하기 위한 파괴적인 방법을 개발합니다. 이것은 AI의 목표를 우리 목표와 완전히 일치시키지 못할 때 발생할 수 있으며 놀랍도록 어렵습니다. 순종적인 지능형 자동차에게 가능한 한 빨리 공항까지 데려다 달라고 요청하면 헬리콥터에 쫓기고 구토물로 뒤덮여 서 원하는 대로 하지 않고 말 그대로 요청한 대로 할 수 있습니다. 초 지능 시스템이 야심 찬 지구 공학 프로젝트를 맡으면 우리 생태계를 부작용으로 혼란에 빠뜨릴 수 있으며 인간이 그것을 막으려는 시도를 위협으로 간주할 수 있습니다.
이 예에서 알 수 있듯이 고급 AI에 대한 우려는 악의가 아니라 능력입니다. 초 지능 AI는 목표를 달성하는 데 매우 능숙할 것이며, 이러한 목표가 우리 목표와 일치하지 않으면 문제가 있습니다. 당신은 아마도 악의에서 개미를 밟는 사악한 개미 혐오자는 아니지만 수력 전기 녹색 에너지 프로젝트를 담당하고 그 지역에 개미집이 범람할 수 있다면 개미에게는 너무 나쁩니다. AI 안전 연구의 핵심 목표는 인류를 개미의 위치에 두지 않는 것입니다.
최근 AI 안전에 관심이 있는 이유
Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates 및 기타 과학 및 기술의 많은 유명 인사들은 최근 많은 AI 연구자들과 함께 AI가 제기하는 위험에 대해 언론과 공개서한을 통해 우려를 표명했습니다.. 주제가 갑자기 헤드 라인에 등장하는 이유는 무엇입니까?
강력한 AI에 대한 탐구가 궁극적으로 성공할 것이라는 생각은 오랫동안 공상 과학 소설로 여겨져 왔으며 수세기가 넘었습니다. 그러나 최근의 돌파구 덕분에 전문가들이 불과 5 년 전에 수십 년 전으로 간주했던 많은 AI 이정표에 도달하여 많은 전문가들이 우리 생애에서 초 지능의 가능성을 진지하게 받아들이고 있습니다. 일부 전문가들은 여전히 인간 수준의 AI가 수백 년이 남았다 고 추측하지만 2015 년 푸에르토 리코 콘퍼런스의 대부분의 AI 연구는 2060 년 이전에 일어날 것이라고 추측했습니다. 필요한 안전 연구를 완료하는 데 수십 년이 걸릴 수 있으므로 지금 시작하는 것이 현명합니다... .
AI는 인간보다 더 지능적으로 될 수 있는 잠재력을 가지고 있기 때문에 우리는 그것이 어떻게 행동할지 예측할 확실한 방법이 없습니다. 우리는 재치 있게 또는 무의식적으로 우리를 능가할 수 있는 능력을 가진 것을 결코 만들지 않았기 때문에 과거의 기술 개발을 기반으로 많이 사용할 수 없습니다. 우리가 직면할 수 있는 가장 좋은 예는 우리 자신의 진화 일 수 있습니다. 사람들은 이제 지구를 지배합니다. 우리가 가장 강하고, 빠르거나, 가장 커서가 아니라 우리가 가장 똑똑하기 때문입니다. 우리가 더 이상 똑똑하지 않다면 우리는 통제권을 유지할 수 있습니까?
FLI의 입장은 성장하는 기술의 힘과 그것을 관리하는 지혜 사이의 경쟁에서 승리하는 한 우리의 문명이 번성할 것이라는 것입니다. AI 기술의 경우 FLI의 입장은 경쟁에서 승리하는 가장 좋은 방법은 전자를 방해하는 것이 아니라 AI 안전 연구를 지원하여 후자를 가속화하는 것입니다.
고급 AI에 대한 최고의 신화
인공 지능의 미래와 그것이 인류에게 무엇을 의미하는지에 대한 매혹적인 대화가 진행되고 있습니다. 다음과 같이 세계 최고의 전문가들이 동의하지 않는 흥미로운 논란이 있습니다. AI의 향후 일자리 시장에 대한 영향; 인간 수준의 AI가 개발될 경우 / 언제; 이것이 지능 폭발로 이어질지 여부; 그리고 이것이 우리가 환영해야 할 것인지 두려워해야 할 것인지. 그러나 사람들이 서로를 오해하고 이야기하면서 발생하는 지루한 의사 논쟁의 예도 많이 있습니다. 오해가 아니라 흥미로운 논쟁과 열린 질문에 집중할 수 있도록 가장 일반적인 신화를 정리해 보겠습니다.
AI 신화
타임 라인 신화
첫 번째 신화는 타임 라인에 관한 것입니다. 기계가 인간 수준의 지능을 크게 대체할 때까지 얼마나 걸릴까요? 일반적인 오해는 우리가 그 답을 매우 확실하게 알고 있다는 것입니다.
한 가지 대중적인 신화는 우리가 이번 세기에 초인적인AI를 얻게 될 것이라는 것을 알고 있다는 것입니다. 사실, 역사는 기술적인 과장으로 가득 차 있습니다. 지금 쯤 우리에게 약속했던 핵융합 발전소와 비행 자동차는 어디에 있습니까? AI는 또한 이 분야의 창립자 중 일부에 의해서도 과거에 반복적으로 과장되었습니다. 예를 들어, John McCarthy ( "인공 지능"이라는 용어를 만들었습니다), Marvin Minsky, Nathaniel Rochester 및 Claude Shannon은 석기시대 컴퓨터로 2 개월 동안 달성할 수 있는 일에 대해 지나치게 낙관적인 예측을 썼습니다. "우리는 2 개월 , 1956 년 여름 Dartmouth College에서 10 명의 인공 지능 연구가 수행되었습니다. […] 기계가 언어를 사용하도록 만들고, 추상화와 개념을 형성하고, 현재 인간에게 맡겨진 종류의 문제를 해결하고, 스스로를 향상하는 방법을 찾으려고 시도할 것입니다. 우리는 신중하게 선택된 과학자 그룹이 여름 동안 함께 연구한다면 이러한 문제 중 하나 이상에서 상당한 진전을 이룰 수 있다고 생각합니다.”
반면에 대중적인 반신 론은 우리가 이번 세기에 초인적인AI를 얻지 못할 것이라는 것을 알고 있다는 것입니다. 연구자들은 우리가 초인적 인공 지능과 얼마나 멀리 떨어져 있는지에 대해 광범위한 추정치를 내렸지 만, 그러한 기술 회의 론적 예측의 음울한 기록을 감안할 때 이번 세기에 확률이 0이라고 확신할 수는 없습니다. 예를 들어, 당대 최고의 핵 물리학자인 어니스트 러더 포드는 1933 년 (스질 라르 드가 핵 연쇄 반응을 발명하기 24 시간도 안되기 전)에 핵 에너지가 "달빛"이라고 말했다. 그리고 천문학 자 Royal Richard Woolley는 1956 년에 행성 간 여행을 “완전한“ 빌지”라고 불렀습니다. 이. 신화의 가장 극단적인 형태는 초인적 AI가 물리적으로 불가능하기 때문에 결코 도착하지 않을 것이라는 것입니다. 하나,
AI 연구자들에게 몇 년 후 우리가 적어도 50 % 확률로 인간 수준의 AI를 갖게 될 것이라고 생각하는지 묻는 여러 설문 조사가 있었습니다.. 이 모든 설문 조사는 동일한 결론을 내립니다. 세계 최고의 전문가들이 동의하지 않기 때문에 우리는 알 수 없습니다. 예를 들어 2015 년 푸에르토 리코 AI 컨퍼런스 에서 AI 연구자들이 실시한 설문 조사에서 평균 (미디 언) 답변은 2045 년까지 였지만 일부 연구자들은 수백 년 이상을 추측했습니다.
AI에 대해 걱정하는 사람들이 불과 몇 년 밖에 걸리지 않는다고 생각하는 관련 신화도 있습니다. 사실 초인적 인공 지능에 대해 걱정하는 대부분의 사람들은 아직 적어도 수십 년은 더 남았다 고 생각합니다. 그러나 그들은 우리가 금세기에 일어나지 않을 것이라고 100 % 확신하지 않는 한, 미래에 대비하기 위해 지금 안전 연구를 시작하는 것이 현명하다고 주장합니다. 인간 수준의 AI와 관련된 많은 안전 문제는 너무 어려워 해결하는 데 수십 년이 걸릴 수 있습니다. 따라서 Red Bull을 마시는 일부 프로그래머가 스위치를 켜기로 결정하기 전날 밤보다 지금 조사를 시작하는 것이 현명합니다.