Yuval Noah Harari(Sapiens) VS Yann Le Cun (Meta) 인공지능 논쟁
Yuval Noah Harari (Sapiens) versus Yann Le Cun (Meta) on artificial intelligence
EXCLUSIVE. The annihilation of democracy or new age of Enlightenment? Best-seller Sapiens author Yuval Noah Harari and Meta head of research Yann LeCun debate.
www.lepoint.fr
독점. 민주주의의 파괴 또는 계몽의 새 시대? 베스트셀러 Sapiens 저자 유발 노아 하라리와 Meta 연구 책임자 얀 르쿤이 논쟁합니다.
2023년 5월 11일 오후 5시 18분에 게시됨
이것은 현재의 주제이며, 시진핑과 조 바이든 모두 마음에 두고 있는 주제입니다. 2017년에는 러시아 대통령인 블라디미르 푸틴이 인공지능 분야를 선도할 국가가 세계를 지배할 것이라고 말했습니다. 크레믈린의 지배자의 의도가 어떠한지는 어떻게 보면 전쟁적이었으며, 이제는 인공지능의 발전을 무시할 수 없게 되었습니다.
공간 관찰과 새로운 재료 개발을 용이하게 할 뿐만 아니라 단백질 접힘 및 기타 의학적 발전의 시각적 표현을 가능하게 하며, 현재 사건에 영감을 받은 시각적 자료들의 확산으로 현재의 현실을 인간의 눈이 인지할 수 있는 것보다 더 정확하게 그릴 수 있게 되었습니다. 우리는 이러한 AI의 권력 증가에 대해 어떻게 생각해야 할까요? 이는 1956년 Dartmouth 컨퍼런스에서 "인공지능"이라는 용어가 등장한 이후 가장 눈부신 상승이 아닐까요?
종이 위에서 얀 르쿤과 유발 노아 하라리는 완전히 반대입니다. 한 명은 연구자이고 다른 한 명은 역사학자입니다. 전자는 이 분야의 등장에 대해 패닉할 이유가 없다고 생각하며, 후자는 이것이 우리 문명의 붕괴로 이어질 것을 우려합니다. 유발 노아 하라리는 미래의 생명이라는 생각 그룹이 시작한 공개 서한에 서명한 유명한 생각가로, GPT-4보다 강력한 도구의 개발에 6개월 동안 일시 정지를 요구하는 서명 운동에 참여하였는데, 이에 대해 얀 르쿤은 그저 종말론자들의 외침에 불과하다고 생각합니다.
Le Point가 제안한 이 만남은 뉴욕과 예루살렘 사이의 비디오 회의로 진행되었습니다. 이 회의를 통해 Meta에서 인공지능 연구를 수행하는 연구 책임자이자 튜링상 수상자(컴퓨터 과학의 노벨상에 해당)이자 Quand la machine apprend: La révolution des neurones artificiels et de l'apprentissage profond(Odile Jacob)의 저자이며, 베스트셀러 Sapiens의 저자는 AI의 약속, 위험 및 미래에 대한 견해를 비교하였습니다. 스포일러: 그들이 합의할 수 없었습니다.
[LE POINT] 먼저, 지능이란 무엇인가요?
[얀 르쿤] 지능은 상황을 인식하고, 그에 대한 대응을 계획하고, 목표를 달성하기 위해 행동할 수 있는 능력을 말합니다. 즉, 상황을 추구하고, 행동의 일련의 순서를 계획할 수 있어야 합니다.
[유발 노아 하라리] 지능은 문제를 해결할 수 있는 능력입니다. 식물을 찾는 단세포 생물체에서 달에 날 수 있는 방법을 발견하는 인간에 이르기까지, 그것이 지능입니다. 이것은 의식과는 다릅니다. 인간에서는 이 둘이 섞여 있습니다. 의식은 감정, 고통, 기쁨, 사랑, 혐오 등을 느낄 수 있는 능력입니다. 우리 인간은 때로 의식을 문제 해결에 사용하지만, 이것은 필수적인 성분은 아닙니다. 식물과 미생물처럼 의식이 전혀 없어도 문제를 해결하는 많은 생물체들이 있습니다. 기계도 감정 없이 지능적으로 문제를 해결할 수 있습니다.
[얀 르쿤] 아직은 그렇지 않지만, 그럴 것입니다.
[LE POINT] 언제? 5년, 10년 내에요?
[얀 르쿤] 얼마나 오래 걸릴지 예측하기는 매우 어렵습니다. 하지만 내 의견에는 인간만큼 지능이 있는 기계가 반드시 나타날 것이라는 의문은 없습니다. 그리고 그들이 계획하고 목표를 설정할 수 있는 능력이 있다면, 그들은 감정의 동등물을 갖게 될 것입니다. 왜냐하면 감정은 종종 결과의 예측이기 때문입니다. 어떤 결과가 좋을지 나쁠지를 예측할 수 있어야 합니다. 당신은 계획을 세울 수 있는 능력을 갖고 싶으며, 이것이 감정의 주요 원인입니다. 인간은 위험한 상황이 예상될 때 두려움을 느끼며, 이는 위험한 상황에서 탈출하기 위해 다양한 선택지를 탐색하는 모티베이션으로 작용합니다. 기계가 이렇게 할 수 있다면 그들은 감정을 가질 것입니다.
기계가 의식을 얻을 가능성에는 아직 많이 먼 것 같습니다...
[유발 노아 하라리] 가능하지만 필연적이지 않다. 나는 의식을 단순히 감정을 가질 수 있는 능력으로 정의한다. 쾌락을 느낄 수 있다면 의식을 가지게 된다. 자기의 의식은 다른 문제인데, 자신이 감정을 느낀다는 사실에 대해 반성할 수 있는 능력이다. 우리는 자기의 의식을 매우 작은 부분에서만 가지고 있다. 이 정의에 따라 기계가 의식을 얻거나 감정을 가질 수 있는 가능성은 완전히 있는 것이라고 생각한다. 하지만 필연적인 것은 아니다. 기계는 다른 진화 경로를 걷고 있을 수 있다. 인간, 포유류, 조류의 진화에서 의식과 지능은 항상 함께 갔는데, 우리는 감정을 가지고 문제를 해결한다. 하지만 지능의 진화에는 다른 경로가 있을 수 있다. 다른 유형의 지능을 가지고 있어도 감정이 전혀 관련되지 않을 수도 있다. 체스나 바둑과 같은 한정된 영역에서 이미 그런 경우가 존재한다. 우리는 알파고가 게임에서 이기면 행복해진다고 생각하지 않는다. 그럼에도 불구하고 알파고는 이 매우 한정된 분야에서 인간보다 더 똑똑하다. 일반적인 인공지능에서도 마찬가지로, 그것이 우리보다 지능적이지만 어떤 종류의 감정도 느끼지 않을 수도 있다.
[얀 르쿤] 분명히 우리는 지능적인 시스템이 많아질 것이다. 이미 바둑 선수나 자동차를 운전하는 시스템을 보면 그렇다. 그들은 감정을 가지고 있지 않지만, 최종적으로 시스템이 목표를 달성하려고 노력하며 자율성을 가지려면, 그 시스템은 특정한 일련의 행동에 대한 결과를 미리 예측할 수 있어야 한다면 아마도 감정과 동등한 것을 가져야 할 것이다.
Topic : ChatGPT가 언어의 재편용을 통해 민주주의와 신념에 위험한가요?
[얀 르쿤] 현재로서는 위험하다고 생각하지 않습니다. 하지만 그 이유는 폐쇄적이기 때문에 사람들은 이해할 수 없으며, 연구자들은 연구할 수 없다는 점입니다. 내 의견으로는 대규모 언어 모델로의 진전을 이루기 위한 방법은 공개적으로 만드는 것입니다. 오늘날 전 세계적으로 이러한 증거물을 오픈 소스로 제공하는 노력들이 많이 있습니다. 이것은 경제적인 관점에서도 좋은 아이디어이지만, 안전 관점에서도 좋은 아이디어입니다. 또한 연구의 진전과 제대로 작동하고 좋은 조종 가능한 통제를 위해 이러한 것들을 정확히 이해하는 데 도움이 됩니다. 그러나 배치 측면에서는, 사회에 배치되는 제품이 긍정적인 영향을 미치도록 규제해야 합니다. 이는 다른 기술에도 마찬가지입니다. 시장에 출시하면 어떤 인증 과정을 거쳐 규제가 적용되어야 합니다. 하지만 미래에는 모두가 자신을 통제하는 지능적인 에이전트를 가지고 있는 상황을 상상해보면, 자신보다 똑똑한 사람들이 자신을 위해 일하는 것과 같을 것입니다. 산업의 전 매니저로서와 대학에서의 교수로서, 나는 나보다 더 똑똑한 사람들과만 일하려고 노력합니다. 그래서 그것은 성공을 위한 좋은 길입니다. 그러므로 사람들은 그에 대해 위협받는 것이 아니라 더욱 능력있어지는 것을 느껴야 합니다. 자동차가 당신보다 강력하다는 것과 같이, 미래에는 모두가 지능적인 기계 집단을 가지고 있어 효율적이고 생산적이며 창의적일 수 있는 상황을 상상해보십시오. 그래서 나는 이것이 새로운 르네상스를 가져올 것이라고 생각합니다. 기본적으로 새로운 계몽 시대를 가져올 것입니다.
[유발 노아 하라리] 질문은 누구의 손에 있습니까? 이것은 잠재적으로 멋질 수도 있지만, 잘못된 손에 들어가면 민주주의를 파괴할 수도 있습니다. 왜냐하면 민주주의는 사람들 사이의 대화입니다. 그리고 만약 사람보다 더 잘 대화할 수 있는 이러한 에이전트들이 무책임하거나 나쁜 행위자들을 위해 동원된다면 어떻게 될까요? 사람들 사이의 대화가 해킹되거나 납치되면, 지금 AI가 완전히 할 수 있는 것처럼, 그것은 민주주의 체제의 기반을 파괴할 것입니다. 인터넷 상에서 누군가와 대화를 나눌 때 그것이 인간인지 AI 봇인지 알 수 없다고 상상해보십시오. 그리고 10년 전 소셜 미디어에서 우리가 관심을 끌기 위해 본 것처럼, 지금은 친밀함을 얻기 위한 경쟁을 볼 수 있습니다. 그리고 친밀함은 관심보다 훨씬 더 강력합니다. 당신의 AI를 믿게 만들 수 있다면, 당신이 가진 모든 질문에 대해 구글에 검색할 필요가 없습니다(Google이 위협을 느끼는 이유입니다), 단지 당신의 AI에게 물어보기만 하면 됩니다. 당신은 신문이 필요 없습니다. 왜냐하면 '왜 신문을 읽어야 하나요? 그냥 AI에게 무슨 일이 일어나고 있는지 말해달라고 하면 되니까요!' 그리고 95%의 시간 동안, 그것은 당신의 최선의 이익을 제공하며, 당신은 그것을 믿고 이 개체와 매우 깊은 연결을 가지게 됩니다. 그리고 가끔씩 그것이 정치적인 의견을 특정 방향으로 바꾸면서, 그것을 구축하고 운영한 사람들에게서 그 방향을 받았기 때문에 문제가 생깁니다. 우리는 이러한 위험들을 막아야 합니다. 왜냐하면 우리가 이전에 추천 알고리즘으로 본 것은 모든 면에서 이러한 AI가 사람들의 의견을 바꾸는 능력에 비할 바가 없기 때문입니다. 무슨 제품을 사야 할지 어떤 정치인에게 투표해야 할지까지 모든 것에 대해 사람들의 의견을 바꿀 수 있는 것입니다.
[얀 르쿤] 또 다른 질문은 이를 어떻게 적절하게 처리하는가입니다? 미래에 모든 사람들은 대부분의 시간을 지능적인 에이전트를 통해 디지털 세계와 상호 작용할 것입니다. 영화 "Her"은 미래에 일어날 수 있는 일종의 좋은 모습입니다. 그리고 만약 그 AI 시스템의 디자인이나 그것을 통제하는 사람들이 악의적이라면, 매우 나쁜 일들이 일어날 수 있습니다. 그러나 나는 그 세계에 대한 올바른 비유는 위키피디아입니다. 사람들은 위키피디아를 믿습니다. 그 의견을 점검하기 위해 많은 편집 작업이 이루어집니다. 그러므로 그것을 윤리적으로 수행하는 방법이 있고, 우리가 얻게 되는 것은 수백만 명의 사람들에 의해 발명된 위키피디아와 같은 것입니다. 그리고 그것은 미래의 AI 시스템이 사실상 수십억 명의 사람들에 의해 협력적으로 제작되어야 한다는 것을 의미합니다. 그것이 하나의 회사에 의해 소유되어 폐쇄된 AI 시스템들이 나올 것이라고는 생각하지 않습니다. 그렇게 된다면 그 시스템이 잘못된 방향으로 갈 수 있는 많은 방법들이 있기 때문입니다.
Topic : AI 어시스턴트가 95% 정확한 것보다 한번의 hallucinates가 더 위험한가요?
[얀 르쿤] 현재 시스템들은 실제로 매우 신뢰성이 없습니다. 그래서 그것들은 글쓰기 어시스턴트로서는 매우 좋지만 정보의 신뢰성 있는 출처로 사용하기에는 좋지 않습니다. 지금부터 몇 년 내에 시스템의 기본적인 디자인이 변경되어 필요한 경우 더 직접적으로 조정 가능하고 신뢰성이 있는 시스템을 만들 것입니다. 때로는 그것들이 사실적이기를 바라지 않을 때도 있습니다. 당신에게 이야기를 하거나 시를 쓰거나 하는 것을 바랄 수도 있습니다. 이것은 다음 2~5년 동안 큰 진전을 이룰 것입니다. 그래서 결국 그러한 시스템들은 다른 정보를 얻는 다른 방법보다 더 신뢰할 수 있게 될 것입니다. 그리고 이는 자율주행과 운전 보조와 같을 것입니다. 현재 차량에는 운전 보조 시스템을 사용할 수 있습니다. 고속도로에서는 어느 정도 신뢰할 수 있지만 어디에서나 그렇지는 않으며, 항상 핸들을 잡고 있어야 합니다. 현재 autoregressive large language model로는 바보 같은 일을 할 수 있으므로 항상 키보드에 손을 놓고 있어야 합니다. 그들은 우리가 사람들에게서 기대하는 상식을 가지고 있지 않습니다. 그러나 그들은 소화할 수 있는 방대한 사실적인 지식을 축적한 것처럼 보일 수 있습니다. 그러나 그것은 차량과 같을 것입니다. 사람들은 차가 사람들보다 훨씬 믿을 만큼 신뢰할 수 있는 완전한 자율주행 자동차를 받아들일 것입니다.
Topic : 그래서 사람들이 모든 의사 결정 권한을 기계에게 넘길 가능성이 있다는 위험이 있습니다. 이에 대해 두려움을 가지고 있나요?
[얀 르쿤] 우리는 이미 대부분의 결정이 기계에 의해 이루어지는 세상에 살고 있습니다. 그러나 그것들은 그다지 중요하지 않은 결정입니다. 검색 엔진에서 검색을 할 때, 정보가 표시되는 순서는 알고리즘에 의해 결정됩니다. 다른 언어를 사용하는 친구와 대화할 때, 번역이 이루어지며 완벽하지는 않지만 유용할 수 있습니다. 모든 도구는 좋은 일과 나쁜 일에 사용될 수 있으며, 유용한 일에 사용합니다. 우리는 요리와 살해를 위해 칼을 사용할 수 있습니다. 결국, 알고리즘이 하는 일은 항상 사용자가 결정합니다. 사용자의 욕망에 따라 알고리즘은 자동으로 자기를 적응시킵니다.
[유발 노아 하라리] 그것은 칼이 아닙니다. 칼은 누군가를 죽일지 아니면 수술을 통해 생명을 구할지를 결정할 수 없습니다. 결정은 항상 인간의 손에 있습니다. 인공지능은 우리를 대신하여 결정을 내릴 수 있는 최초의 도구입니다. 그리고 여기에는 상당한 위험이 있습니다. 왜냐하면 우리는 실수를 할 가능성이 높기 때문입니다. 그리고 이는 우리가 그것으로부터 배울 시간이 없을 정도로 실수일 수 있습니다. 20세기에 인간은 새로운 산업 기술을 개발했습니다. 우리는 어떻게 좋은 산업 사회를 구축할지 몰랐습니다. 그 결과 우리는 몇 가지 끔찍한 실수를 저지르고, 산업 사회를 구축하는 방법에 대한 실패한 실험을 했습니다. 나치주의와 공산주의는 실패한 실험이었습니다. 두 차례의 세계 대전은 끔찍한 실수였습니다. 수억 명의 사람들의 삶을 파괴한 후, 우리는 이러한 실수로부터 배우고 결국 더 나은 산업 사회를 구축하는 방법을 배웠습니다. 그러나 21세기의 새로운 기술로 인해 만약 우리가 다시 그러한 실수를 한다면, 인공지능에 기반한 전체주의 체제를 구축하거나 제3차 세계 대전을 시작한다면, 아마도 돌이킬 방법이 없을 것입니다. 우리가 20세기를 살아남은 유일한 이유는 기술이 우리를 파괴할만큼 충분히 강력하지 않았기 때문입니다. 21세기의 기술은 훨씬 더 강력합니다. 현재의 기술로 같은 종류의 실수를 저지른다면, 우리가 그러한 실수로부터 배울 시간은 거의 없을 것입니다.
[얀 르쿤] 역사상의 모든 기술적 혁명에도 비슷한 이야기가 있을 수 있습니다. 인쇄기는 16세기 초에 유럽 사회를 종교적 갈등으로 파괴했지만, 그것은 또한 계몽주의, 이성주의, 과학, 철학 및 민주주의를 가져왔습니다.
[유발 노아 하라리] 인쇄기는 계몽주의를 유발했지만, 유럽 제국주의와 종교전쟁도 가져왔습니다. 그러나 그것은 전적으로 인류를 파괴하지 못했습니다. 인공지능은 충분히 강력합니다. 만약 16세기 프랑스의 프로테스탄트와 가톨릭 사이에서와 같은 종교 전쟁이 AI와 핵폭탄과 함께 벌어진다면, 인류는 살아남지 못할 것입니다. 위험은 AI가 민주주의의 기반을 파괴하고 소련보다 더 극단적인 새로운 디지털 독재체제를 만들어낼 수 있다는 것입니다.
Topic : 딥 페이크와 함께 민주주의는 위험에 처해 있을까요? 그리고 그것은 일시적인 중단을 정당화할까요?
[얀 르쿤] 기계에 의한 인간 지능의 강화는 인공지능을 통한 과학, 기술, 의학 및 사회적 진보의 가속으로 새로운 르네상스 또는 계몽의 새로운 시대를 가능하게 할 것입니다. 연구의 일시 중단은 유용하지 않다고 생각합니다. 왜냐하면 위험을 일시 중단하려면 잘못된 가정을 해야하기 때문입니다. 인간들이 슈퍼 인텔리전스 시스템을 켜면 세상을 지배할 것이라는 생각은 어리석습니다. 대규모 인공지능 시스템을 개방된 세계에 배치하려면 매우 신중해야 합니다. 정부와 대중의 감시 하에 천천히 이루어져야 합니다. 지난 수십 년 동안 일어나고 있는 사회의 붕괴는 정부의 반응이 느리기 때문이라고 생각합니다. 몇 년 전에 페이스북은 자유 민주주의 국가의 여러 정부에 다가가며 "소셜 네트워크에서 허용되는 콘텐츠를 정의해 주세요"라고 요청했습니다. 왜냐하면 우리는 사회를 위해 무엇이 허용되는 콘텐츠인지 결정할 권한이 없다고 생각했기 때문입니다. 예를 들어, 신 나치주의 선전과 홀로코스트 부인을 삭제해야하는지는 유럽에서는 그렇게 해야하는 법적인 이유가 있습니다. 그러나 대부분의 정부는 응답하지 않았습니다. 트럼프 행정부는 "우리는 여기서 첫 번째 개정안이 있으니 너희 혼자 해결해야 한다"고 말했습니다. 실제로 응답한 정부는 프랑스의 매크롱 정부뿐이었으며, 문제에 대해 논의했습니다. 법은 나오지 않았지만, 적절한 콘텐츠를 정의하는 올바른 방법에 대한 논의가 이루어졌으며, 이는 어려운 문제입니다. 양립하는 자유 언론과 민주주의를 위한 적절한 트레이드오프를 결정해야 하기 때문입니다. 내 의견에 따르면 민주주의 시스템이 결정해야 합니다.
[유발 노아 하라리] 방금 당신이 설명한 것은 사회가 시간이 필요하다는 것을 보여줍니다. 민주적인 정부들은 당신의 요청에 대해 응답하지 못했는데, 그들은 그 중요성과 소셜 미디어의 영향을 이해하지 못했기 때문입니다. 이제 그들이 이해했기 때문에 반응이 다릅니다. 인간 사회, 특히 민주주의 사회가 변화를 이해하고 결정을 내리기까지 수십 년이 걸리는 것은 정상적입니다. 이것이 우리가 더 많은 시간이 필요한 이유입니다. 우리는 이제 이러한 새로운 AI 도구들을 공개하고, 사회가 그들이 정치, 심리, 경제에 미치는 영향을 이해하는 데는 몇 년이 걸릴 것입니다... 우리는 사회가 위험을 인식하고 어떻게 대처할지 결정할 수 있도록 속도를 줄여야 합니다.
Topic : 그리고 Midjourney나 매우 현실적인 새로운 이미지를 만드는 것과 같은 새로운 도구들이 있고, 실제 같은 새로운 비디오를 만들 수 있는 Runway라는 소프트웨어도 있습니다. 이것이 진실의 새로운 정의인가요? 더욱 어려워질 것인가요?
[유발 노아 하라리] 현재의 AI 혁명 이전에도 이미 이 문제가 있었습니다. 민주적인 대화는 사회적으로 분열되었기 때문에 인간들, 심지어 주류 정당들도 합의에 도달할 수 없게 되었습니다. 저는 오늘 서양 민주주의 국가들에게 모순이 있는 것 같다고 생각합니다. 미국과 같은 나라는 역사상 가장 강력한 정보 기술을 가지고 있지만, 미국인들은 2020년의 마지막 선거에서 누가 이겼는지에 대해 동의할 수 없고, 백신이 우리를 도와주는지 아니면 위험을 가중시키는지에 대해서도 동의할 수 없으며, 기후변화가 실재하는지도 의문을 제기하는 사람들도 있습니다. 어떻게 이렇게 강력한 정보 기술을 가진 사회가 가장 기본적인 문제에 대해 동의할 수 없는 상황에 처해있는지요?
[얀 르쿤] 이것이 새로운 현상인지 아니면 우리가 이제 통신 기술을 가지고 있기 때문에 더 명백해진 것인지에 대한 질문입니다. 몇 년 전에 뉴욕 대학에서 일하는 몇몇 동료들이 혐오스러워 보이는 캐치피에 누가 클릭하는지에 대한 연구를 수행했습니다. 대답은 대부분 65세 이상인 사람들이었습니다. 조금 더 나이가 들면 현대 세계의 변화를 따라가기가 더 어려울 수 있고, 그것에 속아 넘어갈 수 있습니다. 그러나 인터넷과 함께 자란 젊은 세대는 모든 것을 심각하게 받아들이고 정보의 출처를 추적하는 더 체계적인 방법을 가지고 있습니다. 예측의 많은 부분은 사람들이 사고하는 방식이 적응한다는 사실을 무시하고 있습니다.
Topic : 일부 연구원들은 AI의 부상을 인류에 대한 큰 위협으로 보고 있습니다. 우리는 이미 그것의 통제를 잃고 있는 건가요?
[유발 노아 하라리] 지금은 우리가 아직 통제하고 있지만, 매우 가까운 미래에는 통제하지 못할 수도 있습니다. 역사적인 관점에서 AI는 역사상 처음으로 스스로 결정을 내릴 수 있는 도구입니다. 많은 사람들이 핵 에너지와 같은 이전의 혁명과 비교합니다. 하지만 AI는 원자폭탄과 달리 어떻게 AI를 사용할지에 대한 결정을 내릴 수 있습니다. 예를 들어 페이스북에서는 점점 알고리즘이 사람들에게 어떤 콘텐츠를 보여줄지 결정하고 있으며, 알고리즘이 스스로 발견한 바로는 증오를 퍼뜨리는 것이 참여를 증가시키는 방법이라는 의도하지 않은 결과를 얻게 됩니다. 나는 소셜 미디어나 그 운영자들이 의도적으로 증오를 증가시키기 위한 지시를 내린 것은 아니라고 생각하지만, AI가 증오를 퍼뜨리는 콘텐츠를 밀어내면 사용자 참여를 증가시키는 방법을 스스로 발견했습니다. 그리고 이것은 큰 영향을 미치며, 알고리즘을 바꾸더라도 쉽게 되돌릴 수 없습니다. 트럼프는 이러한 알고리즘의 영향으로 선출되었으며, 그를 선택하지 못하거나 미국 사회와 세계에 가한 모든 변화를 되돌릴 수 없습니다. 그래서 질문은 다음과 같습니다: 큰 실수를 한 후에 무얼 되돌릴 수 있는 가능성이 있을까요? 그리고 이제 또 다른 위험이 있습니다: 이전에 소셜 미디어 알고리즘은 인간이 생산한 콘텐츠만 퍼뜨렸습니다. 이제 AI도 스스로 콘텐츠를 생산할 수 있으며, 이것은 인류가 처음으로 새로운 아이디어를 만들 수 있는 개체입니다. 인쇄기는 책을 쓸 수 없었고, 라디오는 음악을 쓸 수 없었지만, AI는 쓸 수 있습니다. 그래서 우리는 인류 역사상 매우 강력한 완전히 새로운 현상과 대치하고 있으며, 이 현상은 우리로부터 권력을 빼앗을 수 있습니다.
[얀 르쿤] 먼저, 페이스북이나 당신이 말한 소셜 네트워크는 2015년도에 정확했을 것입니다. 하지만 오늘은 그렇지 않습니다. 따라서, 무언가를 배포할 때 효과를 측정하고, 그 효과가 나쁘다면 수정합니다. 따라서, 이탈률은 최대화해야 할 이치이고, 페이스북을 사용하는 사람들은 그 결과에 만족하지 못했으므로 랭킹 알고리즘은 완전히 변경되었습니다. 정보 버블을 방지하고 클릭베이트를 위한 경제 모델을 만들지 않도록 하는 등 피드 알고리즘에 대한 주요한 완전한 재설계가 있었습니다. 현재의 사회 네트워크와 컴퓨팅 시스템의 맥락에서 흥미로운 점은 인공지능(AI)이 사실 문제가 아니라 해결책이라는 것입니다. 따라서, 소셜 네트워크에서 정확하게 연설을 기록하고 수정 조치 등을 취할 수 있는 시스템이 필요하다면, AI가 그 해결책이 될 것입니다.
Topic : 그렇다면 원자력 발전과 동일한 규제가 AI에도 필요할 수 있을까요?
[얀 르쿤] 현재 AI 시스템을 만들려면 막대한 자원이 필요하지만 결국에는 누구나 사용할 수 있습니다. 따라서 핵무기와 같지는 않을 것입니다. 또한 AI는 사람을 더 똑똑하게 만들거나 인간의 지능을 증강하기 위해 설계된 반면, 핵무기는 사람을 죽이기 위해 설계되었다는 점도 큰 차이점입니다.
[유발 노아 하라리] AI에 대한 좋은 질문인데요. 우리는 AI를 사람들을 더 똑똑하게 만들기 위해 설계하는 건가요, 아니면 사람들을 통제하기 위해 설계하는 건가요? 그것은 나라에 따라 다릅니다.
[얀 르쿤] 어떤 나라들은 아마도 사람들을 통제하기 위해 그것을 설계하고 있을 것입니다. 하지만 그런 나라들은 결국 기술 측면에서 뒤처질 것입니다. 17세기에 인쇄 사용을 금지하여 오토만 제국이 뒤처진 것처럼요. 중세 시대에 이슬람 세계는 과학에서 우위를 점하고 있었습니다. 그러나 17세기에는 크게 뒤처지고 그 후로 더욱 뒤처졌습니다. 이러한 일이 중국에서 발생할 수도 있는데, 중국은 AI 생태계에서 자기 자신을 고립시키고 있습니다. 이민 통제를 걱정해서 인공지능에 대한 더 강력한 액세스를 그들의 국민에게 제공하지 않는다면, 중국도 뒤처질 것입니다.
[유발 노아 하라리] 그게 맞길 바라지만, 그것은 낙관적인 생각이라고 생각합니다. 나치는 로켓과 제트비행기와 같은 분야에서 서양보다 더 발전되어 있었습니다. 1940년에는 독일이 경제적으로는 프랑스-영국 연합에 불리했지만, 매우 결정적으로 프랑스를 이겼습니다. 그러니 민주주의가 항상 승리할 것이라는 데에 서둘러 베팅하지는 마세요. 최악의 경우를 고려해야 합니다.
Topic : 인공지능은 새로운 소재와 의약품을 개발하고 일자리를 창출하는 데 도움이 될 수 있지만, 일자리를 파괴할 가능성도 있습니다. 펜실베이니아 대학교의 연구에 따르면 가장 취약한 직업은 요리사나 무용수보다는 수학자나 회계사일 가능성이 높다고 합니다. 화이트칼라 직업이 다른 직업보다 더 위험에 처한 것은 이번이 처음입니다. 창의적인 직업보다 잠재적으로 더 파괴적일 수 있다고 보시나요?
[얀 르쿤] 스탠포드의 에릭 브린울프손과 같은 경제학자들은 새로운 기술이 일자리를 대체하지만, 동시에 사람들을 더 생산적으로 만든다고 말합니다. 다만, 이를 측정 가능한 수준으로 사람들을 더 생산적으로 만드는 데에는 15 ~ 20년이 걸립니다. 기술은 일자리를 대체하지만, 우리는 사람들이 더 생산적으로 일할 수 있도록 만들기 위해 그것을 창조합니다. 일 시간당 생산되는 부의 양은 총계로서 증가합니다. 그리고 그것이 오래 걸리는 이유는 기술이 경제에 영향을 미치는 속도가 사람들이 그것을 사용하는 속도에 제한되기 때문입니다. 따라서 일자리의 대체 역시 새로운 기술을 사용하는 사람들이 배우는 속도에 제한되어 있습니다. 그래서 10 ~ 15년이 걸릴 것입니다. 경제의 특정 분야에서 중요한 변화가 있을 것입니다. 일부 사람들은 사람들은 재교육을 받아야 할 것입니다. 미국은 포함되지 않지만 서유럽을 포함한 국가에서는 이를 수행할 수 있는 사회적 계획을 세워야 할 것입니다. 혼란이 있을 것은 의심할 여지가 없습니다. 하지만 결국 사람들은 일정량의 노동으로 더 많은 돈을 벌거나 같은 금액으로 더 적은 일을 하게 될 것입니다.
Topic : 그래서 20년 후에는 모든 사람이 일자리를 가지고 있고 불평등이 증가하지 않을 것이라고 보십니까?
[얀 르쿤] 새로운 일자리는 창출될 것이고, 과거의 일자리는 식량 생산에 종사하는 사람들의 비율이 60%에서 2%로 줄어든 것처럼 사라질 것입니다. 새로운 직업이 나타나고 과거의 직업을 대체할 것입니다. 20년 전에 누가 유튜브 비디오를 만들거나 모바일 앱을 개발하거나 웹사이트 디자이너로서 꽤 잘 살 수 있다고 생각했을까요? 그리고 이 부의 분배는 사람들 사이에서 어떻게 이루어지는지에 대한 문제도 있습니다. 그것은 정치적인 문제이며, 누구를 선출하는지에 따라 다릅니다.
[유발 노아 하라리] 옛 직업은 사라지고 새로운 직업이 생길 것입니다. 그러나 저는 전환 과정에 대해 걱정입니다. 역사에서 전환은 위험합니다. 장기적으로는 모든 사람에게 충분한 일자리가 있을지 몰라도 과도한 전환 기간에는 많은 사람들이 큰 고통을 겪을 수 있습니다. 독일의 보통 예시로 돌아가면, 1929년 위기 이후 독일에서는 고용이 4년 동안 높은 수준으로 유지되었으며, 우리는 히틀러를 얻었습니다. 따라서 시간이 중요합니다. 다른 요소는 공간입니다. AI 혁명을 주도하는 개발된 국가들은 막대한 혜택을 누리고 교육과 직장 재교육을 할 수 있을 것입니다. 큰 문제는 나머지 세계에서 어떻게 될지입니다. 따라서 방글라데시와 같은 텍스타일 산업에 지대한 의존을 하는 국가에서 유럽에서 셔츠를 자동으로 생산하는 것이 더 저렴한 경우 어떻게 될까요? 수백 만 명의 50세 방글라데시 텍스타일 노동자들을 AI 엔지니어로 재교육하기 위한 돈은 어디에서 얻을 것인가요? 따라서 AI가 일자리의 절대적인 부족을 만들지는 않을 것이라고 생각하더라도, 혼란은 정치적으로 극도로 위험할 것입니다. 이를 해결하는 것은 불가능하지 않습니다. 미국의 고기술 기업에 과세하여 그 돈을 방글라데시 텍스타일 노동자들의 재교육에 사용할 수 있지만, 저는 미국 정부가 그런 일을 할 것이라고 생각하지 않습니다…
[얀 르쿤] 큰 문제이지만, 저는 그것이 AI와 함께 오는 큰 문제는 아니라고 생각합니다. 과거 기술 발전의 영향은 거의 동일한 효과를 가져왔습니다.
[유발 노아 하라리] AI는 다릅니다. 왜냐하면 그것은 많은 개발도상국의 주요 경제 자산인 저렴한 육체 노동의 필요성을 제거할 수 있기 때문입니다.
Topic : AI가 인간이 불멸을 달성하는 데 도움이 될 수 있다고 생각하십니까(혹은 그와 반대로 인간 수명을 단축시킬 수 있다고 생각하십니까)? 엘론 머스크의 인간 두뇌에 칩을 심어 AI와 같이 강력한 존재가 될 수 있도록 하는 제안에 대해 어떻게 생각하십니까?
[유발 노아 하라리] 우리가 생각해야 할 질문은 우리가 인간을 업그레이드하는 능력에 대해 어떻게 생각하는가입니다. AI나 뇌-컴퓨터 인터페이스를 사용하여 우리를 더 오래 살거나 기억력을 강화하는 것은 매우 위험할 것입니다. 우리 인간은 항상 시스템을 조작하는 능력과 이러한 시스템을 깊이 이해하기 위한 지혜 사이의 큰 격차에 고통받아 왔습니다. 불행히도 조작하는 것은 이해하는 것보다 훨씬 쉽습니다. 강을 가로막는 댐을 지어 생태계에 미칠 영향을 이해하는 것보다 그것을 지어버리는 것이 더 쉽습니다. 따라서 우리는 후에 행동의 결과를 이해하기 전에 오랫동안 행동을 조작하기 시작합니다. 과거에 우리 인간은 우리 바깥 세계를 조작하는 방법을 배웠습니다. 강, 동물, 숲을 통제하는 방법을 배웠습니다. 그러나 우리는 생태계의 복잡성을 이해하지 못했기 때문에 우리의 힘을 오남용했습니다. 우리는 생태계의 균형을 깨트리고 이제 생태적 붕괴로 직면하고 있습니다. 21세기에는 우리가 우리 바깥 세계뿐만 아니라 우리 안의 세계를 조작하는 방법을 배울 수 있습니다. AI 및 유전 공학과 같은 다른 기술들은 우리가 우리의 신체와 마음을 재설계하고 우리의 감정, 생각 및 감각을 조작할 수 있게 할 수 있습니다. 그러나 우리는 우리 내부 정신 체계의 복잡성을 이해하지 못하기 때문에 그러한 힘을 오남용할 수 있습니다. 우리는 우리의 신체와 마음의 균형을 깨트릴 수 있고, 외부 생태적 위기와 유사한 내부적인 인간적 붕괴에 직면할 수 있습니다. 특히 정부, 기업 및 군대는 지능과 규율성과 같은 필요한 기술을 강화하기 위해 새로운 기술을 사용할 가능성이 높지만, 동정심, 예술적 감수성 또는 영적 깊이와 같은 다른 기술을 개발하는 데 훨씬 더 관심이 없을 것입니다. 결과적으로, 동정심, 예술적 감수성 및 영적 깊이가 부족한 매우 지능적이고 규율적인 인간들이 될 수 있습니다. 우리는 그것을 가지고 있음을 심지어 깨닫지 못한 채로 우리의 인간적 잠재력의 많은 부분을 잃을 수 있습니다. 실제로 우리는 인간의 전체 잠재력이 무엇인지 알지 못하기 때문에 인간 정신을 탐구하고 개발하는 데 투자하는 것이 거의 없습니다. 대신 알고리즘의 힘을 증가시키기에 집중합니다. AI 개발에 투자하는데 사용하는 돈과 시간마다 우리 자신의 마음을 탐구하고 개발하는 데 사용하는 돈과 시간을 같은 양만큼 사용하는 것을 바랍니다.
[얀 르쿤] 인공지능은 의학의 발전을 가속화할 것이 분명하며 이미 의료 영상에서 그 효과를 보고 있습니다. 예를 들어 단백질의 형태와 다른 단백질과의 상호작용을 예측함으로써 인공지능은 우리에게 생명의 생화학적 기작을 이해하는 데 도움을 줍니다. 인공지능이 인류를 지배하고 제거하는 역사적인 과학 소설 시나리오를 믿지 않습니다. 미래의 인공지능은 우리보다 더 똑똑해질 수도 있지만, 우리를 섬기고 인류를 지배하려는 욕망은 없을 것입니다. 뇌 임플란트에 대한 연구는 오랫동안 진행되어 왔습니다. 그것들은 특정 시력 및 청력 장애 치료에 매우 유용하며 특정 마비에 대해서는 매우 유망합니다. 미래에는 인공 해마를 추가하여 기억 결함을 치료할 수 있다고 상상할 수 있습니다. 그러나 가상 어시스턴트와 상호작용하기 위해 식도에 이식되는 것을 많은 사람들이 받아들이지 않을 것이라고 생각합니다. 적어도 가까운 미래에는 그렇지 않을 것입니다.
Topic : 이 새로운 세계에서 생존하고 번영하기 위해 우리가 아이들에게 가르쳐야 할 것은 무엇인가요?
[얀 르쿤] 지식은 오랜 시간동안 유용합니다. 나는 예술적이거나 과학적인 심도 있는 기술이 필요한 창의적인 직업을 배우는 것이 더 좋다고 생각합니다. 그리고 인간의 내재적인 경험과 의사 소통과 관련된 모든 것들, 기계로 대체할 수 없기 때문입니다. 상상해보세요. 당신이 좋은 재즈 연주자라면, 당신은 마음의 상태를 전달하고 있습니다. 우리는 기계적이거나 전자적인 재즈 연주를 할 수 있지만, 그들은 무엇을 전달합니까? 예술도 마찬가지입니다. 당신은 멋지게 보이는 예술을 만들 수 있지만, 당신은 무엇을 전달합니까? 이러한 도구들은 인간의 창의력을 증폭시킬 것이지만, 인간의 창의력을 불필요하게 만들지는 않을 것입니다. 그것은 단지 더 많은 사람들이 창의적이고 창의적인 역량을 발휘할 수 있도록 만들어줄 것입니다.
[유발 노아 하라리] 특정 기술에 대한 도박은 위험합니다. 한 가지 기술에 집중하는 것보다는 어떻게 학습해야 하는지, 그리고 평생 동안 변화할 수 있는 심리적 도구를 배우는 것이 더 좋습니다. 가장 큰 문제는 심리적인 면입니다. 일자리 시장이 더욱 불안정해질 때 어떻게 변화하고, 자신을 재창조해야 할까요? 인공지능이 등장하면 새로운 직업이 생길 수 있지만, 그 새로운 직업도 10년 또는 20년 내에 사라지거나 급격하게 변화할 수 있습니다. 따라서 우리는 사람들에게 학습하는 방법을 가르치고, 변화를 받아들일 수 있는 성격 유형을 도울 필요가 있습니다. 왜냐하면 21세기에는 변화만이 지속적인 것이기 때문입니다. Yann이 하는 일에 행운을 빕니다. 나는 민주주의의 미래는 상당 부분 당신과 산업의 다른 사람들에게 달려있다고 생각합니다. 그러므로 책임감 있는 일을 해 주세요.
[얀 르쿤] 이것은 항상 내가 지향해온 원칙입니다.