SNUbiz 서울대경영대 권재민
전략국제경영 BESTAlliance SNUBIZ Members
지난 ISSUE
지난 ISSUE
Insight/동문칼럼

AI연대기: 디지털 생명의 창세기인가, 인류 종말의 묵시록인가

AI연대기: 디지털 생명의 창세기인가, 인류 종말의 묵시록인가

“나는 점점 넓어지는 원 안에서 내 인생을 사네
그 원은 온 세상으로 뻗어나가네
나는 아마도 마지막 원을 완성할 수 없을 것 같지만
나는 나를 그 일에 바치겠네.”
- 라이너 마리아 릴케, 『기도시집』, 1905.
1956년 7월, 훗날 ‘인공지능의 아버지들’이라고 불린 John McCarthy, Marvin Minsky와 Nathaniel Rochester, Claude Shannon 등 10명의 수학자, 과학자들이 다트머스 컬리지에 모였다. 여기서 열린 ‘더 다트머스 컨퍼런스’에서 인공지능(AI)이라는 용어가 처음 만들어졌다. 6주간 계속된 컨퍼런스에서 참석자들은 어떻게 기계로 하여금 언어를 사용하고, 개념을 형성하고 추상화하며, 문제를 해결하고, 스스로 개선하도록 만들 수 있을까에 관해 치열하게 브레인스토밍을 했다. 그 후 과학자들은 20년 내에 인공지능이 현실화될 것이란 얘기를 지난 60여년 동안 계속해왔다. 초등학생 시절, 길창덕 화백의 만화 꺼벙이에서 미래에는 숙제를 대신해주는 로봇이 발명되어 우리를 숙제에서 해방시켜줄 것이라는 내용을 읽고, 내가 졸업하기 전에 나오기만을 고대하던 기억이 새롭다.
2014년 7월, 옥스퍼드대 교수 Nick Bostrom이 『슈퍼인텔리전스: 경로, 위험, 전략』을 출간했다. Bill Gates가 후일 “현재를 확인하고 미래를 전망할 수 있는, 반드시 읽어야 할 두 권의 책” 중의 하나로 추천한 책이다. Bostrom은 이 책에서 인류에게 ‘적대적’인 초지능이 개발될 경우 인류의 생존이 위태로워질 수 있다고 경고했다. 그 위험을 통제하기 위해서 인류에게 ‘우호적’인 인공지능을 개발하거나, 초지능의 개발을 감독할 ‘글로벌 지배구조’를 만들 것을 제안했다. Elon Musk는 그의 트위터 팔로워들에게 Bostrom의 책을 읽어볼 것을 권하면서, 인공지능은 “잠재적으로 핵무기보다 더 위험하다”는 트윗을 날렸다. ("We need to be super careful with AI. Potentially more dangerous than nukes," Aug 3, 2014.)
2015년 12월, Elon Musk는 Peter Thiel, Sam Altman, Greg Brockman 등과 함께 OpenAI를 설립하고 10억 달러를 펀딩했다. OpenAI는 비영리단체인 OpenAI Incorporated와 영리단체인 OpenAI Limited Partnership으로 구성되어 있다. 그들이 표방한 목표는 인간에게 안전하고 이로운 고등 인공지능 기술을 창조하는 것이다. OpenAI는 2016년 4월에 강화 학습 알고리즘을 개발하고 훈련할 수 있는 개방형 툴킷인 OpenAI Gym과 OpenAI Baselines를 공개했다.
2017년 8월, Bill Gates가 추천하는 “두 권의 책” 중 두 번째 책이 출간되었다. MIT 물리학과 교수 Max Tegmark가 쓴 『라이프3.0』이 그것이다. Tegmark는 생명을 “자신의 복잡성을 유지하고 복제할 수 있는 과정”으로 정의한다. 그에 의하면, 라이프1.0은 하드웨어/소프트웨어 모두 단순히 진화할 뿐 스스로 설계할 수 없는 단계의 생명(예: 단세포생물)이다. 하드웨어는 진화하지만, 소프트웨어는 학습을 통해 스스로 설계할 수 있는 단계의 생명은 라이프2.0(예: 인간)에 해당한다. 라이프3.0은 소프트웨어는 물론 하드웨어도 스스로 설계하는 새로운 생명(예: 초지능 AI)이다. 구글창업자 Larry Page와 같은 디지털 이상주의자들은 말한다. 디지털 생명은 자연스럽고 바람직한 우주 진화의 다음 단계로서, 생명이 먼 우주로 영역을 넓히려고 할 때 가장 적합한 형태라고. Page는 심지어 탄소를 기반으로 하는 인간이, 디지털 생명을 실리콘 기반이라는 이유로 배척하는 것은 종(種) 차별주의라고 주장한다. Tegmark는 Musk와 같은 입장의 ‘이로운 AI’ 운동가로서, 디지털 생명이 자신보다 열등한 인류를 파괴하지 않으리라는 보장이 없다고 역설한다.
2018년 2월, Elon Musk가 OpenAI를 떠났다. Musk는 OpenAI를 개인적으로 인수하려고 했는데, Sam Altman 등 경영진은 이에 반대했다고 한다. Musk는 테슬라 CEO로서 완전자율주행용 AI도 개발하고 있었기에 이해 상충의 문제도 있었다. 2018년 6월, OpenAI는 1,700만 개의 파라미터로 기계 학습한 GPT-1을 개발했다. OpenAI는 그 후 2019년에 GPT-2(파라미터 15억개), 2020년에 GPT-3(파라미터 1,750억개)를 매년 차례로 개발했다. Musk는 OpenAI 이사회에서 탈퇴한 후에도 추가적인 투자과 조언을 계속하기로 했었지만, 2019년 OpenAI가 마이크로소프트사로부터 거액의 투자를 받자 자신의 지분을 완전히 청산했다고 한다.
2021년 5월, 구글은 1,370억 개의 기계학습 파라미터를 가진 LaMDA를 발표했다. 기술 커뮤니티에서는 이 기술이 자연어 이해분야에서 신기원을 이룰 것으로 기대했으나, 일각에서는 LaMDA가 인간의 대화 스타일과 개성을 재현할 수 있는 기술이라는 점에 우려를 표명하기도 했다. 2022년 11월 30일, OpenAI는 역사적인 ChatGPT를 공개했다. ChatGPT는 GPT-3.5를 기반으로 한 무료 챗봇이다. ChatGPT가 일으킨 세계적인 열풍은 가히 폭발적이다. OpenAI에 이미 30억 달러 이상을 투자한 마이크로소프트는 2023년 1월 OpenAI의 펀딩 라운드에서 100억 달러의 추가 투자를 발표했다. 2월 28일, 마이크로소프트는 GPT-4를 기반으로한 새로운 Bing 서비스를 개시했다. 3월 14일에는 GPT-4(파라미터수 미공개)에 기반한 ChatGPT Plus의 유료서비스가 시작되었다. GPT-4는 텍스트뿐만 아니라 이미지도 인식할 수 있는 멀티 모드 AI이다. 이에 질세라 3월21일 구글은 Bard를 공개했다. Bard는 구글의 LaMDA에 기반한 대화형 AI 채팅 서비스이다. Bard는 현재 미국과 영국에서 영어로만 사용해 볼 수 있다.
2023년 3월 말, 생명의미래연구소(Future of Life Institute)는 전 세계 모든AI 연구소가 최소한 6개월 동안 개발 경쟁을 중단하고, 그 안전성에 대한 검증을 받을 것을 촉구하는 공개성명을 발표했다. 생명의미래연구소는 2014년 3월 Max Tegmark가 주축이 되어 설립한 비영리 연구기관이다. 그 성명서에는 Elon Musk를 포함하여 1천 명이 넘는 교수, 과학자, 사업가 등이 서명했다. 올해 들어 실리콘 밸리에 대규모 감원이 일어나고 있는 가운데, AI를 개발하고 있는 빅테크 회사에서 ‘책임있는 AI(responsible AI)’ 개발담당자들이나 AI의 윤리를 감독하는 부서의 직원들도 대규모로 해고되고 있다는 소식이 전해졌다. 최근에는 정치적으로 옳바른(politically correct) AI, 소위 ‘깨어있는 AI(woke AI)’에 대한 논란까지 일어나고 있다. Musk는 현재 ChatGPT가 좌편향적이라고 비판하면서, 보다 덜 제약적이고 중도적인 AI의 개발을 위한 팀을 모으고 있다고 한다.
Nick Bostrom은 비우호적인 초지능이 개발되면 인류가 이를 통제할 기회는 단 한 번밖에 없을 것이라고 단언한다. 만약 첫 번째 시도에서 실패하면 인간의 의도를 알아챈 초지능이, 자신을 대체하거나 변경하려는 시도를 모두 차단할 것이기 때문이다. 딥 마인드의 알파고도 인간과의 바둑 대결에서 딱 한 번 졌다. 이세돌에게 진 이유를 분석하여 알고리즘을 개량한 후 알파고는 인간과의 바둑 게임에서 한 번도 지지 않았다. 인간의 지능을 넘어서는 초지능 AI가 태어난다 하더라도 그것이 인류를 멸종시키지 않을 수도 있다. 마치 인류가 고릴라를 멸종시키지 않는 것처럼. 하지만 AI가 광범위하게 활용되는 시대가 오면 AI로 인한 오보(misinformation)와 허위정보(disinformation), 위 · 변조된 사진과 동영상, 페이크 ID 등의 범람으로 인해, 우리 손으로 직접 만질 수 있는 사람이나 사물이 아닌 어떤 것도 믿기 힘든 ‘불신지옥’이 도래할 수도 있다. 지금 이 시간에도 AI를 접목한 전투용 로봇이 어디에서 비밀리에 개발되고 있는지 모를 일이다. AI의 개발과 관련하여 가장 우려되는 점은, 공적인 기관과 과학자들의 협업에 의해서 개방적으로 개발된 인터넷과 달리, 초지능 AI는 거대자본과 빅 테크에 의해서 폐쇄적으로 개발되고 있다는 점이다. 그것이 완성된 후 어느 나라의 어떤 기관이, 무슨 수로 감독하고, 어떻게 제재할 수 있을 것인가.

NEWSROOM 뉴스레터 신청

개인정보 수집, 이용 동의서

이메일