최근 세계를 달군 '오픈AI의 닷새'를 많은 분이 기억하실 겁니다. AI(인공지능) 개발 주도권을 두고 샘 올트먼과 다른 과학자 간 갈등이 폭발하면서 올트먼의 해고-마이크로소프트 합류-오픈AI 재합류 드라마가 닷새 간 펼쳐졌습니다. 이 갈등 기저에는 AI의 위험성을 어떻게 다뤄야 하느냐는, 인류에 매우 중요한 물음이 존재합니다. 이 문제를 두고 박승옥 햇빛학교 이사장의 연재를 소개합니다. 마침 오늘, 11월 30일은 오픈 AI의 챗GPT-4가 출시된지 딱 1주년입니다. 편집자
오픈 AI(Artificial Intelligence) 하면 잘 모르시는 분이 많을 것입니다. 그러나 챗GPT라는 인공지능을 사용해보거나 들어보신 분은 많을 것입니다. 챗GPT를 만든 회사가 바로 오픈 AI입니다. 거대 빅테크 기업이긴 한데, 주식회사가 아니라 이상하게도 비영리단체입니다.
사용해보신 분은 알겠지만 정말 놀라운 인공지능입니다. 그리고 이보다 성능이 더 뛰어난 AI가 나오면 어떻게 될까 하는 두려움을 불러일으키기도 합니다.
갑자기 오픈 AI와 샘 올트먼이라는 이름이 한국에서도 미디어와 약 1천 5백만 명의 주식 투자자들 사이에 급 관심사로 등장했습니다. 2023년 11월 17일 오픈 AI 이사회가 창업자이자 대표이사인 샘 올트먼을 해고하면서 5일 동안 반전에 반전을 거듭하는 극장 드라마를 연출했기 때문입니다. 결국 올트먼이 다시 복귀하고 이사회 구성을 바꾸는 것으로 사태는 마무리되었습니다.
이 과정에서 오픈 AI, 마이크로소프트, 알파벳(전 구글), 메타(전 페이스북), 아마존 등 초거대 빅테크 기업들의 사활을 건 인공지능 개발 경쟁과 과학자-개발자 스카우트 경쟁 실상이 일부 공개되었습니다. 대부분 20~30대인 AI 기업체 임직원들의 연봉이 최저 몇 억에서 올트먼과 같은 책임자 급은 많게는 1천억 원 이상에 이른다는 사실에 놀란 사람들도 많았습니다. 샘 올트먼은 올해 38세입니다.
그런데 사실 이 사태의 발단에서 수습까지 중심인물은 올트먼이 아니라 챗GPT 개발을 이끌고 있는 오픈 AI 수석 과학자 일리야 수츠케버입니다. 올트먼은 과학자라기보다는 탁월한 경영자입니다.
오픈 AI 이사회는 6인입니다. 사내이사는 올트먼, 올트먼과 함께 행동한 이사회 의장 그렉 브록만, 수츠케버 등 3인입니다. 나머지 3인은 사외이사들입니다. 이들 사외이사들은 그동안 인공지능 개발의 잠정 중단을 강하게 주장했던 사람들입니다. 오픈 AI 내에서는 올트먼을 중심으로 한 AGI 선도개발론, 사외이사들과 수츠케버 중심의 속도조절론이 늘 논쟁하고 있었습니다. 수츠케버가 속도조절론의 사외이사들과 함께 선도개발론을 멈춰 세워야 한다고 나서면서 올트먼 축출 사태가 일어난 것입니다.
사태 발생 3일째인 11월 20일 자칫 오픈 AI 자체가 공중 분해될지도 모른다는 위기감이 퍼질 때, 수츠케버는 엑스(X, 전 트위터)에 이사회 행동에 동참한 것을 후회하며 회사가 다시 뭉칠 수 있도록 할 수 있는 모든 것을 다할 것이라는 글을 올립니다. 그리고 수츠케버가 포함된 직원 5백여 명이 올트먼의 복귀와 새로운 이사회 구성을 요구하는 성명서를 엑스에 올리면서 사태는 수습 국면으로 들어갑니다.
이후의 진행은 실시간 보도를 통해 널리 알려진 그대로입니다. 사외이사 3인은 한 명만 남고 나머지 2인은 이사회를 떠났습니다. 기존 사내이사 3인도 이사회를 물러났습니다.
참고로 인공지능 과학자-개발자들의 주 소통수단은 엑스입니다. 개발 관련 정보들이 흘러나오는 출처도 주로 엑스입니다. 이번 사태로 사외이사 직을 사임한 헬렌 토너 조지타운대 보안-신기술센터(CSET) 연구이사는 엑스에 "이제 우리 잠 좀 잘 수 있겠다."라고 적기도 했습니다. 엑스를 보면 추수 감사절 휴가 기간이었음에도 이들은 새벽이건 한밤중이건 잠도 안자고 성명서를 발표하고 정보를 교환하고 토론을 벌였습니다.
사태 발단의 핵심 원인은 무엇일까
수츠케버가 올트먼 해고에 찬성한 이유는 분명합니다. 인공지능의 안정성, 즉 인간의 제어와 통제를 확실하게 확보하지 못한 상태에서 AI 또는 AGI를 출시해서는 안 된다는 것입니다.
인공일반지능 또는 범용인공지능이라고 옮기는 AGI는 알파고처럼 바둑이나 기타 특정 분야에서만 작동하는 인공지능이 아닙니다. 모든 분야에서 사람과 동등한 지능과 능력을 갖춘 AI를 말합니다. 샘 올트먼은 AGI를 "동료로 고용할 수 있는 중간 사람"이라고 간명하게 정리한 적이 있습니다.
AGI의 다음 단계인 초지능(super-intelligence)은 AGI가 스스로 지능폭발을 일으켜 개량을 거듭해 사람은 비교가 되지 않을 정도로 인간 지능을 훨씬 능가하는 슈퍼 AI를 말합니다. AGI가 사람의 제어나 통제에서 벗어나 스스로 판단하고 스스로 행동하는 지능이기 때문에 AGI가 개발되면 슈퍼 AI 등장은 순식간일 것으로 추정합니다.
인간의 통제나 제어가 불가능하고 스스로의 판단으로 행동하는 AGI가 개발돼 세상에 등장하는 순간 이후의 세상이 어떻게 돌아갈지 사람의 지능으로는 전혀 예측할 수도, 돌이킬 수도 없습니다. 아직 경험해보지 못한 세상이기 때문입니다.
그래서 AGI 개발에 대해서는 낙관론과 비관론, 그리고 낙관론도 비관론도 아닌 중도의 견해 등 다양한 스펙트럼이 존재합니다. 저는 솔직히 경험해볼 수 없는 일에 대해서는 침묵했던 붓다의 중도론이 맞는다고 생각합니다. 다만 지금 여기 우리가 할 수 있는 최선의 공동선과 자비를 실천하는 것, 그것이 중요합니다.
이번 사태 직전에는 몇몇 오픈 AI 과학자들이 자신들이 현재 개발 중인 '큐스타(Q*)' 모델이 AGI에 거의 근접했으며 인류를 파괴할 정도로 강력한 시스템으로 사용될 수 있기 때문에 개발 속도에 경각심을 가져야 한다고 이사회에 경고 서한을 이메일로 보냈다고 합니다. 수츠케버도 엑스에 "현재 GPT가 약간의 자의식이 있는 것 같다"고 썼습니다.
이들은 큐스타를 테스트하다가 이 인공지능이 학습하지 않은 새로운 수학 연산 문제를 기존 데이터를 응용해 능숙하게 푸는 것을 보고 충격을 받았다고 합니다. AGI 수준에 거의 도달한 것입니다. 오픈 AI의 핵심 개발부서 '슈퍼정렬팀'을 이끌고 있는 수츠케버가 왜 이사회 쿠데타를 일으켰는지 짐작할 수 있는 배경입니다.
이번 사태를 통해 오픈 AI는 손해는커녕 오히려 비영리단체 오픈 AI의 목표인 인공지능의 안정성 문제를 놓고 내부에서 늘 치열하게 논쟁하고 있다는 사실을 전 세계에 강렬하게 인식시키는 데 성공했다고 볼 수 있습니다. 비영리단체가 자신의 목표와 사업을 단 며칠 만에 이렇게 전 세계 수많은 일반 대중에게 각인시키기는 쉽지 않을 것입니다. 빅테크 거대기업뿐만 아니라 전 세계 국가들도 이제 인공지능의 안정성 문제를 거부할 수 없는 당면 핵심 과제로 받아들이지 않을 수 없게 되었습니다.
곧 등장할 킬러 로봇
날마다 기하급수로 지능이 높아지고 있는 AI의 위험성을 경고하는 목소리는 오래 전부터 끊임없이 이어져 왔습니다. 오죽하면 100세까지 산 헨리 키신저조차 에릭 슈미트 전 구글 대표, 대니얼 후텐로커 MIT 교수 등과 함께 <AI 이후의 세계>라는 책을 써 인공지능의 위험성과 인공지능이 촉발하는 3차 세계대전 발발 위험을 언급했을 정도입니다.
지난 5월 자신의 50년 가까운 인공지능 연구개발을 후회한다면서 알파벳 부사장을 사직한 제프리 힌튼의 인터뷰는 반향이 컸습니다(MIT Technology Review, 2023. 5. 2.). 그는 조만간 인공지능이 인간을 대체할 것이며 인공지능이 스스로의 판단으로 사람을 죽이는 킬러 로봇도 곧 현실화될 것이라고 예측했습니다.
힌튼은 핵무기와 달리 어떤 국가와 기업이 비밀리에 AI를 개발하는지 알 수가 없기 때문에 AI를 통제할 방법을 찾기 전에는 AI 개발을 더 진행해서는 안 된다고 주장했습니다.
인공지능의 대부라고 불리는 제프리 힌튼은 1980년대 중반에 사람의 뇌와 비슷한 방식으로 컴퓨터를 학습시키는 획기적인 방법을 개발해 오늘날 인공지능의 대용량 언어모델(LLM) 기반을 닦은 사람입니다. 이로 인해 2018년 다른 두 사람과 함께 인공지능의 노벨상이라는 튜링상을 수상했습니다.
오픈 AI 사태의 주역 일리야 수츠케버가 다름 아닌 힌튼의 수제자입니다. 20년 전인 2003년, 17세 수츠케버는 약속도 없이 혼자 토론토대학으로 힌튼을 찾아갔습니다. 힌튼은 수츠케버와 몇 마디 대화를 한 뒤 수츠케버의 컴퓨터 분야에 대한 천재성을 곧바로 알아차렸고, 수츠케버는 그 길로 토론토대학 학생으로 힌튼의 제자가 되었습니다.
컴퓨터는 학습할 수 없다는 것이 당연한 상식이었던 때, 컴퓨터는 학습할 수 있다는 것을 당연시하고 있던 스승 힌튼과 제자 수츠케버는 의기투합해 즉시 스타트업 기업 DNA리서치를 공동 창업했습니다. 이 DNA리서치를 구글이 인수하면서 수츠케버는 힌튼과 같이 구글로 갔고, 거기서 알파고 개발을 이끌다 2015년 오픈 AI에 스카우트 됐습니다.
이세돌을 이겨 전 세계를 충격에 빠뜨린 그 알파고입니다. 당시 알파고가 이길 것이라고 예측한 인공지능 전문가는 국내에 단 한 사람도 없었습니다. 반대로 구글은 이세돌이 1승을 거둔 것에 충격을 받았다고 합니다.
제프리 힌튼의 길러로봇은 곧 도래할 현실임이 드러나고 있습니다. 2023년 5월 23일~24일 영국 왕립항공학회가 런던에서 개최한 '미래 공중전투와 우주역량 회의'에서 미 공군의 AI 시험·운영 책임자가 사례를 발표했습니다.
그는 가상 시뮬레이션 워게임 훈련에서 AI 드론에 적 방공체계 무력화 임무를 부여하고 인간 조종자가 공격 여부를 최종적으로 결정한다는 조건을 달았다고 합니다. 그러나 AI는 적의 지대공미사일 위치를 식별해 파괴하는 것이 점수 쌓기에 더 유리하다고 스스로 판단하고는 공격 금지 명령을 내리는 조종자를 방해 요소로 제거해버렸습니다.
2023년 5월 30일 비영리단체인 AI 안전센터(CAIS)는 단 한 문장의 성명을 발표했습니다.
"AI로 인한 인류 멸망 위험을 줄이는 것은 전염병, 핵전쟁과 같은 사회적 위협과 마찬가지로 전 세계의 최우선순위가 돼야 한다."
여기에 서명한 사람은 샘 올트먼, 구글 딥마인드의 CEO 데이비드 하사비스, 제프리 힌튼, 수츠케버, 힌튼과 튜링상을 공동수상한 요수아 벤지오 몬트리올대 교수 등 350명 넘는 AI 전문가들이었습니다.
갈림길에 서 있는 'AGI 오펜하이머들'
영화 <오펜하이머>를 보신 분이 많을 것입니다. 구소련의 비밀 핵폭탄 개발과 경쟁하면서 미 정부가 극비리에 추진한 맨하탄 계획 '프로젝트 Y' 책임자였던 오펜하이머의 이름이 AI 개발자들 사이에서는 최근 들어 부쩍 자주 호명되고 있습니다. 혹자는 샘 올트먼을 'AI의 오펜하이머'로 부르기도 합니다.
널리 알려져 있다시피 오펜하이머는 핵폭탄 개발에 대해 깊은 죄의식을 갖고 있었습니다. 그래서 수소폭탄 개발을 적극 반대했습니다.
1945년 7월 16일, 뉴멕시코주의 사막 한복판에서 원자폭탄 실험이 있었습니다. 원자폭탄의 엄청난 파괴력을 직접 눈으로 확인한 오펜하이머는 힌두교 경전 <바가바드 기타>의 한 구절, "나는 이제 죽음이요, 세상의 파괴자가 되었다(Now I am become Death, the destroyer of worlds)"라는 말을 중얼거리며 한탄했다고 합니다.
오늘날 AGI 개발자들 중에도 자신들이 지금 무슨 일을 벌이고 있는지 직시하고 있는 사람들이 많은 것 같습니다. 자신들이 'AGI 오펜하이머' 임을 자각하고 있는 듯이 보입니다. 이들 AGI 오펜하이머들이 만든 비영리단체 중 하나가 오픈 AI입니다. 오픈 AI의 홈페이지 첫 화면은 눈길을 확 끄는 선언입니다.
전 인류에게 이익이 되는 안전한 AGI 만들기
오픈 AI는 2018년 4월 9일 '오픈 AI 헌장'을 발표한 바 있습니다. "인류에게 해를 끼치거나 부당하게 권력을 집중시키는 AI 또는 AGI의 사용을 방지할 것을 약속"한다면서 "AGI가 사회에 미치는 영향을 효과 있게 해결하려면" "정책과 안전 옹호만으로는 충분하지" 않고, "오픈 AI가 AI 기능의 최첨단에 있어야" 한다는 것입니다.
인공지능이 특정 빅테크 기업이나 특정 국가의 소유물로 되는 것을 막기 위해서는 캠페인과 정책 대안을 제사하는 것만으로는 부족하다는 인식입니다. 그래서 나온 것이 AI의 새 시대를 열었다고 평가받는 챗GPT 시리즈 개발입니다.
오픈 AI는 AGI를 개발하는 데 드는 엄청난 비용을 투자받기 위해 자회사로 영리기업인 오픈 AI 글로벌 LLC를 설립했습니다. 그리고 2021년 마이크로소프트로부터 두 번째 투자를 받습니다. 그러자 오픈 AI의 급격한 선도개발과 상업화에 반기를 들고 GPT 모델 개발과 전략 담당 디렉터 다리오 아모데이를 비롯한 개발자들 일부가 오픈 AI를 뛰쳐나와 앤트로픽을 창업합니다. 앤트로픽은 좀 더 '책임감 있고 안전한 AI'를 목표로 내걸고 AI 챗봇 클로드를 개발했습니다.
클로드가 챗GPT에 뒤지지 않는 성능을 갖고 있다고 호평 받으면서 앤트로픽 또한 알파벳, 아마존, SK 등으로부터 거액의 투자를 받았습니다.
안전한 AGI, 과연 가능할까?
2023년 1월 26일 알파벳 경영진은 <파이낸셜타임스> 매거진과 인터뷰를 합니다. 알파벳이 챗GPT보다 더 강력한 AI 플랫폼을 개발했지만 잠재된 사회-윤리 위험성을 통제할 방법을 찾을 때까지 출시할 수 없다고 결정했다는 내용이었습니다. 오픈 AI의 챗GPT 안전성에 대해 정면으로 문제 제기한 것입니다. 챗GPT가 5일 만에 사용자 수 1백만, 두 달 만에 1억 명이라는 돌풍을 일으키고 있는 것에 대항한 알파벳 나름의 전략이었습니다.
이 결정의 중심에는 부사장이던 제프리 힌튼이 있었습니다. 그러나 이 발표로 주가가 출렁거리면서 알파벳은 2월 8일 서둘러 챗봇 '바드'를 출시합니다. 제프리 힌튼은 자유롭게 인공지능의 위험성을 경고하기 위해서라며 알파벳을 그만둡니다.
이처럼 AGI 개발 경쟁은 일반 사람들이 생각하는 이상으로 치열합니다. 빅테크 기업들 간의 경쟁뿐만이 아니라 미국과 중국, 한국, 유럽 등 이른바 디지털 강국들 사이의 경쟁도 상상 이상입니다.
이런 경쟁 상황과 오직 더 많은 돈벌이가 목적인 빅테크 기업들의 탐욕 아래 과연 인간이 통제할 수 있는, "모든 인류에게 이익이 되는 AGI 개발"이 가능할지 여부는 아직 알 수 없습니다. 끝.
(* 두번째 글로 이어집니다. 이 글은 프레시안과 동시 게재합니다.)
전체댓글 0