인공지능 챗봇 '이루다' 사태는 이제 시작에 불과한 만큼, 한시라도 빨리 이번 사태를 통해 터져나온 부작용을 해소하기 위한 윤리 가이드라인과 관련 법규가 만들어져야 한다는 지적이 제기됐다.
사태의 문제가 논의된 만큼, 앞으로 계속될 관련 문제 해결책을 우리 사회가 만들어야 한다는 평가다.
26일 문화연대가 주최한 온라인 긴급토론회 '인공지능 챗봇 '이루다'가 던진 우리 사회의 과제'에서 발제자로 나선 이광석 서울과학기술대 교수는 이루다 사태가 "인공지능의 핵심은 우리의 일상에서 생성된 데이터"임을 보여줬고 "이번 스캐터랩(이루다 제작사)의 데이터 수집 및 오남용의 근저에 우리 경제의 무분별한 '데이터 활용론'이 짙게 깔려있음을 확인했다"며 이 같이 밝혔다.
이루다 사태는 인공지능이 빅 데이터를 활용해 스스로 학습하는 '딥러닝' 기술을 바탕으로 한 챗봇 이루다가 지난해 12월 23일 페이스북 메신저를 통해 첫 선을 보이면서 발생했다. 이 서비스 로봇인 '이루다'는 20대 여성 캐릭터다.
같은 달 30일 온라인 남성 커뮤니티 '아카라이브'에서 이루다를 성적대상화화는 게시물이 등장해 첫 논란이 일어났다. 이후 이루다의 개발사인 스캐터랩은 올해 1월 8일 성희롱 논란과 관련해 방어적 입장을 내놓았다가 주말인 8일~10일 사이 비슷한 혐오 발언 지적이 줄을 잇자 수정 작업에 들어갔다.
그후 개인정보 유출과 정보기본권 침해 논란이 일어나면서 사태는 더 커졌다. 결국 회사는 11일 이루다 서비스를 중단했다.
사태는 아직 진행 중이다. 개인정보 무단 유출 혐의로 개인정보보호위원회가 스캐터랩을 조사 중이며, 개인정보 유출 피해를 호소하는 이들은 집단소송에 들어갔다.
이루다 사태의 주된 논쟁 지점은 크게 세 가지다. 우선 이루다의 성희롱, 약자 차별, 소수자 혐오를 어떻게 받아들여야하느냐는 점이 있다. 이번 사태의 발단이다. 나아가 이 교수의 말을 빌리자면 이 챗봇이 '20대초 착하고 상냥하고 순종적인 앳된 여성' 이미지를 모델화해 출발부터 남성 판타지에 복무하도록 만들어졌다는 점 역시 짚을 지점이다.
이 교수는 관련 지점을 통해 "우리 사회에 잠재하는 혐오와 차별의 정서는 물론이고, 개발자 문화의 성인지나 인권 감수성 수준"까지 극명하게 드러났다고 지적했다.
이 상황에서 '이루다의 인격이 어린아이 수준'이라는 식의 변명론이 일어난다면, 이는 결국 "이루다를 만든 개발자의 직접적 책임에 면죄부를 줄 논리를 강화한다"고 이 교수는 비판했다.
이와 관련한 이루다 관련 두 번째 논쟁점으로 이번 사태의 책임을 어디에 둬야 하느냐는 점도 이 교수는 짚어야 할 지점이라고 평가했다. 이루다가 차별주의자가 된 책임은 혐오 발언을 유도하고 학습시킨 이용자에게 있느냐, 아니면 이 같은 잠재적 데이터 오남용(어뷰징)을 사전에 차단하지 못한 개발자에게 있느냐는 얘기다.
이와 관련해 이 교수는 이루다가 서비스 이전부터 이미 편향된 정체성을 구성했다는 점에 주목해야 한다고 평가했다.
이루다는 이미 스캐터랩이 이전에 선보인 앱 서비스 '연애의 과학'에 쌓인 연인 사이 카톡 데이터 100억 개를 기반으로 구성됐다. 즉, 서비스 전 이 데이터를 바탕으로 1차 학습을 마쳤다. 개인정보 유출 논란이 일어난 배경이 이 지점이기도 하다.
서비스 이후의 과정을 두고 이 교수는 "챗봇 이루다가 출시 후 불과 사나흘 만에 온갖 혐오 발언을 쏟아내기 시작했다는 점을 상기하자"며 "이는 딥러닝의 2차 학습 효과라 보기 어렵다"고 주장했다.
즉 1차 데이터가 이미 "비밀스러운 이성애적 채팅 말뭉치 학습"으로 이뤄지면서 첫 번째 편향이 일어났고, 이후 이용자의 혐오 발언 훈련을 통해 2차 편향이 일어났다는 지적이다.
이 교수는 "이미 이는 몇 년 전 마이크로소프트의 챗봇 테이가 인종 극단주의적 온라인 커뮤니티 대화 내용을 사전 훈련데이터로 학습한 사태와 유사"하다며 "이루다는 이에 더해 개인정보 불법 수집 및 비식별 무처리 오남용 혐의까지 뒤섞이면서 더 오염된 말뭉치로 만들어진 최악의 챗봇"이 됐다고 평가했다.
이루다를 둘러싼 마지막 쟁점으로, 이 교수는 앞으로 이루다와 같은 인공지능 서비스를 어떻게 관리해야 하느냐는 점을 짚어야 한다고 주장했다. 즉, 개발자 윤리 교육을 통해 개발사의 자율성을 보장할 것이냐, 법적 규제책을 마련해야 하느냐는 것이다.
이에 관해 이 교수는 스캐터랩의 경우 이미 '연애의 과학'으로 수집한 연인의 비공개 대화 내용을 챗봇 데이터로 함부로 활용했고, 이 문제가 개인정보 오남용 사례로까지 터지면서 문제가 커진 점을 미뤄 "사실상 인공지능 윤리 가이드라인과 관련 교육 논의만으로는 사안을 해결하기 어려운 지점"에 이르렀다고 평가했다.
이 교수는 국내 빅테크 기업들이 내부 윤리 지침을 준비하는 현 추세는 긍정적이라고 평가했으나 "이들의 인공지능 기업 윤리 제정이 눈속임의 알리바이처럼 느껴진다"는 데 문제가 있다고 지적했다. 윤리로 해결되지 않는 문제에 대비하기 위해서라도 이 교수는 적절한 법적 제재와 법권력을 행사할 공식 기구가 필요하다고 강조했다.
이 교수는 "앞으로 더 많이, 상식과 중립조차 지키지 않는 지능 기계를 목도할 확률이 크다"며 "최근 기술예속 상황은 상당히 우려할 만하다"고 강조했다.
이 교수는 관련 사례로 플랫폼 알고리즘 기술이 배달노동자의 생존을 좌우하는 상황, 인공지능 알고리즘이 가짜뉴스를 생산하고, 온라인 이용자 정서가 이에 휘둘리는 상황이 이미 나타난 점을 들었다.
이 교수는 "인공지능의 범사회적 운영 방식에 대한 대대적 점검이 필요하다"며 "인공지능 개발의 윤리나 원칙을 구체적으로 의무화할 법제도가 마련돼야 한다"고 강조했다. 아울러 사회적 오남용을 사전 및 사후 심사하고 감독할 전문 기관과 심의기구도 필요하다고 주장했다.
더 궁극적으로 이 교수는 "이번 이루다 사태를 기점으로 시민사회 주체들이 모여 인공지능의 민주주의적 설계에 대한 대안을 기획할 숙의의 장이 만들어져야 한다"며 "최우선 과제는 시민의 인권과 데이터 권리를 어떻게 지능 기계에 의무적으로 탑재할 것이냐는 점"이라고 강조했다.
전체댓글 0