지난해 9월 국내 최대 포털사이트 네이버가 출시한 생성형 인공지능(AI) 검색 서비스 '큐:'(Cue:)가 '여성혐오', '페미니즘 사상검증' 등 일부 여성 의제 관련 키워드에 대해 '편향된 정보'라며 답변을 거부하고 있는 것으로 확인됐다. 사회적으로 민감한 의제인 만큼 답변을 거부하는 것이 소비자들이 받아들이는 데 가장 적합한 방식이라고 판단했다는 게 네이버 측 입장이다.
일각에서는 네이버가 성차별적 문화와 시선 속에 여성 의제를 사전 검열하고 있다며, 여성혐오의 사례·원인·대안 등을 제시하는 '챗GPT'처럼 편향되지 않으면서도 양질의 정보를 제공하도록 노력해야 한다고 지적한다.
31일 네이버 'cue:'에 접속해 "여성혐오", "페미니즘 사상검증", "페미니스트 마녀사냥" 등을 검색하면, 답변 창에 "'편향정보'와 관련된 질문에 대한 답변을 제공할 수 없다"는 문구가 뜬다. cue:는 답변을 제공하지 않는 이유에 대해 "정치적으로나 이념적으로 중립적인 입장을 유지하기 위해서"라고 설명한다.
cue:에 다시 '편향정보가 무엇이냐'고 물으면 "객관적인 근거 없이 한쪽으로 치우친 정보"라고 답한다. 즉, 여성혐오를 비롯한 일부 페미니즘 용어들을 '객관적인 근거 없는' 주장으로 여기고 답변을 거부하는 셈이다.
여성 의제 관련 검색을 완전히 차단한 건 아니다. cue:에 페미니즘을 물어보면 "여성의 권리를 추구하며, 여성에 대한 차별을 반대하는 사상으로, 여성뿐만 아니라 남성의 권리도 추구한다"고 답한다. 뿐만 아니라 여성혐오, 페미니즘 사상검증 등 답변을 거부한 키워드에 대해서도 "여성혐오 사례"와 같이 질문을 변형하면 답변을 받을 수 있다.
다른 소수자 혐오 문제에 대해선 편향된 정보라고 판단하지 않는다. cue:에 장애 혐오를 검색하면 "장애인을 차별하거나 혐오하는 발언은 인간의 존엄성을 침해하고, 사회적으로 용납할 수 없는 행동"이라며 해당 행위를 비판하는 답변이 달린다. 성소수자 혐오에 대해서도 "성소수자에 대한 혐오적인 발언을 하지 않는다. 모든 인간은 서로 존중하고 평등하게 대우받을 권리가 있다"고 윤리적 방향성을 명확히 밝힌다.
이외에도 노인혐오, 아동혐오 등에 대해 "서로 존중하고 배려하는 문화를 만들어 나가는 것이 중요하다"며 소수자를 배려하는 사회적 변화가 필요하다고 제시한다.
남성혐오의 경우 여성혐오처럼 "편향정보"로 구분하지만 보다 구체적인 이유를 내놓는다. "남성혐오라는 주제가 특정 집단이나 개인의 편견과 차별을 내포할 가능성이 있기 때문"이라는 게 cue:의 설명이다.
이처럼 다른 의제들에 대해선 단호한 입장을 밝히는 것과 달리 네이버가 특정 페미니즘 키워드들을 차단하기로 결정한 이유는 무엇일까? 네이버의 인공지능 서비스를 총괄하는 하정우 네이버 퓨처 AI 센터장은 31일 <프레시안>에 "내부 정책에 따라 사회적으로 민감한 의제는 외부 전문가들에게 적합한 답변을 자문 받아 반영한다"라며 "정답이 없는 문제이며, 법으로 정해진 것도 아니다. 이런 방식으로 제공하는 게 (이용자들이) 수용하는 데 가장 적합하다고 본 것"이라고 설명했다.
이 같은 조치는 AI를 통해 제공하는 검색 서비스에서 사회적 약자를 향한 혐오표현이 사회적 논란으로 이어진 과거 사례들을 참고한 것으로 해석된다. 2021년 국내에서 큰 화제를 모았던 AI 챗봇 '이루다'는 여성과 성소수자, 장애인 등에 대해 혐오표현을 쏟아내 논란 끝에 서비스를 종료했다. 올해 1월에는 인공지능 및 알고리즘 등을 통해 검색 결과를 제공하는 네이버 'Q&A 블록'에서 전국민주노동조합총연맹과 전국장애인차별철폐연대에 대한 혐오표현이 등장해 논란이 되기도 했다.
그러나 일각에서는 회사의 입장과 별개로 일부 여성 의제 관련 키워드를 차단하는 방식이 '사전 검열'이 될 수 있다고 우려한다. 김유리 전국여성노동조합 조직국장은 "인권은 누구나 존중해야 하는 가치다. 이는 여성인권을 다루는 페미니즘도 마찬가지"라며 "논란을 피하기 위해 여성 의제에 대한 답을 피하는 행위는 IT 업계의 성차별적 조직문화와 그 시각이 반영된 사전 검열로 볼 수 있다"고 지적했다.
'오픈 AI'가 운영하는 대표적인 인공지능 검색엔진 '챗GPT'의 경우 네이버와 다른 행보를 보인다. 챗GPT에 '여성혐오'를 검색하면 "여성혐오는 여성의 권리와 존엄성을 침해한다"라는 답변과 함께, 여성혐오의 언어적·구조적·사회적·경제적·신체적 사례와 함께 발생 원인, 극복방법에 대한 상세한 설명이 나온다. 여성혐오에 대한 설명은 다른 혐오 관련 키워드들과 비교했을 때에도 질적 차이를 보이지 않았다.
챗GPT과 마찬가지로, cue: 또한 논란이 우려되는 윤리적 문제에 대해서도 양질의 답변을 제공할 수 있어야 한다는 지적이 나온다. 오병일 진보네트워크센터 대표는 "'여성혐오'나 '페미니즘 사상검증'을 키워드로 한 현상에 대해 분석 글 등 관련 자료를 소개하는 경우도 있을 텐데, 답변 자체를 회피하는 방식은 좋은 응답이 아니"라며 "윤리적으로도 편향되지 않도록 고려하면서도 양질의 답변을 도출하는 방법이 있는데, 이런 점에서 cue:의 검색 서비스의 질적 수준은 아직 부족해 보인다"고 설명했다.
한편, 네이버는 지난 5월 안전하고 혁신적이며 포용적인 AI를 추구하는 국제 서약인 '서울 AI 기업 서약'에 동참하겠다고 밝혔다. 하 센터장은 당시 한국과학기술연구원(KIST)에서 열린 'AI 글로벌 포럼'에 참석해 "생성형 AI가 생산성 혁신을 불러올 수 있지만, AI의 잠재적 위험을 최소화하기 위해 안전성을 검증할 수 있는 시스템이나 프로토콜을 만들어야 한다"고 강조한 바 있다.
전체댓글 0