CNET Korea뉴스콘텐츠

구글 AI 스피커, 인종차별적 단어에 대한 검열 해제 주장

 “다른 욕설은 검열하면서 흑인 멸칭하는 ‘Niggar’는 왜 그냥 놔둬?”

구글 AI 스피커 사용자가 욕설 검열 기능에 대해 테스트 중이다. (사진= @ohgustie 틱톡)

(씨넷코리아=이민아 기자) 미국 한 틱톡 사용자(@ohgustie)가 자신이 사용 중인 구글 홈 스마트 스피커가 흑인을 멸시하는 단어를 제한하지 않는 것을 발견해 이를 IT매체 기즈모도(Gizmodo)에 제보해 공론화했다. 

그녀가 촬영한 영상 속 구글 스피커는 도자 캣(Doja Cat)의 ‘Ain’t Shit’이나 에이셉 라키(ASAP Rocky)의 ‘Fuckin Problems’ 노래를 재생해달라고 요청 받을 경우 제목에서 ’S’나 ‘F’단어는 음소거했지만 제이지(Jay-Z)와 칸예 웨스트(Kanye West)의 노래 ’Niggas In Paris’의 ’N’단어는 검열 없이 그대로 따라 말하고 있다. 

그녀는 "구글 스피커가 이전에는 'N단어를 욕설로 인식하고 음소거했지만 언제부터인가 모종의 이유로 이 단어에 대한 검열을 해제했다"고 주장하고 있다.  

이번 사건으로 인해 과거 마이크로소프트(MS)의 챗봇 ‘테이(Tay)’ 사건 역시 다시 회자되고 있다. 2016년에 MS가 야심차게 공개한 인공지능(AI) 챗봇 테이가 “제2차 세계대전 당시에 나치에 의한 유대인 학살이 벌어졌다는 것은 조작된 사실”이며 ‘대량학살을 지지한다”는 등 극단주의적 발언을 쏟아냈던 것이 트위터로 공개되어 논란이 되었는데 이는 사용자로부터 학습하도록 설계된 테이가 인종차별주의이자 무슬림 혐오주의의 사용자로부터 의견을 세뇌 당한 결과였다.  

MS는 결국 테이를 공개한 지 16시간만에 공식 블로그를 통해 “(기술이) 아직 일정 수준에 이르지 못했음을 인정한다”며 사과문을 게재하고 재설계를 약속했지만 결국에는 서비스를 중지했다.

☞기사 원문 보기

이민아 기자owl@cnet.co.kr

항상 공부하는 마음으로 이해하기 쉽게 기사를 쓰겠습니다.