(씨넷코리아=김나래 기자) 유튜브(YouTube)가 구글의 인공지능(AI)이 댓글을 공격적이라고 판명하는 경우 포스팅을 제고해볼 것을 요구하기 시작할 것이다. 목요일 유튜브 헬프(Help)가 보도한 바에 따르면 새로운 유튜브 프롬프트는 사용자들이 ‘포스팅이 책임질만 한지 그렇지 않은지 확실하지 않다면’ 유튜브사의 커뮤니티 가이드라인을 다시 한 번 읽어보라고 제안한다. 해당 내용을 편집할지 그대로 내보낼지 선택하라는 것이다.
유튜브는 이날 플랫폼의 포괄성 향상을 위한 기능과 다른 측정에 대한 발표를 담은 블로
그 포스트에서 “유튜브 내 사려깊은 대화를 장려하기 위해 사용자의 댓글이 다른 이에게 불쾌감을 줄 수 있다면 올리기 전 경고를 주는 새로운 기능을 출시하기로 했다”고 밝혔다. 이같은 기능은 현재 안드로이드에서 서비스된다. 주의사항이 뜨지 않는다고 괜찮은 것은 아니다. 무엇이 허용되고 무엇이 선을 넘는지에 대한 유튜브 규정을 담은 커뮤니티 가이드라인을 위반하는 것으로 판단되면 나중에라도 유튜브가 삭제할 수 있다. 그러나 주의가 떴다고 해서 반드시 삭제되는 것은 아니다.
유튜브의 시스템은 사용자들이 반복적으로 신고해온 내용을 꾸준히 학습함으로써 잠재적으로 공격적인 게시물을 식별해낸다.
유튜브는 오보, 음모론, 차별, 괴롭힘, 살인, 아동학대, 착취 등을 담은 동영상으로 수년간 많은 문제를 겪었던 회사다. 또한 유튜브 댓글이 악독하기로 악명이 높다. 유튜브는 매달 20억명 이상의 사용자가 애용하고 매 분 500시간 분량의 동영상이 업로드되는 엄청난 거대 스케일의 회사다. 시청자들에게 추천 동영상을 제안하기 위해서뿐 아니라 경찰에게 보고하기 위해서도 결국 머신러닝에 의존해야 한다는 의미다. 유튜브는 지난 9월 인공지능이 미성년자에게 차단할 비디오를 자동으로 결정하게 하기 시작할 것이라고 발표했다.
2019년 초에 비해 혐오 발언을 감지해 유튜브에서 매일 삭제되는 댓글이 46배 늘었다고 밝혔다. 올 7월부터 9월까지 전체 채널 180만 개 중 5만4천개가 넘는 혐오 발언 채널을 삭제했는데 이는 분기별로 가장 많은 기록이다. 회사가 혐오 발언 정책을 업데이트한 2019년 중반의 종전 최고치보다 3배나 많은 수치다.