(씨넷코리아=김진아 기자) 인터넷 보안 업체 노드VPN은 나날이 심각해지는 딥페이크 범죄의 심각성과 AI의 악용에 대해 경고하고, 예방법을 공유했다고 11일 밝혔다.
딥페이크는 딥러닝(Deep learning)과 페이크(Fake)의 합성어로, AI(Artificial Intelligence, 인공 지능)를 이용해 실제처럼 조작한 이미지나 영상을 뜻한다. 프로그램을 사용해 누구나 그럴싸한 이미지나 영상물을 간편하게 제작할 수 있기 때문에 요즘들어 광범위하게 사용되고 있다.
이런 딥페이크 기술은 유명인이나 공인들의 외모와 목소리를 흉내내어 사기 행위를 더욱 정교하게 만들 수 어, 특정 국가만의 일이 아니라 현재 전세계적으로 문제가 되고 있다. 지난해 영국의 개인 금융 전문가 마틴 루이스의 모습을 이용한 딥페이크 사기가 발생했으며, 피해자들은 은행 정보를 제공하고 사기 기업에 투자하게 되어 범죄자들의 손에 돈이 넘어가는 일이 벌어졌다.
한국도 예외가 아니다. 최근 문제가 됐던 텔레그램을 통한 딥페이크 성착취물 사건은 한국에서 발생한 대표적인 실제 악용 사례로, 대상이 연예인에 국한되지 않고 일반인도 다수 있었다는 점, 가해자 대부분이 AI와 디지털 기술에 더 익숙한 10대 청소년이라는 점에서 큰 충격을 주고 있다.
노드VPN은 딥페이크를 이용해 만들어진 가짜 이미지나 동영상은 일반인들이 식별하기 어렵다고 설명한다. 일부 동영상이나 이미지는 표정이 어색하기에 쉽게 진위를 파악할 수 있지만, 기술이 점점 더 발전하고 있으며 그 결과 더 고도화된 작업을 거친 제작물은 실제와 거의 구분할 수 없게 되어가고 있기 때문이다.
또한, 음성 복제 기술은 AI를 통해 더욱 철저한 사기 범죄를 가능하게 한다. 범죄자들은 피해자의 목소리를 복제해 가족이나 친구를 속이는 데 이용할 수 있다. 예를 들어, 부모가 자녀의 목소리를 복제한 범죄자로부터 전화를 받고, 돈이나 금융 정보를 요구받을 수 있다.
특히, 인스타그램이나 페이스북 같은 소셜 네트워크에서 얼굴이나 개인 정보가 노출될 경우, 이러한 정보가 딥페이크나 음성 복제와 같은 기술에 악용될 위험이 있다고 경고했다. 범죄자들은 공개된 사진이나 영상을 기반으로 피해자의 외모나 목소리를 복제해 더 정교한 사기를 계획할 수 있다. 따라서 개인 정보는 신중하게 관리하고, 소셜 미디어에서 공유하는 콘텐츠에도 주의가 필요하다고 강조했다.
노드VPN은 또 딥페이크 범죄의 피해자가 되지 않기 위해 ▲의심스러운 전화를 받으면 즉시 끊기 ▲수상한 링크는 절대 클릭하지 않기 ▲검증되지 않은 앱을 다운로드 하지 않기 ▲생체 정보 공유 최소화하기 등의 안전 수칙을 공유했다.
아드리아누스 바르멘호벤 노드VPN 사이버 보안 고문은 “최근 영국에서 실시한 실험에 따르면 참가자 중 약 12%만이 딥페이크 기술로 제작된 영상물임을 알아차렸다”라며, “기술은 점점 발전하고 있기 때문에, 사후 수습보다는 사전에 예방하는 것이 가장 바람직하다. 개개인이 사생활 정보 노출에 대한 경각심을 가지고 철저히 보호 해야한다”고 말했다.