청소년도 오픈소스 활용 딥페이크 제작 가능
방패가 진화하면 창도 진화하는 ‘생성적 대립 신경망’
AI가 만들어낸 딥페이크가 국가 혼란 일으킬 수도
글로벌 ICT 공룡들 악용 방지에 소매 걷어붙여
시각디자이너 도그 로블이 딥페이크 기술을 시연하고 있다. [Flickr]
법무부에 따르면 6월 25일부터 ‘딥페이크 포르노를 제작 및 배포한 자는 5년 이하의 징역 또는 5000만 원 이하의 벌금형’을 선고받는다. 영리 목적인 경우에는 ‘7년 이하의 징역’으로 가중처벌을 받는다.
이렇듯 처벌이 강화된 배경에는 딥페이크 포르노 제작 건수의 가파른 증가가 있다. 딥페이크 탐지 전문 기업 딥트레이스랩스(Deeptrace Labs)는 2019년 1~9월 1만4678개의 딥페이크 영상을 발견했다. 그중 96%가 포르노 영상이다.
더 놀라운 사실은 딥페이크 포르노 피해자 중 한국인이 많다는 점이다. K-팝 여자가수를 합성한 포르노 비율이 25%에 달한다. 가장 많은 피해를 본 영미계 여배우(46%) 다음으로 많은 수치다.
딥페이크? AI가 만들어낸 가짜 정보
마크 저커버그 페이스북 창업자는 딥페이크 기술 악용을 막는 일에 앞장서고 있다(왼쪽). K팝 스타 등 연예인을 대상으로 딥페이크 영상을 제작해 주는 사이트. [Flickr, 사이트 캡쳐]
딥페이크 구현 방식은 두 갈래로 나뉜다. 첫 번째 방법은 기존 제작물에 K-팝 가수 등 구현 대상을 합성하는 것이다. 두 번째 방법은 구현 대상의 행위 데이터를 기반으로 합성 없이 새로운 영상을 만들어내는 것이다.
딥페이크 포르노에서는 합성 방법이 더 많이 활용된다. 딥페이크 대상으로부터 눈, 코, 입 등 정보와 음성 높낮이 등을 추출해 합성한다. 추출 단계에서 구현 대상의 수많은 데이터를 AI가 학습한다.
추출한 데이터를 합성할 때 사용하는 알고리즘은 ‘생성적 대립 신경망(GAN)’이다. GAN은 생성 모델과 판별 모델이 경쟁하면서 정확도를 높이는 기계학습 알고리즘의 일종이다. 생성 모델은 쉴 새 없이 합성물을 만들어내고 판별 모델은 빠른 속도로 생성물의 정확도를 파악한다. 생성 모델이 판별 모델을 완벽하게 속일 때까지 기계학습이 이어진다. 이런 과정을 거치다 보니 사람의 눈에는 딥페이크 영상이 사실로 보일 수밖에 없다.
딥페이크 대상과 기존 자료를 합성하지 않는 방식은 대상의 특징을 추출해 새로운 데이터를 만들어내는 것이다. 최근 유행하는 것으로 ‘음성합성’이 있다. 글자를 입력하면 사용자가 원하는 음성으로 텍스트를 읽어준다. “철수 씨 사랑해요”라는 텍스트를 여배우의 음성으로 들을 수 있다. 일례로 SKT는 유명인 목소리를 접목한 알람 서비스 ‘셀럽’ ‘에스엠타운 스케줄’ 등을 제공하고 있다.
‘영상합성’ 기술도 있다. 머니브레인은 2019년 7월 얼굴 영상합성 기술을 공개해 주목받았다. 필자가 전시회에서 이 기술의 시연을 관람했는데 주의 깊게 살펴보지 않고서는 ‘가짜’ 여부를 분간하기 어려웠다.
딥페이크 기술은 나날이 발전한다. 지난해 5월 시각디자이더 도그 로블이 자신의 행동과 표정을 캐릭터에 곧바로 반영하는 기술을 선보였다. 로블이 특정 표정과 동작을 지으면 영상 속 인물이 그대로 따라 하는 방식이다.
딥페이크의 명과 암
도널드 트럼프 미국 대통령을 비난하는 버락 오바마 전 대통령의 딥페이크 영상. [유튜브 캡쳐]
문제는 딥페이크 기술을 악용하는 이들이 있다는 점이다. 딥페이크는 개발 소스가 공개돼 있다. 누구나 딥페이스랩(DeepFaceLab), 페이스스왑(Faceswap) 등을 활용해 딥페이크 기술을 구현할 수 있다. 사용자가 지목한 사진을 딥페이크를 통해 누드로 변경하는 애플리케이션이 출시돼 논란이 인 적이 있는데 오픈소스를 활용해 앱을 만든 것이다.
딥페이크 기술에 접근하기가 쉬운 까닭에 이를 이용한 범죄는 더욱 늘어날 것으로 보인다. 인터넷 익명 공간인 딥 웹(DeepWeb)이 악용돼 범죄 공간인 다크웹(Darkweb)을 탄생시킨 것처럼 말이다.
딥페이크가 위험한 이유는 첫째, 앞서 언급했듯 누구나 쉽게 악용할 수 있어서다. 컴퓨터 프로그램을 다룰 줄 안다면 청소년도 딥페이크 서비스를 개발할 수 있다. 둘째, 사소한 악용만으로도 사회적으로 큰 혼란을 가져올 수 있다는 점이다. 일례로 대통령의 가짜 연설 등이 유튜브를 통해 삽시간에 번질 수 있다.
지난해 2월 세계 석학 26명은 ‘AI의 악용 : 전망, 방지 및 대응(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation)’ 보고서에서 딥페이크가 정치적으로 악용될 수 있음을 경고하기도 했다.
2018년 4월 미국 콘텐츠 제작사인 버즈피드가 위험성을 경고하고자 딥페이크 영상을 유튜브에 올렸다. 이 영상에는 버락 오바마 전 미국 대통령이 도널드 트럼프 대통령을 비난하는 모습이 담겨 있었다. 버즈피드는 영상 끝부분에 이 영상이 딥페이크로 조작된 것임을 밝혔다. 딥페이크를 이용해 사회 혼란을 일으킬 수 있음을 실제로 보여준 것이다.
현실 세계에서 딥페이크 영상이 사회적 파문을 일으킨 적도 있다. 마테오 렌치 전 이탈리아 총리가 다른 사람을 모욕하는 딥페이크 영상이 나돌았으며 2018년 멕시코에서는 대통령 후보를 깎아내리기 위한 딥페이크 영상이 온라인에 게시됐다.
‘믿을 영상물이 사라지고 있다’
블록체인 기술을 영상 진위 판단에 활용할 수 있다. [Piqsel]
페이스북은 지난해 10월부터 올해 3월까지 1000만 달러(120억 원)를 투입해 ‘딥페이크 탐지 대회(DFDC)’를 열었다. 참가자는 페이스북이 제공한 데이터를 활용해 딥페이크 이미지를 찾는 경연을 벌였다. 아마존이 이 대회 참가자들에게 아마존웹서비스(AWS) 이용권 100만 달러를 제공했으며 마이크로소프트(MS), 파트너십온AI도 동참했다.
구글 또한 딥페이크 탐지 방법과 관련한 연구를 진행하고 있다. 구글은 자신들이 모은 데이터를 다른 기관의 딥페이크 탐지 연구를 위해서도 제공한다. 눈 깜빡임의 부자연스러움을 파악하는 방식 등 탐지 기술도 진화하고 있다. 최근에는 블록체인의 무결성 기능을 활용해 영상 자료 조작 여부를 탐지하는 방법도 고안됐다.
이렇듯 딥페이크 악용 방지 연구가 활발히 진행되고 있으나 아직은 갈 길이 멀다. 방패가 진화할수록 창도 진화한다. 앞서 GAN에서 살펴봤듯 더 우수한 판별 알고리즘이 더 정확한 딥페이크 결과물을 만들어낸다.
눈 깜빡임의 부자연스러움을 통해 진위를 파악하는 기술을 뉴욕주립대가 논문으로 발표하자 해커들이 곧바로 보완 기술을 마련했다. 게임이론(경쟁 상대의 반응을 고려해 자신의 최적 행위를 결정해야 하는 상황에서 의사결정 행태를 연구하는 경제학 및 수학 이론)처럼 서로가 서로를 자극해 진화하는 창과 방패의 싸움인 것이다.
세계 각국이 아직까지는 딥페이크 탐지에만 집중하는 모습이다. 딥페이크 포르노를 생각해 보자. 탐지가 중요할까. 배포 방지가 더 중요할까. 배포자가 누구인지 밝혀내 검거하는 게 무엇보다 필요하다. “세상에 믿을 놈 없다”는 말이 있다. 과장해서 말하면 디지털 세계에서 ’믿을 영상물이 사라지고 있다’.