배워봅시다
HOME 뒤로
검색 분류
블로그 전송 카페 전송 밴드 전송 카카오스토리 전송 페이스북전송 트위터전송
딥러닝과 만난 가짜, 딥페이크(Deepfakes)
딥러닝과 만난 가짜, 딥페이크(Deepfakes)
“여러분 개개인의 성적 판타지를 충족시키기 위해 최첨단 기술을 이용한 서비스를 제공합니다.” 지난 8월, 미국 포르노 회사 너티 아메리카가 ‘딥페이크(Deepfakes)’ 기술을 이용한 유료 서비스를 출시하며 내놓은 선전 문구다. 해당 서비스는 고객이 원하는 인물 이미지를 성인 영상물에 감쪽같이 합성해 마치 해당 인물이 성행위를 하는 것처럼 편집해주는 서비스로, 출시와 함께 논란의 한 가운데 섰다. 딥페이크 기술의 상업화가 본격적으로 시작됐다는 신호탄이었기 때문이다.
딥페이크가 뭐길래딥페이크는 ‘딥러닝(deep learning)’과 가짜를 뜻하는 ‘페이크(fake)’의 합성어로, 인공지능(AI)을 이용해 인물 이미지를 영상에 감쪽같이 합성하는 기술을 뜻한다. 딥페이크를 이해하기 위해서는 '딥러닝'을 이해해야 한다. 딥러닝은 심화신경망(depp neural network)을 활용한 기계학습의 한 방법론이다. 컴퓨터에 학습 데이터를 입력하면 컴퓨터가 데이터를 스스로 분류하고 공부한다. 이 기술은 이미지 검색, 음성 검색, 기계번역 등 다양한 분야에 활용할 수 있다. 일찍이 지난 2014년 가트너가 딥러닝을 주목해야 할 기술로 선정했을 정도로 유망한 기술 분야로 손꼽히고 있다.
딥페이크는 딥러닝을 이용해 영상 속 인물의 입 모양, 표정, 목소리 등을 진짜처럼 구현한다. 중국의 <신화통신>은 최근 인공지능(AI) 아나운서를 선보였는데, 이 AI 아나운서를 만들기 위해 쓰인 기술이 딥페이크다. AI 아나운서는 보도 내용에 맞는 입 모양, 표정을 지으며 뉴스를 보도한다. 진짜 아나운서와 다를 게 없어 보이지만 영상 속 이미지는 모두 딥페이크로 구현한 허구다. 문제는 딥페이크가 새로운 보도 방법으로 이용되는 식의 긍정적인 시도에만 쓰이지 않는다는 것이다. 오히려 악용되는 사례가 더 많다.

‘진짜 같은 가짜 영상’의 시대딥페이크는 여러모로 악용될 소지가 다분하다. 온라인에는 유명 연예인의 얼굴을 성인 동영상에 합성한 딥페이크 영상이 무수히 떠돌고 있다. 연예인의 초상권과 인권을 심각하게 침해한 영상이다.
앞서 언급한 너티 아메리카가 내놓은 딥페이크 서비스는 일반인도 딥페이크 성인물의 피해자가 될 수 있다는 것을 보여준 단편적인 예다. 미국의 IT 전문 매체 <더버지>는 해당 서비스를 보도하며, 고객이 영상 합성을 의뢰한 인물이 해당 사실을 인지하고 있을 지도 확인되지 않은 상황에서, 해당 이미지 사용에 대한 합의가 된 사진인지 혹은 안 된 사진인지 어떻게 알 수 있냐고 꼬집었다. 자신도 모르는 사이 내 얼굴이 포르노에 합성돼 소비되는 상황이 언제든 벌어질 수 있고, 이를 통해 돈을 버는 회사가 있는 것이다. 수많은 해외 매체는 ‘딥페이크가 접목된 미래의 포르노는 끔찍할 것’이라고 논평했다.
딥페이크 피해 사례는 정치권에서도 왕왕 생긴다. 지난 7월 버락 오바마 전 미국 대통령이 도널드 트럼프 현 대통령을 향해 독설을 내뱉는 영상이 온라인에 유포돼 논란이 된 바 있다. 영상 속 오바마 전 대통령은 단호한 표정과 제스처로 트럼프 대통령에게 “쓸모없는 인간(complete dipshit)”이라고 말한다.
해당 영상은 오바마 전 대통령의 얼굴과 목소리를 감쪽같이 합성한 가짜 영상이었다. 하지만 딥페이크를 알지 못하는 일반인은 해당 영상을 충분히 진짜로 받아들일 정도로 감쪽같이 자연스러웠다. AP통신 등 외신들은 해당 영상을 보도하며 ‘가짜 뉴스’의 위력을 뛰어넘는 딥페이크가 정치권에 큰 문제를 초래할 수 있다고 경고했다. 바야흐로 진짜 같은 가짜 영상이 판치는 사회가 올 수 있는 것이다. '백문이 불여일견'이라는 말이 있듯이 시각 콘텐츠인 영상 콘텐츠는 텍스트 등 다른 유형의 콘텐츠보다 압도적인 신뢰를 준다. 그 자체가 시각적인 증거로 인식되기 때문이다. 이런 까닭에 딥페이크 영상은 영상 콘텐츠가 가진 신뢰를 등에 업고 큰 피해를 야기할 수 있다.

딥페이크 영상 앞의 저작권, 초상권, 인권오바마 전 미국 대통령이 독설을 내뱉는 영상, 유명 연예인의 얼굴이 합성된 딥페이크 포르노 영상들은 모두 당사자의 협조나 허락 없이 만들어진 영상이다. 이같이 당사자의 허락 없이 딥페이크 영상이 제작, 유포될 경우 저작권 및 초상권 침해가 발생한다. 또 나아가 심각한 인권 침해로 이어진다. 정치인의 얼굴과 목소리를 합성한 가짜 영상의 경우 영상 속 조작된 메시지로 인한 증오 범죄, 사회적 분란 등 문제가 발생할 가능성도 있다.
딥페이크 영상을 만드는 것은 생각보다 쉽다. 프로그래밍 지식이 없어도 딥페이크 영상을 만들 수 있게 해주는 애플리케이션인 페이크앱(FakeApp)까지 등장했다. 하지만 딥페이크 영상으로 인한 피해를 막을 기술적, 사회적 대책은
미비한 수준이다.
“딥페이크 포르노는 현재 해외 유명 포르노 사이트에 버젓이 게재돼 있습니다. 이로 인해 해당 영상의 당사자에 대한 허위 사실 유포, 인권 침해 등이 우려됩니다. 딥페이크 포르노 제작 및 유포자 처벌을 위한 대책 마련이 시급합니다.” 지난 2월 청와대 국민청원 및 제안 페이지에 올라온 내용이다. 청원자는 딥페이크 영상이 심각한 인권 침해를 야기할 수 있지만, 이를 방지할 대응책은 미비하다고 지적했다.

딥페이크 악용 방지를 위한 논의현재 딥페이크 영상으로 인한 피해를 방지하기 위한 여러 방법이 논의되고 있다. 크게 기술적으로 악의적인 딥페이크 영상을 차단할 방법을 고안하는 것과 딥페이크 영상으로 인한 가짜 뉴스의 범람에 대비해 미디어 리터러시 수준을 높이자는 두 가지 접근법이 있다.
최근 경찰청과 과학기술정보통신부는 ‘과학치안 아이디어 공모전’을 열어 딥페이크 범죄를 근절할 아이디어를 받았다. 총 350건이 넘는 아이디어가 접수됐는데, 이들 중 사진이 딥페이크에 악용되지 않도록 필터를 씌우는 아이디어가 최우수상을 수상했다. 이같이 딥페이크를 악용한 범죄를 방지하기 위한 기술적 논의가 조금씩 이뤄지고 있다.
미디어 리터러시 교육은 기술의 발전으로 식별 불가능한 가짜 정보가 범람하게 된 시대에 걸맞는 미디어 교육이 필요하다는 데서 출발한다. 아직 가짜 뉴스 문제도 해결하지 못한 미디어 영역에 딥페이크라는 더 강력한 가짜 정보가 나타나 더욱 큰 과제를 안겨준 상황이다. 딥페이크 악용에 대한 경각심이 조금씩 생기고 있지만, 그 속도와 실질적인 대책은 딥페이크 악용 사례가 퍼지는 속도보다 훨씬 느린 실정이다. 딥페이크 기술을 무분별하게 상용화한 서비스는 빠르게 돈벌이 수단으로 자리잡고 있다. 딥페이크 악용 사례를 막기 위한 기술적, 제도적, 교육적 대책이 동시에 마련돼야 한다.

글 _ 한수연 코인데스크코리아 기자
TOP
구독하기
top top
지난호 보기

X
검색하기

X