'딥페이크'와 플랫폼의 책임 공방
[스페셜리스트 | IT·뉴미디어] 김익현 지디넷코리아 미디어연구소장
2016년 미국 대선의 이슈는 ‘가짜 뉴스(fake news)’였다. 언론사 뉴스를 가장한 허위 뉴스가 생각보다 많이 유포된 때문이었다. 선거가 끝난 이후 구글, 페이스북 등은 연이어 가짜뉴스 대책을 내놨다.
4년 만에 치러지는 내년 미국 대선에선 더 무서운 것이 기다리고 있다. ‘페이크 뉴스’에서 한 발 더 나간 ‘딥페이크’가 바로 그것이다. 인공지능 기술인 딥러닝과 ‘페이크(fake)’의 합성어인 딥페이크는 교묘하게 조작된 가짜 영상을 의미하는 말이다. 인공지능 기술 덕분에 ‘진짜보다 더 진짜 같은’ 가짜 영상을 손쉽게 만들어낼 수 있게 됐다.
딥페이크가 초래할 문제는 상상을 초월한다. 팽팽한 선거전이 조작된 영상 때문에 엉뚱한 방향으로 튈 수도 있기 때문이다. 교묘하게 조작된 영상이 선거 결과를 뒤바꿔놓을 우려도 배제할 수 없다. 그 정도까진 가지 않더라도 딥페이크 공방이 다른 모든 정책 이슈를 묻어버릴 우려도 있다.
딥페이크가 이슈로 떠오르면서 페이스북 같은 플랫폼 사업자의 책임 문제가 다시 도마 위에 올랐다. 최근 불거진 낸시 펠로시 미국 하원 의장 딥페이크가 대표적이다. 펠로시 의장이 술에 취해 횡설수설하는 가짜 영상이 유포되자 민주당 측은 페이스북에 가짜 영상 차단을 요청했다. 하지만 페이스북은 이 요청을 묵살했다. “페이스북에 올라온 정보가 반드시 진실이어야 한다는 규정은 없다”는 게 그 이유였다.
물론 페이스북의 입장은 한결같다. 플랫폼 사업자는 중립적이어야 한다는 기본 원칙을 견지하고 있다. 창업자인 마크 저커버그를 소재로 한 딥페이크에 대해서도 ‘차단불가’ 원칙을 적용했다. 이런 고집이 가능한 건 플랫폼에 많은 책임을 묻지 않는 법 덕분이다.
미국에선 통신품위법이 플랫폼 사업자의 책임 문제를 규정하고 있다. 이 법 230조에는 인터넷 기업들은 제3자가 올리는 유해물에 대해 법적인 책임을 지지 않는다고 규정돼 있다.
그런데 최근 들어 미국에선 이 조항을 개정해야 한다는 주장이 힘을 얻고 있다. 딥페이크에 좀 더 적극적으로 대응하기 위해선 플랫폼에 강한 책임을 물어야 한다는 게 기본 논리다. 대표적인 것이 메릴랜드대학 법학과의 다니엘 시트론 교수다. 시트론 교수는 지난주 미국 하원 청문회에서 “통신품위법 230조 때문에 플랫폼 사업자들이 파괴적인 딥페이크에 적극 대응할 유인을 느끼지 못한다”고 강조했다.
물론 플랫폼 사업자에게 좀 더 강력한 책임을 요구하는 게 간단한 문제는 아니다. 자칫하면 과도한 규제로 이어질 수 있기 때문이다. 하지만 ‘딥페이크 폭탄’을 앞에 놓고 ‘플랫폼 사업자의 중립성’ 만을 주장하는 것이 한가해 보일 수도 있다.
과연 플랫폼은 어디까지 책임을 져야 할까? ‘허위 영상 차단’과 ‘표현의 자유’란 두 개의 상반된 가치 중 어떤 쪽에 더 무게를 둬야 할까? 딥페이크와 함께 플랫폼 책임 논쟁이 담고 있는 이 질문에 어떤 답을 내놓을지 관심이 쏠리고 있다.
김익현 지디넷코리아 미디어연구소장의 전체기사 보기
Copyright @2004 한국기자협회. All rights reserved.