닫기

[칼럼] 민주주의 위협하는 딥페이크

기사듣기 기사듣기중지

공유하기

닫기

  • 카카오톡

  • 페이스북

  • 트위터 엑스

URL 복사

https://share.asiatoday.co.kr/kn/view.php?key=20240926010014883

글자크기

닫기

 

승인 : 2024. 09. 26. 17:59

2024081201001049100063861
박재형 (재미 정치학자)
기존 이미지나 동영상 속 인물을 다른 사람의 모습으로 바꿔치기한 인공지능(AI) 합성 미디어 딥페이크(Deep Fake) 문제가 세계적인 골칫거리로 떠올랐다. 기술의 급속한 발달과 보급으로 전문적인 지식 없이도 누구나 스마트폰 앱으로 간단히 딥페이크 영상을 만들 수 있다. 딥페이크로 유명 연예인 등 다른 사람의 얼굴을 합성해 음란물을 만들어 유포하다가 적발되는 것은 이제 바로 우리 주변에서 일어나는 일이 됐다.

한국에서는 최근 딥페이크 음란물이 사회 문제화되며 정부와 정치권이 대책 마련에 나섰다. 하지만 딥페이크 문제는 이미 여러 해 전부터 다른 분야보다 특히 선거 등 정치에 악용되며 그 심각성이 알려졌다. 사람이 직접 행동하거나 말하는 모습을 담은 동영상이나 이미지는 텍스트보다 더 강력한 영향력을 발휘한다. 이 때문에 딥페이크는 잘못된 정보를 퍼뜨리는 강력한 도구로 정치에 악용될 수 있기 때문이다.

소셜미디어 엑스(구 트위터)의 소유주 일론 머스크 테슬라 최고경영자(CEO)는 엑스에 민주당 대선 후보 카멀라 해리스의 딥페이크 영상을 공유했다가 문제가 되자 삭제했다. 해리스처럼 들리는 목소리로 "조 바이든이 마침내 토론에서 자신의 노망을 드러냈다"고 말하는 영상이었다. 미국 대통령 선거 공화당 후보인 도널드 트럼프 전 대통령은 인기 최고의 팝스타 테일러 스위프트가 자신을 지지한다는 가짜 사진을 소셜미디어에 올리기도 했다.

AI를 이용한 잘못된 정보는 전례 없는 규모와 속도로 가짜 뉴스를 생성하고 전파함으로써 현실과 허위 사이의 경계를 모호하게 만들 수 있다. 가짜 뉴스는 여론을 조작하고 사회 불안을 조장하며 선거에 개입하고 국가 안보까지 위협할 수 있는 강력한 무기가 될 수 있다. 또한 AI와 머신러닝 기술의 급속한 발전은 AI를 이용한 잘못된 정보가 앞으로 더욱 정교해지고 탐지하기 어려워질 것임을 의미한다. 따라서 이러한 현상과 그 의미, 그리고 이에 대응하는 방법을 이해하는 것이 필수적이다.
딥페이크의 위험성은 그럴듯하게 보이지만 완전히 조작된 현실을 만들어낼 수 있는 잠재력에 있다. 딥페이크는 공인을 사칭하거나 허위 증거를 만들거나 오해의 소지가 있는 뉴스와 선전을 생산하는 데 사용될 수 있다. 따라서 딥페이크의 악용은 프라이버시, 대중의 신뢰, 디지털 커뮤니케이션의 전반적인 무결성, 나아가 민주주의 정치 체제에까지 중대한 위협이 된다.

정치적 목적을 위해 잘못된 정보를 사용하는 것은 정치의 역사만큼이나 오래됐다. 새로운 기술 트렌드는 잠재적으로 역사적으로 혁신적인 변화를 가져올 수 있다. 이러한 발전 중 하나는 생성형 적대적 네트워크 및 확산 모델과 같은 AI 기술의 발달로 인해 디지털 방식으로 변경되거나 조작된 오디오, 이미지 또는 동영상을 제작하는 새롭고 정교한 방법인 딥페이크의 등장이다.

인기 소셜미디어 플랫폼에서 트렌드로 자리 잡은 이러한 모델의 광범위한 접근성은 정보의 오용 및 조작 가능성에 대한 우려를 불러일으켰다. 이에 따라 디지털 미디어에서 허위 정보와 속임수의 확산에 맞서기 위한 강력한 탐지, 검증, 디지털 이해력 및 거버넌스 노력의 필요성이 더욱 강조된다. 한 조사에서는 응답자의 90%가 변조된 동영상과 이미지가 혼란을 야기한다고 답했다. 뉴스 미디어와 기술 전문가들은 콘텐츠의 진위 여부를 확인하는 데 심각한 어려움을 겪고 있다. 정치인들도 이에 대한 경각심을 높이고 입법 활동을 촉구하는 등 딥페이크와 AI가 생성한 텍스트 기반 허위 정보를 둘러싼 우려가 사회에 퍼져나가고 있는 상황이다.

허위 정보를 생산, 확산하는 AI의 오용은 개인의 진실 분별력뿐만 아니라 사회적 안정과 민주적 절차를 위협한다는 점에서 심각한 우려를 낳고 있다. AI 기술이 계속 발전함에 따라 AI가 주도하는 가짜 뉴스와 허위 정보를 탐지하고 대응할 수 있는 강력한 시스템과 전략을 개발하는 것이 무엇보다 중요하다.

일례로, 올해 2월 미국 연방통신위원회(FCC)는 로보콜(자동 녹음 전화)에 AI가 생성한 딥페이크를 사용하는 것을 불법으로 규정했다. 이는 민주당 대선 후보 경선 당시 일부 지역 유권자들에게 바이든 대통령을 흉내 낸 목소리로 주 예비선거에 투표하지 말라고 하는 로보콜이 발송된 후 나온 대응책이다. FCC가 잘못된 정보를 유포하는 등 사기를 위해 누군가 사칭하는 음성 복제 기술의 오용에 대해 직접 나선 것이다.

AI이 더욱 정교해지고 컴퓨터 이용 비용이 지속적으로 하락함에 따라, 온라인 정보 환경에서 딥페이크가 제기하는 도전은 더욱 거세질 전망이다. 이러한 도전에 대처하기 위해 정부와 정치권은 이 기술의 작동 방식과 사용될 수 있는 무수한 방법을 훨씬 더 잘 이해해야 한다.

딥페이크는 국가적으로 중요한 정보를 위조하고, 대중과 정부에 혼란을 조장하며, 사회적 혼란을 초래하는 행위에 정당성을 부여하는 등 다양한 목적으로 활용될 수 있다. 이러한 전술이 장기적으로 실패할 수 있다는 것을 알면서도 당장 효과를 노리는 세력들에 의해 끊임없이 이용된다. 특히 대통령 선거 등 중요한 선거를 앞둔 시기에는 더욱 기승을 부린다.

민주주의 국가의 정책 결정자와 공무원에게 딥페이크는 특히 어려운 문제다. 민주 사회에서 신뢰할 수 있는 정보 환경의 중요성을 고려할 때, 민주 정부는 일반적으로 이러한 신뢰를 약화할 수 있는 딥페이크에 대해 철저히 경계해야 한다. 그럼에도 불구하고 미국, 한국 등 민주주의 국가들에서는 이를 정치적 목적에 악용하는 사례가 급증하는 중이다. 특히 온라인이라는 특성상 이는 어느 특정 국가만의 문제가 아닌 국제 문제가 되고 있다.

따라서 각국은 기존의 국제 규범과 선례를 바탕으로 딥페이크에 대한 공동의 대응책을 마련하는 것을 고려할 필요가 있다. 이 과정에서 첨단 AI 기술 활용을 무조건 억제하는 것이 아닌 그것의 이점이 위험보다 더 큰 경우를 판단하는 것도 중요하다. 다양한 정부 기관 및 기업 등 이해관계자의 관점을 통합함으로써 기술의 책임감 있는 사용을 보장할 수 있어야 한다.

※본란의 칼럼은 본지 견해와 다를 수 있습니다.

박재형 재미 정치학자

ⓒ 아시아투데이, 무단전재 및 재배포 금지

기사제보 후원하기

댓글 작성하기