제60대 미국 대통령 선거를 앞두고, 일부 도널드 트럼프 후보 지지자들이 흑인 유권자의 지지를 얻기 위해 인공지능으로 생성된 가짜 이미지를 유포하여 큰 논란이 되었다. 흑인 유권자들이 트럼프 후보를 둘러싸고 환하게 웃거나 어깨동무하는 등의 가짜 이미지를 만들어, 마치 트럼프 후보가 흑인 유권자에게 큰 인기를 얻고 있는 것처럼 보이도록 내러티브를 조작한 것이다. 이처럼 인공지능은 선거뿐만 아니라 뉴스, SNS, 영상 매체 등 다양한 분야에서 활용되어 잘못된 사실과 정보를 빠르게 유포하고 있다. 과거 연금술사가 흙을 금으로 바꾸려 했다면, 현대의 연금술사라 할 수 있는 인공지능은 진실을 거짓으로, 거짓을 진실로 둔갑시켜 사회에 심각한 혼란을 야기하고 있다.
문제는 이러한 기술의 진화속도는 빛처럼 빠른 데 반해, 인공지능 기술에 기반한 가짜뉴스를 감별하는 대응 체계는 거북이 걸음처럼 느리다는 점이다. AI는 딥페이크와 이미지 생성 기술로 가짜뉴스를 양산한다. 그러나 우리의 대응 체계는 여전히 전문가 판단과 플랫폼 자율규제에 기대고 있다. 이는 마치 첨단 드론 공습에 대항하여 활과 창으로 막으려 하는 것과 같은 격이다. 가짜뉴스의 범람으로 사회의 안정과 진실의 가치가 위협받는 지금, 우리에게도 AI 가짜뉴스에 대항하여 대응 체계의 변화가 불가피하다.
과거의 가짜뉴스가 조악한 합성이나 명백한 거짓으로 허구의 이야기를 퍼뜨리는 수준에 불과했다면, 인공지능 기술로 진화한 가짜뉴스는 차원이 다르다고 할 수 있다. 딥페이크 기술은 특정 인물의 얼굴을 다른 영상에 합성하여 실제로 하지 않은 말과 행동을 조작해낸다. 이미지 생성 기술은 존재하지 않는 사건이나 장면을 묘사한 이미지를 만들거나, 정교하게 조작된 이미지로 실제 현장처럼 시청자를 속여 사회적 혼란을 야기한다. 이제 우리는 우리의 눈조차 믿을 수 없는 지경에 이른 것이다.
이러한 가짜뉴스가 더욱 위험한 이유는 명확하다. 첫째, 탐지의 어려움이다. 최근 과학기술 정보통신부가 '딥페이크 가짜뉴스 대응'을 주제로 디지털 공론장에서 국민 597명을 대상으로 실시한 설문조사 결과에 따르면, 딥페이크 가짜뉴스를 접했다고 답한 응답자(전체의 39%) 중 42%는 그것이 가짜임을 판별하지 못했다고 밝혔다. 이러한 통계 결과는 일반 대중이 얼마나 속수무책으로 가짜 정보에 노출될 수 있는지를 단적으로 보여준다. 둘째, 대량 생산과 유포의 용이성이다. 외신 보도에 따르면 2025년 독일 조기 경선을 앞두고도 AI 가짜뉴스가 범람했다. 독일 전략대화연구소(ISD)는 조기 경선과 관련하여 여론 조작 목적의 조직적 네트워크가 50여 개 이상 활동하고 있다고 발표하기도 했다. 이처럼 인공지능 봇을 통해 대량 생산되어 빠르게 유통되는 가짜뉴스는 당국의 규제나 검열만으로는 감당하기 어려운 실정이다. 선거 기간에는 단순한 가짜뉴스를 넘어서서 디지털 전략 무기로 악용될 가능성이 매우 높다.
앞서 제기한 바와 같이 AI 기술을 이용한 가짜뉴스는 단순한 정보왜곡을 넘어 민주주의와 사회 공동의 안정을 위협하는 심각한 문제로 떠오르고 있다. 특히 인공지능 가짜뉴스는 탐지가 어렵고 대량 생산 및 유포가 용이하기 때문에 기존의 대응 체계만으로는 대응하기가 어려운 것이 현 실정이다. 이와 같은 현실 속에서 우리는 더 이상 인공지능 기술 발전의 그림자를 무시할 수만은 없다.
인공지능 기반 가짜뉴스는 시간이 갈수록 더욱 진화하며 우리 사회의 신뢰와 공론장을 파괴한다. 이는 민주주의의 근간을 흔들고, 나아가 정부 정책이나 과학적 사실까지 조작하여 사회 불신을 키우며 공익을 해침으로써 신뢰와 진실의 가치를 무너뜨린다. 따라서 개인 차원에서 정보 출처 확인, 비판적 사고, 교차 검증 등을 통해 미디어 리터러시 능력을 함양할 필요성이 있다. 동시에, AI 가짜뉴스를 효과적으로 감별하고 대응할 수 있는 법적, 기술적 시스템 마련 역시 시급하다. 이제는 인공지능 가짜뉴스라는 강대한 적에 맞서 낡은 성벽을 허물고 새로운 성벽을 쌓아야 할 시점이다.

