[월요칼럼] 믿을 수 없는 사회

  • 이창호
  • |
  • 입력 2023-08-07 07:09  |  수정 2023-08-07 07:10  |  발행일 2023-08-07 제23면

2023080601000154800005761
이창호 논설위원

"엄마, 보고 싶었어요." "아들아~" 아들은 웃었고, 어머니는 울었다. 얼마 전 국방TV가 공개한 영상의 잔상이 쉽사리 사라지지 않는다. 영상 속 아들은 지금 이 세상에 없다. 그는 16년 전 순직한 공군 파일럿이다. 이른바 '인공지능(AI) 딥페이크(deepfake·인간 이미지 합성)' 기술을 통해 가상인간으로 부활해 어머니와 만난 것. 딥페이크인 걸 미리 알고 봐도 가슴 뭉클한 감동을 숨길 수 없었다. 고인이 된 유명 가수·탤런트도 이 기술에 의해 부활해 팬들 앞에 선 적이 있다. 이만하면 우리 인간보다 더 휴머니즘적인 AI다. 논란의 소지가 없지 않지만, 평범한 우리네 장례식·기일 제사에도 고인이 이렇게 소환돼 자식들과 회포를 풀 날이 머지않은 것 같다. 상상을 현실로 만들어 준다는 AI 아닌가.

학습효과가 덜 돼서일까. 불민(不敏)해서일까. 감쪽같이 속은 게 있다. 리오넬 메시의 기자회견 영상에 당했다. 한 중국 기자가 "이강인 파리 생제르맹 입단이 마케팅용이라고 생각하느냐"고 물었다. 이에 메시가 "중국은 존중이라고는 없는 나라"라고 일침을 날렸다. 대한민국 선수를 감싸주는 워딩이다. 중국 기자의 무례함(2011년 중국 기자가 허재 농구 감독에게 "한국 선수들은 왜 오성기를 향해 서지 않냐"고 물은 일)을 익히 알고 있었던 터였다. 제 버릇 개 못 주는 질문쯤으로 여겼다. 한동안 이 영상을 믿었다. 나중 보도를 통해 알게 됐다. 엉터리 자막을 입혀 편집한 가짜 영상이라는 것을. 기막힐 만큼 진짜 같다. 같은 질문의 일본 기자 버전(음바페 회견 영상)도 'AI 딥보이스(deepvoice·음성합성기술)'로 만들어진 조작 영상이었다. 가짜든 진짜든, 뭔 대수라고. 그냥 웃고 넘길 B급 페이크로 치부하면 될 영상이다.

그러나 뒷맛이 개운치 않다. '믿을 수 없는 사회'에 살고 있다는 섬뜩함이다. 더 큰 문제는 AI가 범죄에 악용되고 있는 점이다. 특정인의 얼굴을 알몸 사진·영상과 합성해 성착취물을 만들어 퍼뜨린다. 걸그룹 가수도 피해를 봤다. 눈 뜨고 코 베인다는 게 이런 거다. 이것만 보면 딥페이크와 딥보이스는 현대문명의 총아가 아니다. 괴물로 크고 있는 녀석들이다.

뭐든 정치와 엮이면 탈이 나는 법. AI도 그렇다. 가짜뉴스 양산의 도구로. 국내외를 막론한다. 최근 조 바이든 미국 대통령이 치매 관련 책을 고르는 영상이 SNS에 떴다. 조작 영상이다. 내년 대선을 앞두고 그의 아킬레스건인 건강 문제를 건드린 것. 우리에겐 내년 총선이 걱정이다. 이미 지난해 지방선거 때 '윤석열 대통령이 특정 후보를 지지하는' 거짓 영상이 나돌아 논란이 됐다. 여론 조작에 AI 만 한 게 또 있을까 싶을 정도다. 진짠지 가짠지 분간하기 힘든 거짓 영상(선거 후보자 언행 조작 등)이 전방위로 퍼진다면 큰일이다. 유권자의 판단을 흐려 놓는다. 결국엔 선거판을 난장판으로 만든다.

총선이 다가올수록 정치권은 이전투구에 빠져들 게 뻔하다. 그러는 사이 딥페이크 등 영상은 하루가 다르게 교묘히 진화할 것이다. 기상천외한 거짓 영상이 출현할 것은 불문가지다. 전문가도 혀를 내두를 만큼. 관련 규제를 담은 공직선거법 개정안은 잠만 자고 있다. 국회의원들이 손 놓고 있는 이유가 뭔지. 자기들과 관계된 일인데도 말이다. 믿을 수 없는 사회, 우리 유권자가 눈을 더 부릅떠야 할 판이다. 출처가 불분명한 영상은 의심부터 하자.

이창호 논설위원

영남일보(www.yeongnam.com), 무단전재 및 수집, 재배포금지

오피니언인기뉴스

영남일보TV





영남일보TV

더보기




많이 본 뉴스

  • 최신
  • 주간
  • 월간