오픈AI ‘소라’ 등 초현실적 영상 생성기 확산, 시각적 증거의 종말 예고하며 사회적 혼란 우려 증폭
챗GPT 개발사 오픈AI(OpenAI)가 최근 공개한 인공지능(AI) 영상 생성 앱 ‘소라(Sora)’가 전 세계에 충격을 주고 있다. “코스트코에서 립아이 스테이크를 훔치다 체포되는 개의 경찰 보디캠 영상”과 같은 간단한 문장만 입력하면 순식간에 현실과 구분하기 어려운 영상을 만들어내는 이 기술은 재미와 동시에 심각한 우려를 낳고 있다. 소라의 등장은 ‘보는 것이 곧 증거’였던 시대의 종말을 예고하며, 이제 우리는 눈앞의 영상조차 의심해야 하는 ‘가짜의 시대’에 들어섰음을 의미한다.
소라 출시 이후 소셜미디어에는 비행기에 탄 너구리나 일본 애니메이션 스타일로 싸우는 유명인 등 기발한 영상들이 공유되며 화제를 모았다. 그러나 한편에서는 일어나지 않은 범죄의 가짜 CCTV 영상처럼 허위 정보 확산을 위해 악용되는 사례도 속출하고 있다. 구글(Google)과 메타(Meta) 역시 유사한 AI 영상 생성기를 내놓으면서, 영상이 객관적 현실을 기록하는 도구라는 개념 자체가 흔들리고 있다. 과거에는 사진이 현실의 증거였지만 이미지 조작이 쉬워지자 조작이 더 어려웠던 영상이 그 자리를 대신했다. 하지만 이제 그 마지막 보루마저 무너진 것이다.
UC 버클리(University of California, Berkeley)의 렌 응(Ren Ng) 컴퓨터 과학 교수는 우리의 뇌가 보는 것을 믿도록 강력하게 설계되어 있지만, 이제는 잠시 멈춰서 눈앞의 영상이 실제 세상에서 일어난 일인지 생각하는 법을 배워야 한다고 경고했다. 소라의 파급력은 할리우드에도 미치고 있다. 여러 영화와 캐릭터의 저작권을 침해했다는 우려가 제기되자, 샘 알트만(Sam Altman) 오픈AI 최고경영자는 저작권자에게 캐릭터 생성 통제권을 부여하고 수익 창출 경로를 마련하겠다고 밝혔다.
문제는 이러한 기술이 범죄에 악용될 소지가 다분하다는 점이다. 실제로 한 사용자는 소라를 이용해 보험 사기에 사용될 수 있는 가짜 대시보드 카메라 영상을 손쉽게 제작했으며, 특정인을 비방하는 가짜 뉴스 방송이나 근거 없는 건강 정보를 담은 영상도 만들 수 있었다. 오픈AI는 성적 이미지나 테러 선전물 생성을 막는 제한 조치를 두고 워터마크를 삽입하는 등 안전장치를 마련했다고 밝혔지만, 사용자들이 워터마크를 잘라내는 등 우회 방법을 쉽게 찾아내고 있어 실효성에 의문이 제기된다. 전문가들은 AI 기술이 빠르게 발전하고 있어 가짜 영상을 구별하는 방법은 금세 무용지물이 될 것이라며, 틱톡이나 인스타그램 같은 앱 사용을 중단하는 것이 가장 확실한 방법일 수 있다고 조언했다.




