
최근 인공지능 기술의 발전은 놀라운 혁신을 이뤄내고 있지만, 동시에 그 그림자도 커지고 있습니다. 영상과 음성을 정교하게 조작할 수 있는 '딥페이크(Deepfake)' 기술은 장난을 넘어 사회적 혼란과 경제적 피해를 초래하고 있습니다. 2025년 11월 6일, 버크셔 해서웨이가 발표한 "그건 제가 아닙니다(It's Not Me)"라는 경고문은 AI를 악용한 허위 정보의 심각성을 단적으로 보여줍니다. 본 글에서는 워렌 버핏 사례를 중심으로 딥페이크가 왜 위험한지, 그리고 우리는 어떤 대응책을 마련해야 하는지를 구체적으로 살펴봅니다.
버크셔의 긴급 경고와 딥페이크의 실태
2025년 11월 6일 목요일, 버크셔 해서웨이는 "It's Not Me(그건 제가 아닙니다)"라는 제목의 긴급 보도자료를 발표했습니다. 유튜브에 AI로 생성된 워렌 버핏의 가짜 이미지와 음성을 사용한 여러 영상이 유포되고 있으며, 버핏이 실제로 한 적 없는 발언들이 담겨 있다는 경고였습니다.
딥페이크는 '딥러닝(Deep Learning)'과 '페이크(Fake)'의 합성어로, 인공지능이 사람의 얼굴이나 음성을 학습해 진짜처럼 위조 영상을 만들어내는 기술입니다. 처음에는 영화나 엔터테인먼트 분야에서 특수효과를 개선하는 용도로 쓰였지만, 최근에는 사기·정치 선전·가짜 뉴스에 악용되는 사례가 급증하고 있습니다.
버크셔가 특별히 지목한 영상은 "Warren Buffett: The #1 Investment Tip For Everyone Over 50 (MUST WATCH)"라는 제목의 동영상으로, 가짜 음성이 투자 조언을 제공하는 형식입니다. 버크셔는 "이러한 영상의 이미지는 버핏처럼 보일 수 있지만, 매우 평평하고 단조로운 목소리로 말하는 소리는 분명히 버핏의 목소리가 아니다"라고 설명했습니다.
95세의 전설적 투자자인 버핏은 그의 시장 통찰력과 '오마하의 현인(Oracle of Omaha)'이라는 별명으로 유명합니다. 버크셔는 "버핏에게 덜 익숙한 사람들은 이러한 영상을 진짜로 믿고 영상 내용에 속을 수 있다"며 "버핏은 이러한 유형의 사기 영상이 확산되는 바이러스가 되고 있다는 점을 우려하고 있다"고 밝혔습니다.
이는 버핏이 처음 겪는 일이 아닙니다. 2024년 10월, 미국 대선 2주 전에도 버핏은 자신이 정치 후보나 투자 상품을 지지했다는 "사기성 주장"에 대해 경고한 바 있습니다. 버핏은 버락 오바마 전 대통령과 힐러리 클린턴 민주당 후보를 지지한 이후 정치적 지지 표명에서 크게 물러났습니다.
허위 정보의 확산 구조와 사회적 영향
AI 딥페이크가 위험한 이유는, 단 한 번의 업로드로 전 세계에 순식간에 퍼질 수 있기 때문입니다. 유튜브나 틱톡 같은 플랫폼은 알고리즘 기반 추천 시스템을 갖고 있어, 자극적인 제목이나 유명 인물이 등장하는 콘텐츠는 쉽게 확산됩니다. 이 과정에서 '가짜 영상'이 '진짜 뉴스'보다 더 빨리 전파되는 현상이 발생합니다.
워렌 버핏 사례처럼, 유명 인물의 명성을 악용한 사기 영상은 대중의 신뢰를 교란하고 금융시장에도 직접적인 혼란을 초래합니다. 일부 투자자들은 허위 영상에 속아 돈을 잃고, 기업은 브랜드 이미지에 손상을 입습니다. 인공지능이 음성과 표정을 완벽히 모사하는 수준으로 발전하면서, 일반 사용자는 이를 식별하기가 거의 불가능해지고 있습니다.
흥미롭게도, 버크셔가 지목한 영상을 올린 계정에는 "이 채널의 음성은 AI로 생성되었으며 개인을 모방하거나 사칭하려는 시도가 아니다"라는 면책 조항이 포함되어 있었습니다. 그러나 이러한 면책 조항이 시청자들을 충분히 보호하지 못한다는 것이 버크셔의 우려입니다.
이러한 허위 정보의 확산은 사회 전반의 '진실 피로(Truth Fatigue)'를 초래합니다. 너무 많은 정보와 거짓 사이에서 사람들은 '무엇이 진실인지' 구분하려는 노력을 포기하게 됩니다. 그 결과, 신뢰 기반의 사회 시스템이 무너지고 민주주의의 근간인 공적 담론이 흔들릴 위험이 커집니다.
피해 예방과 대응 방안
딥페이크의 확산을 막기 위해서는 기술적·법적·개인적 대응이 함께 이루어져야 합니다. 우선 기술적 측면에서는 'AI 탐지 알고리즘'이 꾸준히 개발되고 있습니다. 구글, 마이크로소프트, 메타 같은 기업들은 영상의 픽셀 왜곡, 입술 움직임의 불일치, 음성 주파수 패턴 등 미세한 차이를 분석해 딥페이크를 식별하는 시스템을 강화 중입니다.
법적 대응도 중요합니다. 유럽연합(EU)은 2024년 AI법(AI Act)을 통해 '고위험 인공지능'의 사용을 규제하고 있으며, 한국 역시 'AI 윤리 가이드라인'과 '디지털 신뢰 기반 조성법' 제정을 추진하고 있습니다. 이는 기술 발전의 자유를 보장하되, 사회적 신뢰를 해치는 사용에는 명확한 제재를 가하기 위한 조치입니다.
개인의 인식 변화도 필수적입니다. 영상이나 음성을 접할 때 "이 정보의 출처는 어디인가?" "검증된 채널인가?"를 확인하는 습관이 필요합니다. 버크셔의 경우, 버핏이 2024년 5월 주주총회 이후 공개적으로 발언한 경우가 거의 없었다는 점을 지적하며, 이는 최근 영상들이 가짜임을 판단하는 근거가 될 수 있다고 설명했습니다.
기업이나 공공기관은 딥페이크 피해 사례를 신속히 공유하고, 관련 신고 시스템을 강화해야 합니다. 버크셔는 11월 10일 월요일에 버핏의 자선 활동, 버크셔 및 주주들과 다른 사람들이 관심을 가질 만한 기타 사항에 대한 메시지가 담긴 보도자료를 발표할 예정이라고 밝혔습니다. 이는 버핏이 연말 CEO직에서 물러나고 오랜 부사장 그렉 아벨로 교체되기 전 마지막 메시지가 될 수 있습니다.
AI 기술을 완전히 막을 수는 없지만, '진짜를 구분할 수 있는 시민의식'이야말로 최선의 방어 수단입니다.
워렌 버핏의 가짜 영상은 한 사람의 명예 훼손을 넘어, 사회 전체의 신뢰 기반을 시험하는 사건입니다. AI 기술이 발전할수록 그 윤리적 책임 또한 커집니다. 우리 모두가 기술의 편리함만이 아니라 그 이면의 위험성을 인식하고, 올바른 정보 문화를 만들어가야 합니다. 지금 필요한 것은 기술의 속도를 좇는 경쟁이 아니라, '신뢰를 지키는 속도'입니다.