[본문 전체보기]
신뢰의 붕괴 이후, 무엇이 기준이 되는가
워터마크·디지털 인증 기술의 부상
저널리즘의 위기, 검증은 누가 책임지는가
플랫폼 책임과 표현의 자유의 긴장
국가 규제와 글로벌 기술 기업의 힘겨루기
진위 판별 산업의 탄생과 새로운 권력
‘보이는 것’을 믿지 못하는 사회의 미래
◇ “이것은 AI가 만든 것이 아닙니다”... 진짜의 역설
역사상 처음으로, 인간이 자신의 진짜임을 증명해야 하는 시대가 왔다. 사진을 보여주면 “AI 생성 이미지냐”는 질문을 받는다. 글을 쓰면 “AI가 대신 쓴 것 아니냐”는 의심을 산다. 영상에 등장하면 “딥페이크 아니냐”는 시선을 견뎌야 한다. 가짜가 진짜를 흉내 내는 것이 문제였던 시대는 지나갔다. 이제는 진짜가 스스로 가짜가 아님을 증명해야 하는, 뒤집힌 세계가 시작됐다.
이 역설은 AI 기술이 만들어낸 가장 섬뜩한 부산물이다. 신뢰의 출발점이 바뀌었다. 과거에는 어떤 콘텐츠든 진짜로 추정되고, 조작됐다는 증거가 있을 때 가짜로 판명됐다. 이제는 그 반대 방향으로 움직이고 있다. 의심이 기본값이 되는 사회, 그 사회가 어떤 곳인지는 아직 아무도 경험해본 적 없다.
◇ 신뢰의 재설계... 워터마크, 만능인가 미봉인가
기술 업계가 내놓은 대표적 해법은 워터마크다. AI가 생성한 콘텐츠에 육안으로는 보이지 않지만 탐지 도구로 식별 가능한 디지털 흔적을 삽입해 출처를 표시하는 방식이다. 구글, 메타 등 빅테크 기업들이 자사 AI 생성 이미지에 워터마크를 적용하고 있으며, 콘텐츠 출처 인증 표준인 C2PA(Content Provenance and Authenticity) 규격도 확산 중이다.
한국도 2026년 1월 AI 기본법 시행과 함께 생성형 AI 결과물에 워터마크 표시를 의무화했다. AI가 만든 텍스트, 이미지, 영상 등을 이용자가 명확하게 인식할 수 있는 방식으로 고지해야 한다. 유럽연합은 EU AI Act를 통해 이미 2025년 2월부터 관련 의무를 시행하고 있다. 세계 두 번째 포괄적 AI 규제법이라는 한국의 AI 기본법은 국제적으로 주목받는 시도다.
그러나 워터마크는 근본적 한계를 안고 있다. 워터마크는 삽입된 콘텐츠를 캡처하거나 재편집하면 쉽게 제거될 수 있다. 해외 플랫폼이나 규제를 따르지 않는 소규모 서비스에서 생성된 콘텐츠에는 아무런 표시가 없다. 워터마크 없는 AI 생성물이 넘쳐나는 상황에서 워터마크 있는 콘텐츠만 솎아내는 방식은 빈 구멍투성이 그물이다. 더 근본적인 문제는, 워터마크가 있어도 사람들이 그것을 확인하지 않는다는 점이다. 기술 해법은 인간의 행동 패턴을 바꾸지 못한다.
◇ 저널리즘의 위기... 사실 확인의 최후 보루가 흔들린다
가짜가 범람하는 시대에 저널리즘은 본래 ‘진짜를 가려내는 사회적 기능’을 담당해왔다. 그러나 아이러니하게도 AI는 저널리즘을 두 방향에서 동시에 공격하고 있다.
한쪽에서는 생성형 AI가 가짜뉴스와 허위정보를 산업적 규모로 생산해 언론의 팩트체크 능력을 압도한다. 다른 한쪽에서는 언론사들이 비용 절감의 명목으로 AI 자동 기사를 도입하면서, 취재 인력이 줄고 심층 보도의 기반이 무너지고 있다. 미국에서는 AI가 작성한 기사에 실존하지 않는 인물의 발언을 ‘인용’하거나, 없는 사건을 사실인 것처럼 보도하는 사례가 잇따라 드러났다. 허위를 걸러내야 할 매체가 오히려 허위를 생산하는 역설이다.
국내 상황도 다르지 않다. 지역 신문사들이 예산 부족을 이유로 AI 생성 기사를 점차 확대하고 있으며, 팩트체크 전문 인력 채용은 줄어드는 추세다. AI가 기사를 쓰는 속도는 사람이 사실을 확인하는 속도를 이길 수 없다. 그 격차에서 허위정보는 기정사실이 된다. 저널리즘의 위기는 단순히 언론 산업의 위기가 아니다. 민주주의가 작동하는 데 필요한 공론장 자체의 위기다.
◇ 규제와 자유의 긴장... 신뢰를 위해 무엇을 포기할 것인가
AI 규제를 둘러싼 논쟁의 핵심은 결국 하나다. 신뢰를 회복하기 위해 어느 정도의 자유를 제한할 수 있는가.
산업계는 규제가 혁신을 죽인다고 말한다. 한국 AI 기본법 시행 직후 업계에서는 “미국은 날아가고 있는데 한국은 뛰기도 전에 모래주머니부터 채우는 격”이라는 반발이 쏟아졌다. 실제로 미국의 빅테크 4대 기업은 2025년 AI 인프라 구축에만 약 270조 원을 쏟아붓고 있으며, 미국 연방 정부는 규제보다 자율 가이드라인 방향을 유지하고 있다. 워터마크 의무화가 역차별로 작용해 국내 스타트업만 부담을 지고, 해외 무규제 플랫폼은 자유롭게 활동한다는 지적도 현실적이다.
그러나 반대 방향의 위험도 똑같이 심각하다. 규제 없는 AI 생태계는 지금까지의 모든 사례가 증명하듯 가짜와 피해의 산업화를 방조한다. 플랫폼 자율 규제는 기업의 이익이 공익과 충돌할 때 번번이 실패했다. 시민사회가 규제 강화를 요구하는 이유는 기술 발전을 막으려는 것이 아니라, 기술 발전의 피해를 가장 먼저, 가장 크게 짊어지는 개인들을 보호하기 위해서다.
규제와 혁신의 긴장은 새로운 이야기가 아니다. 그러나 AI의 속도와 규모 앞에서는 그 긴장이 유례없이 첨예하다. 한쪽을 택하면 다른 쪽을 잃는 단순한 문제가 아니다. 문제는 어떤 균형점을, 누가, 어떤 과정을 통해 결정하느냐이다.
◇ 신뢰는 기술로 복원되지 않는다
워터마크를 붙이고, AI 식별 라벨을 달고, 탐지 알고리즘을 고도화하는 것. 이 모든 시도는 필요하지만, 충분하지 않다. 기술로 무너진 신뢰를 기술만으로 복원할 수 없다는 것은 이미 소셜미디어의 역사가 증명했다. 플랫폼의 ‘커뮤니티 가이드라인’이 혐오와 허위정보를 막지 못했고, 알고리즘 추천 시스템의 ‘건강성 지표’가 극단주의의 확산을 막지 못했다.
신뢰의 재설계는 기술 이전에 사회 설계의 문제다. 누가 정보를 검증하고, 그 비용을 누가 부담하며, 플랫폼 기업의 책임은 어디까지인지, 언론의 공적 기능을 어떻게 지킬 것인지에 대한 사회적 합의가 먼저다. 미디어 리터러시 교육은 선택이 아니라 의무 교육 과정이 되어야 한다. AI 생성물 표시 의무는 시작일 뿐이며, 그것을 보고 판단하는 능력을 사회 전체가 갖춰야 의미가 있다.
무엇보다 인정해야 할 것이 있다. 완벽한 진위 판별 시스템은 존재하지 않는다. 앞으로도 존재하지 않을 것이다. 기술은 항상 기술을 앞선다. 가짜를 완전히 봉쇄할 수 없다면, 남은 질문은 하나다. 가짜가 넘치는 세계에서 우리는 어떻게 함께 살 것인가. 그것은 기술의 질문이 아니라 민주주의의 질문이다.
[시리즈 완료] 인공지능과 가짜 ① 진짜보다 더 진짜 ② 합성된 나, 복제되는 인간 ③ 진짜를 증명해야 하는 시대