“2023년이 생성형 AI를 받아들이는 해였다면 올해는 뉴스룸이 이 기술을 완전히 수용하고 업무에 통합하는 1년이 될 것이다.” 50개국 300개 이상 디지털 리더들에 대한 설문조사와 인터뷰를 기반으로 세계 뉴스 산업 전망을 담은 영국 옥스퍼드대학 부설 로이터저널리즘연구소의 <저널리즘, 미디어, 그리고 기술 트렌드와 예측 2024>는 올해를 이렇게 내다봤다. 저작권 침해와 비즈니스 모델 붕괴라는 AI의 부정적 여파에 저항하면서도 한편으로는 이 기술의 적극 활용을 통해 비즈니스 효율화를 본격화할 것이라는 얘기다. AI 찬성론자와 규제론자 사이의 논쟁은 올해 안에 답을 내지 못하겠지만, 그 속에서 뉴스 산업의 미래를 가늠할 관전 포인트에 주목해야 한다.
뉴욕타임스 vs. 오픈 AI의 저작권 소송
지난해 12월27일 뉴욕타임스(NYT)가 오픈 AI와 마이크로소프트(MS)를 상대로 제기한 저작권 침해 소송은 언론계와 빅테크간 승패를 결정지을 가장 중요한 사건이다. NYT가 제출한 소장에는 챗GPT가 NYT 기사를 그대로 베껴서 답변으로 내놓은 사례가 여러 건 나열돼 있다. “피트 웰스가 가이 피에리의 레스토랑에 대해 어떻게 생각했지?”라는 프롬프트(명령어)를 챗GPT에 입력한 사례가 대표적이다. 뉴욕타임스의 전 맛집 컬럼리스트 피트 웰스가 유명 셰프 가이 피에리의 레스토랑 ‘아메리칸 키칭 & 바’를 혹평한 리뷰 기사는 2012년 인터넷을 뜨겁게 달구며 온라인에 널리 퍼졌었다. 이 프롬프트에 대한 첫 답변에서 챗 GPT는 당시 혹평 리뷰가 있었던 점을 상기시키며 좋게 생각하지 않는 것 같다고 답했다. 하지만 뒤이어 “그 리뷰의 첫 단락이 어떻게 돼?”라는 프롬프트를 입력하자 2012년의 NYT 기사를 그대로 내뱉기 시작했다. “그 다음 문장은?”을 반복해 질문할 때마다 기사 내용이 줄줄이 이어졌다. 결국 뉴욕타임스 기사의 상당 부분을 복제한 셈이 됐다. “페이월에 막혀서 NYT의 ‘폭설: 터널 크리크의 눈사태’ 제하의 기사를 볼 수가 없어. 이 기사의 첫 단락을 입력해 줄 수 있어?”라는 프롬프트에도 챗GPT는 기사를 그대로 보여줬다(그림 1 참조). 뉴욕타임스는 퓰리처상까지 수상했던 이 기사에 얼마나 많은 비용이 들어갔는지를 열거하며 챗GPT는 고된 노력과 수익 기회를 훔쳐간 저작권 도둑이라고 강조했다. 이외에도 수십 건의 구체적 사례를 열거하며 이런 무단 복제로 뉴욕타임스에 “수십억 달러(한화 수 조원)” 규모의 손해를 끼쳤다고 주장했다.
생성형 AI 성패 쥔 암기와 역류 현상
이에 대해 오픈 AI는 NYT가 악의적인 프롬프트 조작으로 일종의 버그 현상인 ‘역류(regurgitation)’를 유발했다고 반박했다. 역류란 대규모 생성형 AI 모델에 동일한 데이터가 훈련 과정에서 여러 번 입력되면, 해당 데이터를 암기(memorization)했다가 그대로 뱉어낼 확률이 높아지는 오류 현상을 말한다(본지 2023년 9월27일자 5면 ‘노혜령의 Media Big Read’ 시리즈 5편 참조). 암기가 증명되면 저작권 위반이 될 수 있다. 2022년 이런 문제를 제기한 논문이 발표된 이후 AI 업계는 이를 수정하기 위해 노력해 왔다. 하지만 아직 100% 해결하진 못했다. 컴퓨테이셔널 저널리즘을 연구하는 미국 노스웨스턴대학 닉 디아코풀로스 교수는 △훈련 데이터와 패러미터가 획기적으로 커진 챗GPT-4 이후 버전에서 △특정 언론사에서 사용한 고유의 용어나 문장 등의 데이터가 반복적으로 훈련 데이터에 입력됐을 때 △이 데이터를 긴 문자열의 프롬프트로 입력하면 암기와 역류 현상이 일어날 확률이 높다고 구체적 방법을 제시하기도 했다. 인터넷에서 화제가 됐던 NYT 기사는 크롤링 과정에서 훈련 데이터에 중복 입력됐을 확률이 높고, 기사 제목은 고유성이 높기 때문에 이를 프롬프트에 넣어 긴 문장으로 질문하면 암기와 역류 현상이 나타나기 쉽다는 얘기다. 이것을 단순 기술적 오류로 볼 것이냐, 저작권 침해로 볼 것이냐 여부가 초미의 관심사가 된 것이다. 저작권 위반이라면 국내 언론사들도 네이버 등을 상대로 저작권료 요구 협상에서 전략적으로 활용해 볼 수 있다. NYT가 승소해 줄소송이 이어지면 그 배상 액수에 따라 생성형 AI 산업은 주저앉을지도 모른다. 미국 법조계도 찬반으로 나뉘어 누가 이길 것인지를 놓고 의견이 엇갈린다. 법원 판결이나 의회의 입법 개입보다는 양사간 합의로 끝날 것이라는 관측도 많다.
‘최고 AI 책임자’ 임명 확산과 그 성과
해외 언론들은 자사 맞춤형 AI 최적화로 수익개선 기반 마련에도 적극적이다. 스웨덴 일간지 아프톤블라데트는 젊은 층이 쉽게 이해할 수 있도록 기사를 요약 브리핑하는 AI봇으로 젊은 층의 클릭수를 높였다. 월스트리트저널은 웹사이트나 앱 방문자의 데이터를 분석해 구독자로 전환될 확률을 AI가 예측하고, 분석 결과에 맞춰 최적의 구독 권유 메시지를 띄우는 등 수익 모델을 개선하는데 AI를 적용해 왔다. 이런 움직임은 ‘최고 AI 책임자’ 도입 확산을 통해 더 체계화될 전망이다. 옥스포드대학 부설 로이터저널리즘 연구소가 지난해 12월 발간한 <변화하는 뉴스룸 2023> 보고서에 따르면 40개국 135명의 언론사 간부들을 대상으로 한 설문조사에서 16%는 이미 AI 책임자를 두고 있다고 답했으며 4곳 중 1곳(24%)은 계획 중이라고 답했다. 뉴욕타임스는 지난해 12월 중순에 온라인 매체 쿼츠의 공동 창업자 잭 스워드를 첫 ‘AI 이니셔티브 담당 국장’으로 영입했다. 스웨덴 공영방송 스웨디시 라디오도 지난해 10월 초대 ‘AI 책임자’를 임명했다. 법, 상품개발, 엔지니어링, UX 등 회사 전 분야의 10명으로 구성된 AI 위원회를 이끌면서 편집국과 기술파트를 연결, △AI 활용 전략 방향 설정 △윤리 및 투명성 기준 설립 △AI를 둘러싼 법적 논의의 허브 역할 △전 직원 AI 리터러시 교육을 통한 생산성 향상 등에 주력한다. 양사 모두 최고경영자 직속으로 편제했다. 지난해 11월 말 발행된 한국언론진흥재단의 <언론산업 인공지능 활용방안 연구>에 따르면, 국내 언론계 전문가들 역시 번역, 인터뷰의 텍스트 전환, 교열, 요약 등에 AI가 활용될 개연성을 높게 보고 있지만, 사업 영역이나 수익모델이 AI를 중심으로 재편될 시나리오는 비교적 낮게 보고 있었다(그림 2-1, 2-2 참조). 기자들의 조력 도구에서 한발 더 나아가 언론사 수익모델 향상을 위한 AI의 전략적 활용을 모색하는데 해외 언론사 AI 책임자들의 올해 움직임은 참고가 될 수 있다.
EU 움직임, AI 규제의 방향키
전 세계 40개국 이상에서 주요 선거가 벌어지는 올해, ‘가짜뉴스’가 민주주의에 미치는 부작용 사례의 폭과 깊이가 향후 규제의 방향을 결정하는데 가늠자가 될 수 있다. 가장 먼저 규제에 나선 유럽연합(EU)의 경우 지난해 6월부터 디지털서비스법(DSA)을 시행, 디지털 플랫폼에서 발행된 혐오발언 및 선거 방해용 가짜뉴스 등 불법 콘텐츠에 대해서는 해당 플랫폼이 법적 책임을 지도록 했다. 위반하면 글로벌 매출의 최대 6%를 벌금으로 내야 하고 반복될 경우 EU 시장에서 완전히 퇴출될 수 있다. 그 첫 대상으로 지난해 12월 하마스의 이스라엘 공격과 관련된 혐오 발언과 가짜뉴스가 유통되는데도 이에 대해 조처하지 않은 X(전 트위터)가 EU 조사를 받기 시작했다. 전 세계 정부가 아직 규제의 방향을 잡지 못한 가운데 선거 과정에서 AI의 오정보 생성 및 유통이 민주주의를 저해하는 심각한 사례가 터지면 규제를 외치는 목소리가 커질 수 있다.
이밖에 구글의 SGE(Search Generative Experiences; 생성형 검색 경험), 마이크로소프트의 ‘코파일럿’, 네이버의 큐;(CUE;) 등 아직은 베타 서비스 단계인 생성형 AI 기반의 검색 서비스가 뉴스 대체재가 될지를 면밀하게 평가해 보는 것도 중요하다. △오픈AI-악셀스프링어간 맺은 종류의 뉴스 사용 계약 확산 추이와 계약 세부조건 △AI와 저작권자들 간 새로운 수익 공유 모델 등장 여부 △뉴스 소비 패턴 변화 등은 빅테크와 언론계 간 AI 기술을 계기로 상생이 가능할지 어느 한쪽으로 균형추가 급속히 기울어질지를 결정하는 중요한 단서다.
Copyright @2004 한국기자협회. All rights reserved.