생성형 AI를 활용한 뉴스 제작과정에서 인간 언론인의 책무를 강조한 보고서가 나왔다. 생성형 AI가 일으키는 법적‧윤리적 문제를 방지하려면 최종 의사결정은 반드시 인간이 해야 한다는 제언이다.
한국언론진흥재단은 27일 이런 내용을 담은 <미디어정책 리포트: 언론산업의 생성형 AI 기술 활용 가능성과 법적‧윤리적 쟁점>을 발간했다. 생성형 AI는 자연어 처리기술에 기반해 인간의 개입 없이 텍스트, 이미지, 오디오, 비디오 콘텐츠 등을 구현하는 기술이다. 이번 보고서는 언론사가 활용하는 생성형 AI 기술의 법적‧윤리적 문제를 진단하고, 그에 따른 사회적 역기능을 최소화하는 방안을 다뤘다.
언론사는 대표적으로 챗GPT, 미드저니 같은 생성형 AI를 활용해 다양한 영역의 생산성과 효율성을 높일 수 있다. 기사‧보고서 요약과 이미지‧인포그래픽 생성을 빠르게 처리하고 데이터 분석, 콘텐츠 추천, 챗봇, 팩트체크 등 여러 분야에서 생성형 AI를 활용할 수 있다.
언론산업 분야에서 생성형 AI 기술 이용은 확산하는 추세다. 다만 그 이면엔 법적‧윤리적 이슈들이 새로운 위험 요인으로 떠오르고 있다. 현재까지 제기된 핵심 쟁점은 저작권과 프라이버시 침해, 허위정보‧혐오‧차별의 확산 등이다. 생성형 AI에 의존하면서 인간의 추가 검증을 소홀히 했을 때 발생하는 문제들이다.
언론재단 보고서는 이 같은 문제를 막기 위해 인간의 역할이 중요하다고 강조한다. 보고서는 “생성형 AI를 활용해 뉴스를 제작하더라도 최종 의사결정을 AI에 맡겨선 안 되며 인간 언론인이 결과물에 책임을 져야 한다는 것이 해외 언론과 학계의 목소리”라고 했다.
보고서는 “생성형 AI를 활용하는 과정에서 저널리스트들의 추가 편집과 팩트체크 등 인간의 개입과 감독을 비롯해 AI 활용 방식, 범위에 대해 투명하게 공개하는 것이 중요하다”며 “생성형 AI 활용이 일반화하는 시대에도 어떤 뉴스를 어떻게 보도할 것인지에 대한 최종 의사결정은 대체될 수 없는 인간 언론인과 편집자의 역할로 남을 것”이라고 했다.
김달아 기자의 전체기사 보기
Copyright @2004 한국기자협회. All rights reserved.