▲ 인공지능, AI. 사진=gettyimagesbank

#
미국 IT매체 씨넷(CNET)은 2022년 11월부터 금융 서비스에 관한 기사 77건을 인공지능(AI)이 작성한 사실이 밝혀져 논란이 됐다. AI 작성 여부를 투명하게 밝히지 않았을뿐 아니라 이들 기사에 사실관계 오류까지 발견됐다. 

#
지난해 블룸버그통신이 진행한 실험에 따르면 이미지 생성AI인 스테이블디퓨전에 ‘패스트푸드 직원’ 키워드를 넣은 결과 70% 이상이 어두운 피부색의 인물을 그렸다. 반면 CEO는 백인 남성으로, 범죄자는 흑인 남성으로 그려내는 경향이 나타났다. 

챗GPT 등 생성형 인공지능(AI)이 빠르게 확산되며 해외 언론사들은 지난해부터 가이드라인 등 기준을 마련해 운영하고 있다. 언론사마다 온도 차가 있지만 공통적으로 AI가 기사를 전적으로 작성하는 것은 금지하며 사람의 감독 하에 두도록 하고 있다.

[관련 기사 : 한국일보 국내언론 최초 AI활용 준칙 제정]

지난해 영국 파이낸셜타임스의 룰라 칼라프(Roula Khalaf) 편집장은 ‘편집장의 편지’를 통해 “AI 시대 파이낸셜타임스의 저널리즘은 자신의 분야에서 최고이며 세상을 정확하고 공정하게 보도하고 분석하는 데 전념하는 ‘인간’에 의해 계속 작성되고 보도될 것”이라고 강조했다. 기사 작성의 주체는 사람이라는 점을 강조한 것이다.

미국의 경제매체 비즈니스 인사이더(Business Insider)는 구성원들에게 ‘챗GPT를 자유롭게 사용하되 신중하게 사용할 것’, ‘기사 작성에 사용하지 않을 것’ 등을 공지했다. 비즈니스인사이더는 “생성형 AI는 위키피디아와 유사한 정도의 출처로 간주돼야 한다. 더 신뢰할 수 있는 소스를 찾는 데 도움이 되는 훌륭한 출발점”이라고 했다. 참고는 하되 전적으로 믿어선 안 된다는 의미다.

▲ 파이낸셜타임스 홈페이지 갈무리

‘관리감독’을 강조한 경우가 많다. 영국 가디언(Guardian)은 “AI가 생성한 중요한 내용을 보도에 포함하려는 경우 구체적인 이점이 있다는 명확한 증거, 사람의 감독, 선임 편집자의 분명한 허가가 있을 때만 가능하다”고 했다. 프랑스의 레제코-르파리지앵(Les Echos-Le Parisie) 역시 사람 편집자의 감독과 관리가 없는 상황에선 생성성 AI가 만든 글, 이미지, 영상 콘텐츠는 게시하지 않는 원칙을 세웠다. 다만 예외적인 상황에서 활용할 때는 누구나 알아볼 수 있도록 출처를 명확히 표기하도록 했다. 

AP통신은 가이드라인을 통해 생성형 AI가 만든 정보가 허위일 가능성을 염두에 두고 대응하는 방안을 담았다. 가이드라인은 외부 출처를 통해 AP통신으로 들어오는 자료에도 AI가 생성한 콘텐츠가 없는지 확인하기 위해 세심한 주의와 노력을 기울일 것을 권장하고, 기자들이 자료의 진위 여부에 조금이라도 의심이 들면 해당 자료를 사용해선 안 된다고 규정했다.

이들 언론이 활용 자체를 막는 건 아니다. △사실적 이미지가 아닌 인포그래픽, 도표 등에 활용 또는 활용 검토(파이낸셜타임스, BBC) △시각자료가 AI 관련 기사 설명에 필요한 경우 활용(AP통신, 레제코-르파리지앵) △기사 요약문에 활용(파이낸셜타임스) △기사 제목 및 SNS 소개글 작성(와이어드) △기획 단계에서 아이디어를 얻는 용도(와이어드) △기사가 잘 읽히도록 편집하는 과정에 활용(인사이더) 등이다.

비교적 최근 발표된 BBC의 가이드라인은 구체적인 활용 범위를 명시하고 있다. 예컨대 뉴스 콘텐츠에 생성형 AI를 사용해선 안 되지만 그래픽 작업에선 예외적으로 쓸 수 있도록 했다. 또한 AI도구를 활용한 콘텐츠 제작은 사건의 의미 왜곡이나 시청자에게 혼선을 주지 않는 선에서 고려할 수 있게 했다. 취재원의 익명성을 유지하기 위해 딥페이크 얼굴 합성 기술을 쓸 수 있게 했고, 다른 사람의 목소리를 복제하지 않는 선에서 합성 음성을 만들 수 있게 했다. 

와이어드는 ‘보상 문제’를 이유로 이미지 생성형 AI를 활용하지 않겠다고 강하게 밝힌 점이 특징이다. 와이어드는 “많은 사진작가가 사진 아카이브 업체에 사진을 판매하는 일로 생계를 유지한다. 생성형 AI기업이 보상 방안을 마련할 때까지 AI가 생성한 이미지는 사용하지 않을 것”이라고 선언했다. 

관련기사

  • [인공지능의 두 얼굴] 챗GPT 시대, 보이지 않은 ‘미세노동’ 착취 당하고 있다
  • [인공지능의 두 얼굴] 챗GPT시대의 교육, “‘읽기’와 ‘쓰기’의 순서가 뒤바뀐다”
  • [인공지능의 두 얼굴] “초거대 AI 기술 가진 회사와 쓰는 회사로 나뉠 것”
  • [인공지능의 두 얼굴] 신동엽 SBS 첫 출연 장면 알고 있는 AI

해외에선 언론에 쓰이는 AI 시스템의 외부 평가를 두고 언론단체 간 이견이 드러나기도 했다. 국경없는기자회(RSF)가 지난해 11월 ‘AI와 저널리즘에 관한 파리 헌장’을 발표했으나, 세계신문협회(WAN-IFRA)가 “AI와 저널리즘에 관한 윤리적 지침과 절차를 마련하기 위한 이니셔티브를 환영하지만, 뉴스 제공자의 우려로 ‘파리 헌장’을 지지하지 않기로 결정했다”고 밝혔다.

쟁점은 ‘저널리즘에 쓰이는 AI 시스템들은 사전에 외부의 독립된 평가를 받는다’는 조항이다. 세계신문협회는 뉴스미디어 회사가 어떤 AI 시스템을 도입할지 결정하는 것은 자율적 판단에 맡겨야 하며 외부의 평가에 의존해선 안 된다는 입장이다.

면책 조항: 이 글의 저작권은 원저작자에게 있습니다. 이 기사의 재게시 목적은 정보 전달에 있으며, 어떠한 투자 조언도 포함되지 않습니다. 만약 침해 행위가 있을 경우, 즉시 연락해 주시기 바랍니다. 수정 또는 삭제 조치를 취하겠습니다. 감사합니다.