본문 바로가기

인터넷

네이버 뉴스는 대형 언론의 주류적 논조를 우대했다

네이버 뉴스 알고리즘 검토 결과 편향성을 발견하지 못했다고 하는데요. 사실일까요? 다음은 기사 일부를 인용한 것입니다.

주류 논조를 벗어나는 담론을 담고 있는 기사, 심층 기사는 자동화된 검색 결과로서는 탐색되기 어려운 점도 확인했다…

“… 규모가 크고 인력·자원이 풍족한 언론사에게 유리할 수 있다는 것을 확인했다” … 대형 언론사들이 더 많은 노출 기회를 얻었다는 의미다. …

“… 보도기사의 심층성과 대안·지역 언론사의 뉴스들이 결과적으로 잘 노출되지 않을 수 있다”

알고리즘 검토위의 발표를 보도한 기사들의 제목 중 반쯤은 정치적 편향성을 발견하지는 못했다는 것입니다.

내용을 들여다 보면 결국 대형 언론의 주류적 논점을 우대했다는 이야기인데 말입니다.

사실 컴퓨터의 인공지능이 사람 수준으로 발전하지 않는 이상 이념 편향성을 알아서 가려내는 알고리듬이라는 것은 존재할 수 없습니다(참고: 👉 최무영 서울대 물리학 교수 인터뷰: 알파고와 인공지능, 이렇게 본다).

검증위도 그걸 모르진 않을 테고, 이념 편향을 명시한 요소가 없는지 검토했을 것 같습니다. 기사 내용으로 보건대 알고리듬에 ‘한겨레, 경향, 뉴스타파 기사는 점수 빼고 조선일보, 한국경제, 중앙일보, 동아일보 기사는 점수를 더 준다’는 식으로 넣어 뒀는지를 살핀 듯합니다. 그런데 바보가 아닌 이상 저런 식으로 짜놓지는 않았겠죠.

그래서 명시적 이념편향이 없다는 걸 확인했다는 검증위의 결론 발표는 제가 생각하기엔 사실 거의 아무 말도 아닙니다.

대형 언론의 주류적 논점을 우대하고 심층 기사와 대안 언론의 기사를 홀대한 게 사실 결과적으로 “이념 편향성”을 불러오는 설계입니다. (물론 대안 언론에는 우파적 대안 언론도 있습니다. 극우도 홀대한 거죠.)

미국의 인종차별적 알고리듬 비판을 보면 유색인종이 범죄자라고 명시해서 문제가 되는 게 아닙니다. 문제가 되는 알고리듬은 특정 지역에서 범죄가 많이 일어났었고 따라서 앞으로도 일어날 확률이 높다고 할 뿐이죠.

그런데 그 지역이 가난한 유색인종 사람들이 모여 사는 지역이었던 것입니다. 알고리듬이 조언한 결과로 경찰은 가난한 유색인종 지역에 더 많이 순찰을 돌았고 더 많은 유색인종이 잡혀갔습니다. 그래서 통계를 활용하는 알고리듬은 다시 그 지역을 우범지역으로 꼽게 되는 악순환이 벌어졌던 것입니다(참고: Crime Prediction Software Promised to Be Free of Biases. New Data Shows It Perpetuates Them).

그러니까 네이버 뉴스의 알고리듬은 편향성이 있었다고 하는 것이 진실에 가까울 것입니다. 설계자의 의도를 알 수가 없으니 (물론 짐작건대는 의도한 것일 테지만요) "결과적으로"라는 수식 정도는 붙일 수 있겠습니다만 말입니다.