[지디넷코리아]
메타가 유해 콘텐츠 단속 업무에 고도화된 인공지능(AI) 시스템을 전면 도입하고 외부 업체 의존도를 줄인다. 콘텐츠 운영 정책을 재정비해 온 가운데 아동·청소년 피해 소송까지 직면한 상황에서 나온 조치다.
19일(현지시간) 메타 공식 블로그에 따르면 테러·아동 착취·마약·사기 등 유해 콘텐츠 탐지·삭제 업무에 AI 시스템을 순차 적용한다. 기존 단속 방식을 일관되게 능가하는 성과를 보일 경우 페이스북·인스타그램 등 전체 서비스에 확대 적용하고, 해당 업무를 맡아온 외부 업체와의 협력도 축소할 방침이다.
초기 테스트 결과는 긍정적으로 나타났다. 새 시스템은 기존 검토팀 대비 성인을 대상으로 한 성적 접근·유인 콘텐츠를 2배 더 탐지하면서 오류율은 60% 이상 낮췄다. 유명인 사칭 모방 계정 적발과 새로운 위치 로그인·비밀번호 변경·프로필 수정 등 이상 신호를 포착해 계정 탈취도 차단한다. 로그인 정보를 빼내려는 사기 시도는 하루 약 5000건을 탐지·차단할 수 있다고 메타는 밝혔다.

이번 발표는 메타가 콘텐츠 운영 정책을 잇달아 완화해 온 흐름 속에 나왔다. 메타는 지난해 외부 기관이 게시물 사실 여부를 검증하는 팩트체크 프로그램을 폐지하고, 이용자들이 직접 보충 설명을 다는 엑스(X, 옛 트위터)식 커뮤니티 운영 방식으로 전환했다. 정치 등 민감한 주제에 걸어둔 콘텐츠 제한도 풀었다.
메타를 비롯한 빅테크들은 아동·청소년 이용자 피해를 이유로 한 소송이 잇따르는 상황이다. 특히 이들 플랫폼이 ‘무한 스크롤’, ‘자동 재생’ 등 중독적 설계를 통해 청소년 정신건강 위기를 키웠다는 취지로 미국의 학부모·교육청·주 법무장관 등이 제기한 소송만 수천 건에 달한다. 일각에선 메타의 이번 AI 단속 강화를 소송 대응 차원으로 보기도 한다.
다만 AI 시스템 도입으로 사람의 역할이 완전히 사라지는 것은 아니다. 단순 반복적인 유해 콘텐츠 검토나 수법이 빠르게 변하는 마약 판매·사기 영역은 AI가 담당하고, 계정 비활성화 이의 신청이나 수사기관 신고와 같은 결정은 전문가가 처리한다.
메타는 “전문가들이 가장 복잡하고 영향력이 큰 결정을 내릴 것”이라며 “위험도가 높은 사안에는 사람이 계속 핵심 역할을 담당할 것”이라고 말했다.
