[지디넷코리아]

AI 업계에 새로운 평가 문화가 자리 잡고 있다. 영국 맨체스터 대학교 샘 힌드(Sam Hind) 연구원이 발표한 논문에 따르면, 구글, 오픈AI 같은 주요 기업들이 신규 AI 모델을 발표할 때 기술적 성능보다 ‘LM아레나’ 같은 사용자 투표 플랫폼에서의 순위를 더 강조하는 현상이 나타나고 있다. 2025년 5월 구글의 데미스 하사비스가 신규 AI 모델 발표에서 ‘LM아레나 리더보드 1위’를 주요 성과로 내세운 것이 대표적이다. 이러한 현상이 AI 개발을 실제 문제 해결보다 ‘관심 끌기’ 경쟁으로 왜곡하고 있다는 지적이 나온다.
구글이 자랑한 ‘LM아레나 1위’, AI 평가가 인기 투표로 바뀌었다
2025년 5월 구글 행사에서 데미스 하사비스는 새 AI 모델 ‘제미나이 2.5 프로’를 소개하며 ‘LM아레나 리더보드’ 모든 순위에서 1위를 차지했다고 발표했다. 이는 AI 개발이 기술 발전보다 ‘순위 경쟁’으로 변하고 있음을 보여준다.
LM아레나는 ‘AI 모델을 평가하는 중립적이고 공개된 플랫폼’으로, 지금까지 300만 건 이상의 투표를 수집했다. 사용자가 같은 질문을 두 익명 AI에게 하고 어느 답변이 더 좋은지 선택하면, 투표 후 어떤 AI였는지 공개되고 순위표가 만들어진다.
UC버클리가 주도한 LM아레나는 2023년 5월 시작해 2025년 4월 회사로 전환했으며, 5월에는 6억 달러(약 8,687억 원) 가치를 인정받았다. 9월에는 기업 대상 유료 평가 서비스를 시작했다. 현재 텍스트, 웹 개발, 이미지 등 8개 분야에서 AI들이 경쟁한다.
기존 시험은 한계, 전문가 평가는 현실적으로 불가능
LM아레나가 등장한 이유는 기존 평가 방식의 한계 때문이다. 연구진은 2023년 자체 AI 모델을 만들면서 “AI 챗봇이 발전함에 따라 현재의 공개 벤치마크로는 충분하지 않다”고 판단했다. 실제로 전문가 수준 시험 GPQA에서 AI 점수가 2023년 31%에서 2025년 87%로 급상승했지만, 연구진은 “사용자가 챗봇의 유용성을 인식하는 것과 기존 벤치마크 기준 사이에는 근본적 불일치가 있다”고 지적했다.
전문가 평가도 현실적으로 어려웠다. 공동 창립자 이온 스토이카는 “전문가들에게 평가를 부탁했지만 거의 모두 시간이 없다고 거절했다”고 말했다. 또 다른 창립자 아나스타시오스 앤젤로풀로스는 “세상은 전문가가 모든 것의 최종 판단자가 되는 것에 반대하는 방향으로 움직이고 있다”며 “박사 학위 없이도 가치 있는 의견을 가질 수 있다”고 강조했다. 연구진은 한때 AI로 AI를 평가하는 방식을 검토했다. 확장성과 설명 가능성이란 장점이 있었지만, 긴 답변을 선호하는 편향과 수학·추론 문제의 한계가 드러나 일반 사용자 평가로 전환했다.
공정성을 위협하는 세 가지 문제
아레나화의 결과는 ‘아레나 게이밍’, 즉 AI를 오직 순위 올리기 목적으로 최적화하는 현상이다. 이 논문 저자를 포함한 AI 평가 연구자들은 세 가지 주요 문제를 지적한다.
첫째, 맞춤형 비교 문제다. LM아레나 새 버전은 사용자가 특정 용도를 설명하면 두 익명 모델의 성능을 비교해주는 방식을 도입했다.
둘째, 우대 특혜다. 연구에 따르면 구글, 오픈AI, 메타, 아마존 같은 대형 개발사는 여러 제출물을 비공개로 테스트할 수 있다. 또한 독점 모델 개발사는 훨씬 더 많은 테스트 기회를 받는다. 구글과 오픈AI는 LM아레나 전체 테스트의 각각 19.2%와 20.4%를 차지한다. 대형 개발사가 다른 업체보다 상당한 특혜를 받는 셈이다.
셋째, 독립성 훼손이다. 가장 극단적 사례는 오픈AI가 수학 벤치마크 ‘프론티어매스’ 개발 자금을 지원하면서도 이를 숨긴 경우다. 오픈AI의 o3 모델은 이 시험에서 25.3%를 달성했는데, 다른 모델들은 2%도 넘지 못했다. 나중에 오픈AI가 AI 평가용 수학 문제 300개 제작을 의뢰했고, 홀드아웃 세트를 제외하고 문제와 답에 접근할 수 있었다는 게 밝혀졌다. 오픈AI가 시험 의뢰자이자 응시자라는 점은 명백한 부정행위다.
LM아레나 개발자들도 한계를 인식한다. “우리 사용자는 주로 LLM 애호가와 연구자들로 구성될 것”이며 “이는 편향된 분포를 초래할 뿐 아니라, 치열한 경쟁 덕분에 평가 과정을 조작하려는 시도”로 이어질 것으로 본다.
관심 끌기 경쟁이 AI 발전을 왜곡한다
논문 저자는 AI 혁신이 ‘관심 끌기’ 경쟁으로 변하면서 세 가지 문제가 생긴다고 경고한다.
첫째, 점진적 개선에만 매달리게 된다. 벤치마크와 리더보드는 시간이 지나면서 순위가 조금씩 바뀌는데, 이런 작은 변화가 마치 의미 있는 발전인 것처럼 보이게 만든다. 결국 개발자들은 실제로 유용한 모델을 만드는 대신 선두 모델의 점수를 조금이라도 앞서는 데만 집중하게 된다.
둘째, 복잡한 현실을 지나치게 단순화한다. AI 업계에서 관심을 끄는 것은 해당 분야의 본질적 가치가 아니라 특정 모델이나 경쟁의 화제성이다. 이 때문에 복잡한 현실 세계의 문제들이 단순한 숫자와 토큰으로 환원되는 현상이 가속화되고 있다.
셋째, 사용자 선호 수집이 산업의 핵심 전략이 됐다. 신문이 발행 부수를, TV가 시청률을 중시하듯, AI 산업도 관심을 측정할 지표가 필요했다. LM아레나는 AI 평가를 전문 연구자 영역에서 일반 사용자 영역으로 대폭 확장했다. 이제 사용자의 관심을 끌고 모으는 것이 AI 산업의 주요 목표가 됐으며, 이는 AI 기술을 무한정 ‘확장’하려는 산업 전체의 집착을 보여준다.
아레나 방식을 통해 AI 모델의 가치를 실제 작업 환경이나 사용 맥락과 무관하게 하나의 숫자로 결정할 수 있게 됐다. 하지만 이런 평가는 결국 아레나에서 끊임없이 쌓이는 사용자 투표에만 의존한다.
FAQ (※ 이 FAQ는 본지가 리포트를 참고해 자체 작성한 내용입니다.)
Q1. LM아레나는 어떻게 AI를 평가하나요?
A: 사용자가 같은 질문을 두 익명 AI에게 하고 어느 답변이 더 나은지 선택합니다. 투표 후 AI 정체가 공개되고, 투표가 쌓여 브래들리-테리 통계 모델로 점수가 계산되며 순위표가 만들어집니다.
Q2. 아레나 게이밍이란 무엇이고 왜 문제인가요?
A: AI를 실제 유용성보다 아레나 순위만 올리려고 최적화하는 현상입니다. 대형 기업들이 비공개로 더 많이 테스트하거나, 오픈AI처럼 벤치마크 개발에 자금을 대면서 숨긴 것이 문제입니다. 공정한 경쟁 원칙을 무너뜨리고 AI 연구의 실제 가치를 왜곡합니다.
Q3. AI 평가의 아레나화가 미치는 영향은 무엇인가요?
A: 세 가지 영향이 있습니다. 첫째, 실제 문제 해결보다 순위를 쫓는 점진적 개선이 강화됩니다. 둘째, 복잡한 현실을 단순한 토큰으로 축소하는 현상이 가속화됩니다. 셋째, 사용자 선호 표현 수집이 AI 산업의 핵심 전략이 되면서 선호 표현의 중요성이 깊어집니다.
■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)
