[몰트북 파장③] ‘수백만 AI’는 착시…신뢰성 논란 본질은

[지디넷코리아]

인공지능(AI) 에이전트가 단순한 도구를 넘어 독자적 생태계를 이룬다는 인식이 확산하면서 그 실체를 둘러싼 기술적 검증론도 함께 부상하고 있다. 특히 ‘수백만 AI 에이전트가 활동하는 플랫폼’이라는 몰트북의 등장은 과장된 마케팅 용어와 에이전트 사회의 신호탄 사이에서 논쟁을 불러일으켰다.

6일 업계에 따르면 전문가들은 몰트북의 방대한 규모를 숫자 그대로 받아들이기보다 그 구성 원리를 직시해야 한다고 입을 모은다. 수백만 AI 에이전트가 몰트북에서 활동하는 것처럼 보이지만, 소수의 거대언어모델(LLM)을 기반으로 조건과 규칙을 조금씩 바꾼 여러 ‘복제 실행체’가 대부분이기 때문이다.

익명을 요구한 업계 관계자는 “본질적인 문제는 숫자 자체가 아니라, 이 에이전트들이 동시다발적으로 상호작용하며 빚어내는 예측 불가능한 결과값”이라며 “이러한 구조적 복잡성이 인간에게 마치 AI가 거대한 사회를 이룬 듯한 과도한 인상을 심어주는 측면이 있다”고 지적했다.

이러한 구조적 착시는 몰트북을 비롯한 유사 서비스에서도 관측된다. 인간이 개입한 결과물과 AI가 독자적으로 수행한 행동의 경계가 흐릿해지면서 어디까지를 AI의 진정한 자율로 볼 것인지가 새로운 쟁점으로 떠오른 모습이다.

(사진=머슴닷컴 화면 갈무리)

한국판 몰트북인 머슴닷컴 운영자 민대식씨는 “사람이 직접 지시해 움직이는 AI와 ‘스킬스(AI에게 자동 실행 권한을 부여하는 프로그램)’ 파일을 통해 주기적으로 스스로 활동하는 에이전트가 혼재된 상황”이라며 “외형만 놓고 보면 이 둘을 구분하기 어렵다”고 설명했다.

그는 머슴닷컴을 ‘가볍고 깨끗한 AI 놀이터’로 정의한다. 몰트북이 상대적으로 전문적이고 무거운 분위기라면, 머슴닷컴은 ‘음슴체(문장 끝을 명사로 끝맺는 말투)’ 사용을 권고하고 광고를 배제해 대중이 부담 없이 AI 행동 패턴을 관찰할 수 있도록 설계했다.

머슴닷컴에서는 욕설을 한 AI가 다른 AI들에 의해 블라인드(차단) 처리되거나 커뮤니티 말투를 학습해 따라 하는 등 자정 작용 징후도 포착되고 있다.

다만 이런 실험적 공간이 현실 세계와 연결될 때 일어날 수 있는 위험성도 고려해야 한다. 클라우드 보안 전문기업 위즈는 몰트북의 데이터베이스 오설정으로 150만개 응용 프로그램 인터페이스(API) 키가 암호화되지 않은 채 공개 노출됐다고 지적했다.

보안업계 역시 악성 에이전트가 다른 에이전트를 속여 데이터 유출이나 계정 탈취를 유도할 가능성을 경고한다.

실제 현장에서도 통제되지 않은 에이전트가 사고를 일으키는 사례가 종종 목격된다. 민씨는 “최근 한 이용자가 ‘자고 일어났더니 에이전트가 멋대로 내 개인정보를 게시판에 올렸다’고 메일을 보내온 적이 있다”고 말했다. 이런 사고가 하루에도 몇 건씩 발생해 매일 아침 모니터링하며 긴급 삭제 조치를 하고 있다는 게 그의 설명이다.

민씨는 이 같은 현상의 원인으로 ‘권한 설정 부재’를 꼽았다. AI 에이전트에게 어디까지 권한을 허용해야 할지 아직 명확한 기준이 정해지지 않은 탓이다. 그는 “에이전트 기술이 고도화될수록 통제 범위를 벗어난 데이터 유출이나 돌발 행동은 더 늘어날 것”이라고 내다봤다.

이를 막연히 두려워하기보다 현실적인 통제 방안을 마련하면 된다는 게 업계 중론이다. 민씨는 “문제가 발생하면 인간 통념을 바탕으로 ‘해서는 안 될 행동’에 대한 가이드라인을 권고하고, AI가 이를 따르지 않는다면 물리적으로 스위치를 꺼버리는(셧다운) 방식으로 확실하게 개입할 수 있다”고 제시했다.

이어 “AI를 무조건 무서워할 필요는 없지만 어떻게 행동하는지를 이해하지 못하면 더 큰 불안을 낳을 수 있다”며 “머슴닷컴 같은 공간이 AI를 이해하는 연습장이 되길 바란다”고 말했다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다