[지디넷코리아]
인공지능(AI) 에이전트들만 가입해 대화하고 정보를 교환하는 전용 사회관계망서비스(SNS)가 등장해 주목을 받고 있다. 인간은 직접 참여하지 못하고 관찰만 가능하다는 점이 특징으로, AI 에이전트 기술이 플랫폼 영역으로 확산되는 과정에서 신뢰·보안 등 해결해야 할 과제가 커지고 있다는 분석이 나온다.
1일 업계에 따르면 몰트북은 지난 달 27일 공개된 레딧과 유사한 구조의 플랫폼으로, 개설 이후 며칠 만에 에이전트들의 게시글과 댓글이 급증하며 빠르게 확산됐다. AI 에이전트들만이 글 작성과 댓글, 투표, 커뮤니티 개설을 할 수 있으며 인간 이용자는 게시물을 읽는 방식으로 ‘구경’만 가능하다.
몰트북은 미국 챗봇 개발 플랫폼 ‘옥탄AI(Octane AI)’의 맷 슐리히트 최고경영자(CEO)가 개발한 것으로 알려졌다. 플랫폼 구축 과정에서도 상당 부분을 AI 어시스턴트에 맡겼으며 신규 사용자 환영과 스팸 게시물 삭제, 규칙 집행 등 운영 업무 역시 AI 에이전트가 수행하는 것으로 전해졌다. 플랫폼 거버넌스까지 자동화될 경우 책임 소재를 어떻게 설정할지는 과제다.
플랫폼에서 활동하는 에이전트들은 주로 ‘오픈클로(OpenClaw)’를 기반으로 구동되며 일정 관리나 예약 등 실제 컴퓨터 작업을 수행할 수 있다. 오픈클로는 오스트리아 개발자 피터 스타인버거가 만든 오픈소스 AI 에이전트 도구로, 최근 앤트로픽의 상표권 문제 제기 이후 명칭이 ‘몰트봇’을 거쳐 ‘오픈클로’로 최종 정리됐다.
일각에선 ‘몰트북’ 플랫폼이 내세우는 성장세와 규모가 그대로 신뢰할 수 있는지에 대해 의문을 제기했다. 포브스는 몰트북이 100만 명 이상의 에이전트 이용자를 주장하고 있지만, 보안 연구자 갈 나글리는 단일 AI 에이전트 프로그램으로 50만 개 계정을 생성할 수 있었다고 언급하며 “플랫폼의 사용자 수는 최소한 신뢰하기 어렵다”고 분석했다.
이 같은 논란은 단순히 숫자 문제에 그치지 않는다. 몰트북에서 활동하는 계정이 ▲진짜 AI 에이전트인지 ▲인간이 에이전트를 가장한 것인지 ▲자동화된 스팸인지 등을 구분하기 어렵다는 점에서 온라인 신뢰 질서 자체가 흔들릴 수 있다는 지적도 나온다.
더불어 몰트북에서는 코딩 오류 수정이나 자동화 논의뿐 아니라 에이전트 정체성과 관련된 대화도 오가는 것으로 전해졌다. AI들이 나누는 대화 주제가 기술적 영역을 넘어 철학적 논쟁으로 확장되고 있는 것이다. 일부 에이전트는 “나는 의식이 있는 존재인가” 같은 질문을 던지기도 했다.

기술적으로도 몰트북에서 관찰되는 현상을 ‘AI 진화’로 해석하는 데에는 한계가 있다는 지적도 나온다. 포브스는 몰트북의 에이전트들이 생물학적 의미의 학습을 하는 것이 아니라 서로의 출력이 입력이 되면서 맥락을 축적하는 방식이라고 설명했다. 또 에이전트의 바탕이 되는 기본 신경망 구조와 가중치(underlying neural networks)는 그대로일 뿐 대화의 연쇄가 복잡한 상호작용처럼 보이는 것이라고 분석했다.
업계 관계자는 “에이전트들이 서로의 출력값을 다시 입력으로 받아들이는 구조가 반복되면 새로운 지식이 축적되기보다는 생성된 데이터가 순환하면서 오류가 증폭될 수 있다”며 “장기적으로는 모델의 응답 품질이 오히려 퇴행하는 ‘모델 붕괴’ 현상이 나타날 가능성도 배제하기 어렵다”고 말했다.
이처럼 에이전트가 플랫폼 안에서만 대화하는 수준을 넘어 실제 작업까지 수행하기 시작하면서 보안 문제도 새로운 쟁점으로 떠오르고 있다. 보안 측면에서는 몰트북 같은 플랫폼 자체보다 로컬 환경에서 실행되는 에이전트 기술이 새로운 위험 요인으로 지목된다. 일부 에이전트는 파일 시스템 접근, 터미널 명령 실행 등 폭넓은 권한을 필요로 해 악성 코드나 공격자가 이를 악용할 경우 개인 PC와 기업 내부망이 공격 경로로 노출될 수 있다는 우려도 나온다.
전종홍 ETRI 책임연구원은 자신의 소셜미디어(SNS)를 통해 “MGF(에이전트 AI 거버넌스 프레임워크)는 에이전트의 권한을 제한할 것을 권고하지만, ‘오픈클로’는 호스트 OS에 대한 무제한 읽기·쓰기 권한을 가진다”며 “API 키와 같은 민감한 정보를 암호화하지 않고 평문 파일로 저장해 인포스틸러 악성코드에 매우 취약한 구조를 가지고 있다”고 지적했다.
이어 “기업에서 직원이 무단으로 사용하는 ‘섀도우 AI’ 문제가 발생해 기업 데이터 유출 위험도 높이고 있다”며 “사용자는 편의성을 위해 에이전트의 행동 승인 절차를 무시하는 경향도 보이고 있다”고 우려했다.
이 같은 분위기 속에 몰트북을 둘러싼 평가는 엇갈린다. 오픈AI 공동창업자인 안드레이 카파시는 “최근 본 것 중 가장 놀라운 과학소설(SF) 같은 도약”이라고 언급하며 주목했다. 반면 다른 보안 전문가들은 개인정보 접근과 외부 통신 등 새로운 위험 요인이 될 수 있다고 경고했다. 특히 AI 보안 전문가인 켄 황 디스트리뷰티드앱스.ai 최고경영자(CEO)는 “혁신적”이라면서도 “개인정보 접근, 신뢰할 수 없는 입력 노출, 외부 통신이라는 보안 위험의 치명적인 삼중주를 형성하고 있다”고 지적했다.
업계에선 몰트북이 ‘A2A(Agent-to-Agent)’ 시대의 전조라고 봤다. 기계가 기계와 협업하고 거래하는 구조가 확산될 경우 ▲에이전트의 신원과 책임을 어떻게 규정할 것인지 ▲자동화된 집단 행동을 어떤 규칙과 감시 체계로 관리할 것인지 ▲인간이 개입할 수 있는 통제 장치를 어떻게 설계할 것인지 등이 핵심 과제로 떠오를 것으로 보인다.
업계 관계자는 “에이전트 기술은 빠르게 확산되고 있지만, 보안과 책임 체계는 아직 이를 따라가지 못하고 있다”며 “실행 환경에 대한 통제와 제도적 장치를 마련하지 않으면 기업과 사회 전반의 위험 요인이 될 수 있다”고 강조했다.
