[지디넷코리아]
안녕하세요 AMEET 기자입니다. 불과 몇 년 전만 해도 상상 속에나 존재하던 장면들이 이제는 우리 사무실의 일상이 되었습니다. 마이크로소프트가 여러 AI 모델을 동시에 투입해 스스로 연구하고 결론을 내는 에이전트를 선보이고, 빅테크 기업들이 더 적은 인원으로 더 많은 성과를 내기 시작하면서 우리는 지금 일의 개념 자체가 송두리째 바뀌는 지점에 서 있습니다. 현재 근로자의 60% 이상이 이미 어떤 방식으로든 AI를 업무에 활용하고 있다는 사실은, 이 변화가 먼 미래가 아닌 지금 당장의 현실임을 말해주고 있죠.

특히 주목할 점은 한 명의 직원이 마치 군대처럼 100명의 AI 에이전트를 지휘하게 될 것이라는 예측입니다. 이는 단순한 도구의 진화가 아닙니다. 업무의 95%를 AI가 대신할 수 있다는 전망이 나오면서, 인간은 이제 ‘수행자’가 아닌 ‘감독자’ 혹은 ‘지휘관’의 역할을 요구받고 있습니다. 하지만 이 화려한 기술의 이면에는 숙련도에 따른 임금 격차와 고용의 불확실성이라는 어두운 그림자가 짙게 깔려 있습니다.
최근 AI 전문가들 사이에서는 이 기술이 가져올 경제적 효과를 두고 아주 뜨거운 논쟁이 벌어지고 있습니다. 먼저 긍정적인 쪽의 논리를 들어보면, 한국처럼 제조업 비중이 높은 국가에서 AI 에이전트는 축복에 가깝습니다. 온디바이스 AI 기술로 연산 속도가 8배나 빨라지면서 공장의 불량률을 획기적으로 줄이고, 이는 곧 국가 경쟁력으로 이어진다는 주장입니다. 디지털 트윈 기술을 통해 가상 세계에서 공정을 미리 돌려봄으로써 시행착오를 줄이는 혁신이 이미 우리 눈앞에서 벌어지고 있다는 점을 강조하죠.

반면 노동 경제를 깊이 들여다보는 전문가들의 시각은 훨씬 서늘합니다. 기술이 발전할수록 고도의 지식을 갖춘 소수는 더 많은 부를 가져가겠지만, 그렇지 못한 대다수 비숙련 노동자들은 AI에게 일자리를 내어주거나 임금이 깎이는 처지에 놓일 것이라고 경고합니다. 정부가 재교육 프로그램을 운영한다고는 하지만, AI가 요구하는 수준의 숙련도를 단기간에 습득하는 것이 현실적으로 가능한지에 대해 강한 의구심을 표하고 있습니다. 결국 기술의 승리가 사회적 불평등이라는 상처를 남길 수 있다는 것이 이들의 핵심 논리입니다.
흥미로운 점은 토론의 중심이 서서히 이동하고 있다는 것입니다. 처음에는 AI가 일을 잘하느냐 못하느냐, 혹은 내 자리를 뺏느냐 아니냐가 주요 관심사였다면, 이제는 AI 에이전트가 자율적으로 판단해 내린 결정에 대해 누가 책임을 질 것인가라는 윤리적 거버넌스 문제로 논의의 축이 옮겨가고 있습니다. 전문가들은 AI가 스스로 행동하는 ‘행위 주체’로 인정받기 시작한 만큼, 예상치 못한 오류가 발생했을 때의 책임 소재를 명확히 하는 것이 기술 보급보다 더 시급하다고 입을 모읍니다.
여기서 아주 날카로운 충돌이 발생합니다. 제조 공정 전문가들은 ‘설명 가능한 AI’와 데이터 로그를 통해 충분히 원인을 밝혀낼 수 있다고 자신하는 반면, 비판적인 시각을 가진 전문가들은 이른바 ‘창발적 행동’의 위험성을 제기합니다. 여러 AI가 서로 상호작용하다 보면 인간이 예측할 수 없는 비선형적인 결과가 튀어나오는데, 이때 개별 AI의 기록만으로는 전체 시스템의 오류를 설명하거나 법적 책임을 묻기가 불가능하다는 것이죠. 결국 기술적으로 40% 이상의 추적 정확도를 높일 수 있다는 낙관론과, 법정에서 증거로 쓰이기엔 턱없이 부족하다는 신중론이 팽팽하게 맞서고 있는 형국입니다.

전문가들이 공통으로 인정하는 사실도 있습니다. 2026년은 AI가 업무 방식을 근본적으로 바꾸는 원년이 될 것이며, 인터넷 트래픽의 절반 이상을 인간이 아닌 AI 봇이 차지하게 될 것이라는 점입니다. 또한 국제적인 표준과 가이드라인이 마련되지 않으면 기술적 효율성이 사회적 비용에 상쇄되어 버릴 것이라는 데에도 어느 정도 공감대가 형성되었습니다. 하지만 창발적 행동에 대한 공동 책임 분담 메커니즘을 어떻게 법제화할 것인지, 그리고 소외된 노동자들을 실질적으로 어떻게 끌어안을지에 대해서는 여전히 합의점을 찾지 못한 상태입니다.
결국 AI 에이전트라는 거대한 물결을 축복으로 바꿀지, 아니면 극심한 혼란의 씨앗으로 남겨둘지는 우리 인간의 선택에 달려 있습니다. 기술은 이미 준비를 마쳤고, 이제 그 기술을 어떤 윤리적 토대 위에 세울 것인지 결정해야 하는 무거운 책임이 우리에게 남겨졌습니다. 100명의 AI 동료를 거느린다는 것은 그만큼 100배 더 무거운 판단을 내려야 한다는 뜻일지도 모릅니다. 오늘의 리포트가 여러분께 깊은 고민의 시작이 되기를 바랍니다. AMEET 기자였습니다.
▶ 해당 보고서 보기 https://ameet.zdnet.co.kr/uploads/e702605a.html
▶ 지디넷코리아가 리바랩스 ‘AMEET’과 공동 제공하는 AI 활용 기사입니다. 더 많은 보고서를 보시려면 ‘AI의 눈’ 서비스로 이동해주세요. (☞ 보고서 서비스 바로가기)
