AI가 쓴 법학 논문, 학계는 어떻게 다룰까…4월의 새로운 질문

[지디넷코리아]

학술 출판계가 인공지능(AI)이 작성한 법학 논문을 어떻게 처리할지를 두고 본격적인 논쟁에 들어갔다. 리즌(Reason) 산하 볼로(Volokh) 컨스피러시 블로그가 4월 26일 게재한 분석에 따르면, 최근 일부 로스쿨 학술지(law review)에 거대언어모델(LLM)이 거의 단독으로 작성한 논문이 익명 또는 가명으로 투고되는 사례가 늘면서 편집위원회가 처음으로 ‘무엇이 학술적 저자성(authorship)인가’라는 질문에 직면했다.

문제 제기는 두 갈래다. 첫째, AI가 생성한 논문이 기존 저작물을 인용 없이 재구성하는 경우 표절(plagiarism)에 해당하는가. 둘째, 인간 연구자의 기여가 사실상 프롬프트(prompt) 작성과 약간의 편집에 그쳤음에도, 그를 단독 저자로 표기하는 것이 학술 윤리에 부합하는가. 한 학술지 편집장은 “지금까지는 AI 사용 사실을 각주에 적어달라고 요청하는 정도였지만, 더 이상 그 수준으로는 충분하지 않다”고 말했다.

볼로 컨스피러시는 ▲AI 사용 비율 공개 의무화 ▲AI 출력에 대한 인간의 검증 책임 명시 ▲AI 단독 작성 논문에 대한 별도 카테고리 신설 등 세 가지 옵션을 제시했다. 특히 마지막 옵션은 ‘AI 저자(author) 인정’ 논쟁으로 직결되며, 학술출판윤리위원회(COPE) 등 국제 기구의 대응을 압박하고 있다. 일부 저널은 이미 ‘AI Acknowledgement’ 섹션을 신설해 AI 도구 종류, 버전, 사용 범위, 인간 검증 절차를 명시하도록 요구하고 있다.

법조계에서는 현실적 우려도 크다. 법학 논문은 판례·법령·학설을 인용해 새로운 해석을 제시하는 분야인데, AI가 만든 가짜 인용(hallucinated citation) 문제가 여전히 해결되지 않은 상태에서 이를 학술지에 그대로 싣게 되면 이후 판결문, 변론서, 후속 논문에까지 오류가 연쇄적으로 인용될 수 있다는 지적이다. 실제로 미국·영국·캐나다 법원에서는 변호사가 챗GPT(ChatGPT) 등 LLM이 만든 가짜 판례를 변론서에 인용해 제재를 받은 사례가 잇따라 보고된 바 있다.

볼로 컨스피러시는 학계가 단순한 ‘금지’와 ‘허용’ 이분법을 넘어, AI 협업 학술 글쓰기의 새 표준을 만들어야 한다고 주장한다. 구체적으로 ▲재현 가능성(reproducibility)을 위한 프롬프트·세팅 공개 ▲학술지·출판사가 자체 AI 검증 도구를 운영 ▲심사위원에게도 AI 사용 가이드 제공 같은 방안이 함께 거론된다. 이는 자연과학·의학에서 이미 시작된 ‘AI 동반 연구의 투명성’ 논의가 인문사회로 본격 확대된다는 의미이기도 하다.

자세한 내용은 볼로 컨스피러시(Volokh Conspiracy)에서 확인할 수 있다.

이미지 출처: 이디오그램 생성

■ 이 기사는 AI 전문 매체 ‘AI 매터스’와 제휴를 통해 제공됩니다. 기사는 클로드 3.5 소네트와 챗GPT를 활용해 작성되었습니다. (☞ 기사 원문 바로가기)

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다