Claude Humanizer 플러그인: 위키백과 AI 탐지 가이드를 역이용한 AI 글쓰기 인간화 도구
위키백과의 AI 글쓰기 탐지 가이드를 활용한 Claude Humanizer 플러그인이 등장했습니다. AI 텍스트를 더 자연스럽게 만드는 이 도구의 작동 원리와 논란을 살펴봅니다.
3줄 요약
- 기업가 Siqi Chen이 위키백과의 AI 글쓰기 탐지 가이드를 활용한 Claude Humanizer 플러그인을 공개했습니다.
- 이 오픈소스 도구는 AI가 작성한 텍스트를 더 인간적으로 보이도록 24가지 패턴을 회피하는 방식으로 작동합니다.
- AI 탐지 가이드가 오히려 AI 텍스트를 숨기는 매뉴얼로 활용되는 아이러니한 상황이 발생했습니다.
📌 주요 내용
Claude Humanizer 플러그인 출시
2026년 1월 22일, 기술 기업가 Siqi Chen은 Anthropic의 Claude Code AI 어시스턴트를 위한 오픈소스 플러그인 Humanizer를 GitHub에 공개했습니다. 이 플러그인은 AI 모델에게 AI처럼 글을 쓰지 말라고 지시하는 간단한 프롬프트 도구입니다.
Chen은 X(구 트위터)에서 “위키백과가 ‘AI 글쓰기의 징후’에 대한 상세한 목록을 정리한 것이 정말 유용합니다. 대형 언어 모델(LLM)에게 그렇게 하지 말라고 지시할 수 있을 정도로요”라고 밝혔습니다.
이 도구는 GitHub에 공개된 이후 월요일 기준으로 1,600개 이상의 스타를 받으며 개발자 커뮤니티의 주목을 받았습니다.
위키백과 AI 탐지 가이드의 역설적 활용
Humanizer의 소스 자료는 WikiProject AI Cleanup의 가이드에서 나왔습니다. 이 그룹은 2023년 말부터 AI 생성 기사를 찾아내는 위키백과 편집자들의 모임으로, 프랑스 위키백과 편집자 Ilyas Lebleu가 설립했습니다.
자원봉사자들은 500개 이상의 기사를 검토 대상으로 표시했으며, 2025년 8월에는 AI 글쓰기에서 반복적으로 발견되는 패턴들의 공식 목록을 발표했습니다.
Chen의 도구는 Claude Code를 위한 “스킬 파일”로, Markdown 형식의 파일에 작성된 지침들을 어시스턴트를 구동하는 대형 언어 모델에 프롬프트로 추가합니다. 일반적인 시스템 프롬프트와 달리, 스킬 정보는 Claude 모델이 일반 시스템 프롬프트보다 더 정확하게 해석하도록 미세 조정된 표준화된 방식으로 형식화됩니다.
AI 글쓰기의 특징적 패턴들
위키백과 가이드는 구체적인 많은 예시들을 제시하고 있습니다. 예를 들어, 일부 챗봇들은 “marking a pivotal moment(중요한 순간을 나타내며)” 또는 “stands as a testament to(~의 증거로 남아있다)”와 같은 표현으로 주제를 과장하는 경향이 있습니다.
또한 관광 브로셔처럼 글을 작성하여 경치를 “breathtaking(숨막히게 아름다운)”이라고 표현하거나, 도시를 경치 좋은 지역에 “nestled within(자리잡은)”이라고 묘사합니다. 분석적으로 보이기 위해 문장 끝에 “-ing” 구문을 추가하기도 합니다. 예: “symbolizing the region’s commitment to innovation(지역의 혁신에 대한 헌신을 상징하며).”
Humanizer의 작동 방식
이러한 규칙들을 우회하기 위해 Humanizer 스킬은 Claude에게 과장된 언어를 평범한 사실로 대체하도록 지시하며 다음과 같은 변환 예시를 제공합니다:
변환 전: “The Statistical Institute of Catalonia was officially established in 1989, marking a pivotal moment in the evolution of regional statistics in Spain.”
변환 후: “The Statistical Institute of Catalonia was established in 1989 to collect and publish regional statistics.”
Claude는 이를 읽고 패턴 매칭 기계로서 대화나 당면 작업의 맥락에 맞는 출력을 생성하기 위해 최선을 다합니다.
실제 효과와 한계점
제한적인 테스트 결과, Chen의 스킬 파일은 AI 에이전트의 출력을 덜 정확하고 더 캐주얼하게 들리게 만들었지만 몇 가지 단점이 있을 수 있습니다. 사실성을 개선하지 못하며 코딩 능력에 해를 끼칠 수 있습니다.
특히 Humanizer의 일부 지침은 작업에 따라 잘못된 방향으로 이끌 수 있습니다. 예를 들어, “의견을 가지세요. 단순히 사실을 보고하지 말고 반응하세요. ‘이것에 대해 어떻게 느껴야 할지 정말 모르겠습니다’가 장단점을 중립적으로 나열하는 것보다 더 인간적입니다”라는 지침이 포함되어 있습니다.
불완전해 보이는 것이 인간적으로 보일 수 있지만, Claude를 사용하여 기술 문서를 작성하는 경우 이러한 조언은 도움이 되지 않을 것입니다.
AI 탐지의 근본적인 문제점
위키백과 가이드가 구체적이고 많은 예시를 제공하더라도, AI 작성 탐지기가 신뢰성 있게 작동하지 않는 이유가 있습니다. 인간의 글쓰기를 LLM 글쓰기와 확실하게 구별하는 고유한 특성이 없기 때문입니다.
대부분의 AI 언어 모델이 특정 유형의 언어를 선호하는 경향이 있지만, Humanizer 스킬처럼 프롬프트를 통해 이를 피하도록 할 수도 있습니다. (물론 OpenAI가 em dash에 대한 수년간의 투쟁에서 발견한 것처럼 때로는 매우 어려울 수 있습니다.)
또한 인간도 챗봇과 유사한 방식으로 글을 쓸 수 있습니다. 예를 들어, 이 기사는 전문 작가가 작성했음에도 불구하고 AI 탐지기를 트리거하는 일부 “AI 작성 특성”을 포함하고 있을 가능성이 높습니다. 특히 단 하나의 em dash라도 사용한다면 더욱 그렇습니다. 대부분의 LLM은 웹에서 스크랩된 전문 글쓰기 예시에서 글쓰기 기법을 습득했기 때문입니다.
AI 탐지의 정확도 문제
위키백과 가이드에는 주목할 만한 주의사항이 있습니다. 목록이 예를 들어 변경되지 않은 ChatGPT 사용의 명백한 징후를 지적하지만, 여전히 철칙이 아닌 관찰의 모음입니다.
페이지에 인용된 2025년 사전 출판 논문에 따르면, 대형 언어 모델의 헤비 유저들은 AI 생성 기사를 90%의 정확도로 올바르게 식별합니다. 이는 훌륭하게 들리지만 10%가 거짓 양성이라는 것을 깨달을 때까지입니다. 이는 AI 저질 콘텐츠를 탐지하려는 과정에서 일부 양질의 글쓰기를 잠재적으로 버리기에 충분합니다.
한 걸음 물러서서 생각해보면, AI 탐지 작업은 특정 표현을 플래그하는 것보다 더 깊이 들어가야 하며, 작업 자체의 실질적인 사실적 내용을 더 자세히 조사해야 할 필요가 있을 것입니다.
👨💻 개발자에게 미치는 영향
AI 도구 활용의 윤리적 고민
개발자들은 이제 AI 어시스턴트를 사용할 때 더 복잡한 윤리적 질문에 직면하게 되었습니다. Humanizer와 같은 도구는 기술 문서 작성이나 코드 설명을 더 자연스럽게 만들 수 있지만, AI 사용을 의도적으로 숨기려는 시도로 해석될 수 있습니다.
기술 문서 작성에 대한 재고
Humanizer의 지침 중 일부는 기술 문서 작성에 부적합할 수 있습니다. 정확성과 명확성이 중요한 API 문서, 기술 사양, 또는 코드 주석 작성 시에는 “인간적인” 불완전함보다 정밀한 표현이 더 가치 있습니다.
오픈소스 커뮤니티의 새로운 트렌드
GitHub에서 1,600개 이상의 스타를 받은 것은 개발자 커뮤니티가 AI 도구의 출력물을 더 자연스럽게 만드는 것에 관심이 있음을 보여줍니다. 이는 앞으로 유사한 도구들의 등장을 예고하며, AI 어시스턴트 사용의 새로운 패러다임을 제시합니다.
