LLM에게 글쓰기를 맡기면 정말 생각과 신뢰를 동시에 잃는가
“LLM에게 글쓰기를 맡기는 것은 생각할 기회와 신뢰를 쌓을 기회를 동시에 날리는 행위다.” — Alex Woods, “Don’t Let AI Write For You” (2026.03.08)
관련글
들어가며 — 이 주장이 왜 나를 불편하게 만드는가
이 주장을 처음 읽었을 때, 나는 두 가지 상반된 반응을 동시에 느꼈다. 하나는 “맞다, 이건 중요한 경고다”라는 공감이었고, 다른 하나는 “하지만 이렇게 단순하게 말할 수 있는가?”라는 저항이었다. 그 불편함이 이 글을 쓰게 만들었다. 왜냐하면 어떤 주장이 나를 불편하게 만들 때, 그것은 대개 그 주장이 중요한 무언가를 건드리고 있다는 신호이기 때문이다.
Alex Woods의 주장은 날카롭고 매력적이다. “글쓰기의 목표는 글을 완성하는 것이 아니라 이해를 높이는 것”이라는 통찰, “LLM에게 글쓰기를 맡기는 것은 대신 운동시키는 것과 같다”는 비유, 그리고 LLM 생성 문서가 신뢰를 쌓을 기회를 날린다는 주장. 이 모든 것이 직관적으로 옳게 느껴진다. 그러나 직관은 종종 우리를 지나치게 단순한 결론으로 이끈다. 그래서 나는 이 주장을 좀 더 꼼꼼히 들여다보고 싶다. 어디까지가 진실이고, 어디서부터 과장이 시작되는지를.
첫 번째 검토 — “생각할 기회를 잃는다”는 주장은 얼마나 사실인가
Woods의 주장 중 가장 강력한 부분은 “생각할 기회를 잃는다”는 것이다. 그리고 이 부분은 단순한 철학적 주장이 아니라, 최근 신경과학 연구에 의해 실증적으로 뒷받침되고 있다. 2025년 MIT 미디어랩에서 발표된 연구 “Your Brain on ChatGPT”는 이 문제를 뇌과학의 언어로 포착했다. 연구팀은 54명의 참가자를 세 그룹(뇌만 사용, 검색 엔진 사용, LLM 사용)으로 나누어 에세이를 쓰게 하고, EEG(뇌파 측정)를 통해 인지 부하를 측정했다.
결과는 놀라울 정도로 명확했다. 뇌만 사용한 그룹이 가장 넓고 강한 뇌 네트워크 연결성을 보였고, 검색 엔진 그룹은 중간 수준이었으며, LLM 그룹은 가장 약한 연결성을 보였다. 인지 활동이 외부 도구 사용의 정도에 비례하여 줄어들었다. 더 충격적인 것은 장기적 효과였다. LLM 사용자들이 4세션에서 AI 도움 없이 글을 써야 했을 때, 78%가 자신이 쓴 에세이의 어떤 구절도 인용하지 못했다. 자신이 생성한 문서의 내용을 기억하지 못하는 것이다. 이 연구는 이 현상에 “인지 부채(cognitive debt)”라는 이름을 붙였다. LLM이 단기적 편의를 제공하는 대신, 장기적으로 비판적 사고력, 창의성, 독립적 사고력을 점진적으로 갉아먹는다는 것이다.
이 데이터는 Woods의 주장을 강력하게 지지한다. 글쓰기는 단순히 텍스트를 생성하는 행위가 아니다. 그것은 두뇌가 정보를 처리하고, 구조화하고, 기억에 각인시키는 과정이다. LLM이 그 과정을 대신하면, 결과물은 생기지만 그 과정에서 얻어야 할 인지적 성장은 일어나지 않는다. Woods의 운동 비유는 단순한 수사가 아니다. 그것은 신경과학적 실재를 가리키고 있다.
그러나 여기서 멈춰야 한다. 이 연구의 한계를 함께 봐야 하기 때문이다. 참가자는 54명이었고, 모두 보스턴 지역의 대학 관련 인구였으며, 연구 자체가 아직 동료 심사를 완전히 마치지 않은 상태의 프리프린트였다. 또한 글쓰기를 하나의 단일한 행위로 취급했는데, 실제로 글쓰기는 아이디어 생성, 구조화, 초안 작성, 편집이라는 여러 하위 과정으로 구성되며, LLM은 이 과정들에서 각기 다른 방식으로 기능한다. “LLM이 글쓰기의 전 과정을 대체할 때” 인지 부채가 발생한다는 결론은 설득력 있지만, “LLM을 글쓰기 과정의 일부에 활용할 때”도 같은 결론이 성립하는지는 아직 충분히 밝혀지지 않았다.
그럼에도 핵심 논점은 살아 있다. 생각은 연습해야 유지되고, LLM이 생각의 모든 부담을 가져가면 그 근육은 퇴화한다. 이것은 충분히 설득력 있는 경고다.
두 번째 검토 — “신뢰를 쌓을 기회를 잃는다”는 주장은 어떤가
신뢰의 문제는 더 복잡하다. Woods는 LLM 생성 문서를 보낼 때, 상대방에게 보여주는 것은 “LLM이 그 사람이 듣고 싶어 하는 것을 근사치로 생성했다는 사실”뿐이며, 이것이 신뢰를 훼손한다고 주장한다. 이 주장은 감각적으로 옳다. 그러나 신뢰가 정확히 어떤 메커니즘으로 형성되고 훼손되는지를 따져보면 이야기가 더 복잡해진다.
2025년 California Management Review에 발표된 연구는 AI 시대의 진정성(authenticity)이 세 가지 요소의 결합으로 구성된다고 주장한다. 신뢰성(credibility), 투명성(transparency), 평판(reputation)이 그것이다. 콘텐츠의 신뢰성만으로는 부족하고, 투명성만으로는 공허하게 들리며, 평판만으로는 방어적으로 보인다. 세 가지가 정렬될 때 비로소 신뢰가 형성된다. 이 프레임워크로 봤을 때, LLM 생성 글쓰기가 신뢰를 훼손하는 경로는 단순히 “AI가 썼다”는 사실이 아니라, 그것이 신뢰성, 투명성, 평판 사이의 정렬을 무너뜨리기 때문이다. 독자는 글의 배후에 있는 인간의 지적 성실성을 판단하는데, LLM 생성 글쓰기는 그 판단을 어렵게 만든다.
그런데 이 논리를 조금 더 밀어붙이면 흥미로운 질문이 생긴다. 신뢰는 과연 어디서 오는가? 극단적인 경우를 상상해보자. 어떤 사람이 LLM을 활용해 초안을 잡고, 그것을 꼼꼼히 검토하고, 자신의 판단으로 수정하고, 결국 내용 하나하나를 완전히 소화한 후에 문서를 제출한다면 어떤가? 이 경우 글쓰기 과정에서 LLM이 활용되었지만, 그 사람은 내용을 완전히 이해하고 있다. 신뢰는 훼손되었는가? 반대로, 어떤 사람이 스스로 글을 쓰지만 진지하게 사고하지 않고, 자신이 무슨 말을 하는지도 모르면서 문서를 제출한다면? 그 문서는 신뢰할 만한가?
Woods가 정말로 경고하는 것은 “LLM의 활용” 자체가 아니라, “사고의 위임”이다. 문제는 도구가 아니라 그 도구를 사용하는 방식, 더 정확히는 사고를 도구에게 넘기는 행위다. 이 구분은 중요하다. 그러나 Woods의 원문에서 이 구분이 항상 명확하게 유지되지는 않는다. “LLM이 대신 써준 문서”라는 표현은 사실 “LLM이 초안을 잡고 인간이 편집한 문서”와 스펙트럼상 어딘가에 있으며, 그 경계를 어디에 그을 것인지는 결코 자명하지 않다.
세 번째 검토 — 반론의 여지는 어디에 있는가
Woods의 주장에 동의하면서도 나는 몇 가지 중요한 반론을 무시할 수 없다.
첫 번째 반론은 “전문가에게 LLM은 다르게 작동한다”는 것이다. PNAS에 발표된 연구(2025)는 LLM의 글쓰기가 누구에게 위험한지를 섬세하게 구별한다. 특정 장르에 능숙한 사람들, 예를 들어 환자 기록을 정리하는 치료사나 친구에게 감사 편지를 쓰는 대학 졸업생에게 LLM은 생산성 도구로서 적절하다. 자신이 원하는 결과물이 어떠해야 하는지 알기 때문에 LLM의 출력물을 교정할 수 있다. 반면 학습자에게 LLM은 더 문제적이다. 학습자들은 특정 독자와 목적을 위해 텍스트를 구성하는 중요한 인지적 노력을 LLM에게 위임해버린다. 이것은 핵심적인 구분이다. LLM이 훼손하는 것은 “생각할 수 있는 능력을 아직 개발 중인 사람”의 성장 기회이지, 이미 깊은 전문성을 갖춘 사람의 신뢰가 아닐 수 있다.
두 번째 반론은 생산성의 현실적 필요에 관한 것이다. 2025년의 연구들은 글쓰기, 리서치, 프로그래밍 등 일반적인 지식 업무에서 10~25%의 성과 향상이 관찰되었음을 보여준다. 이 생산성 향상이 단순히 “대충 쓰기”가 아니라 진지한 사고와 결합될 때 나오는 것이라면, 무조건적인 LLM 글쓰기 거부는 현실적으로 지속 가능하지 않다. 특히 의사소통의 목적이 사고 발전이 아닌 정보 전달인 경우—운영 보고서, 상태 업데이트, 일상적 이메일—에 LLM을 활용하지 않는 것은 비합리적인 자원 낭비일 수 있다.
세 번째 반론은 신뢰의 원천이 변화하고 있다는 것이다. Harvard Business School의 2026년 3월 연구는 AI가 직원들이 자신의 본래 역할을 넘어서는 작업을 시도할 수 있게 해준다는 것을 발견했다. 그러나 동시에, AI는 비전문가를 전문가로 바꿔놓을 수는 없다는 것도 확인했다. 이것은 중요한 시사점을 준다. 신뢰의 원천은 점점 “이 사람이 스스로 이 문서를 썼는가?”가 아니라 “이 사람이 이 문서의 내용을 얼마나 깊이 이해하고 있는가?”로 옮겨가고 있다. 결과적으로, 문서를 생성하는 방식보다 그 결과물을 책임지고 소화하는 인간의 태도가 더 핵심적인 신뢰의 지표가 될 것이다.
네 번째 검토 — “AI 슬롭”의 실재와 그 의미
그럼에도 불구하고, Woods의 경고를 가볍게 볼 수 없게 만드는 현실이 있다. 세계경제포럼의 분석이 언급하듯, LLM 생성 콘텐츠의 범람이 최선의 경우 평범하고 진부한 내용(“AI 슬롭”)의 확산을, 최악의 경우 허위 정보의 급증을 낳는다. 2026년 초 기준으로 우리가 목격하고 있는 것이 바로 이것이다. 회의 요약, 블로그 포스트, 기획서, 심지어 논문의 초록까지 — 아무도 진지하게 생각하지 않고 LLM이 생성한 내용을 그대로 통과시키는 문서들이 넘쳐나고 있다. 이 콘텐츠들은 형식적으로 그럴듯하지만 실질적인 통찰이 없다. 독자는 시간을 쓰지만 아무것도 얻지 못한다.
이 현상이 신뢰에 미치는 누적적 영향은 실재한다. 어떤 사람이 보내는 문서가 지속적으로 이런 패턴을 보인다면, 그 사람의 사고에 대한 신뢰는 자연스럽게 감소한다. 독자는 점점 “이 사람이 실제로 이것을 이해하고 있는가?”를 의심하게 된다. Oxide Computer의 Bryan Cantrill이 표현한 것처럼, 이것은 “지적인 바지 지퍼를 열고 다니는 것”이다. 그리고 LLM을 알아볼 줄 아는 독자 집단은 점점 확장되고 있다.
더 미묘한 문제도 있다. 조직에서 문서를 통해 형성되는 신뢰는 내용의 정확성만이 아니라, 그 문서가 보여주는 사람의 사고 스타일, 관점, 판단력에 기반한다. LLM 생성 문서는 이 개인적 지문을 지워버린다. 모든 사람의 문서가 비슷한 패턴을 갖게 되고, 그 사람이 진정으로 무엇을 생각하는지가 모호해진다. 신뢰는 결국 사람에 대한 것인데, LLM 글쓰기는 그 사람을 보이지 않게 만든다.
나의 입장 — 동의하되, 더 정밀하게
나는 Woods의 주장의 핵심에 동의한다. 그러나 그의 주장보다 더 정밀한 버전이 필요하다고 생각한다.
LLM에게 글쓰기를 맡기는 것이 항상 생각할 기회를 잃는 행위는 아니다. 하지만 사고의 책임을 LLM에게 넘기는 것은 분명히 생각할 기회를 잃는 행위다. 이 둘은 구분되어야 한다. 초안을 LLM이 잡고 내가 깊이 검토하고 수정한다면, 그 과정에서 나는 여전히 생각하고 있다. 반면 LLM이 쓴 내용을 흘깃 보고 보내버린다면, 나는 생각의 책임을 포기한 것이다. 문제는 전자와 후자 사이의 경계가 개인의 정직함에 달려 있다는 점이다. 그리고 자기기만은 쉽다.
LLM이 신뢰를 훼손하는 것은 “AI가 썼다”는 사실 자체가 아니다. 내가 그 내용을 진지하게 소화하지 않았다는 사실이 신뢰를 훼손한다. 따라서 올바른 질문은 “LLM을 써야 하는가?”가 아니라, “내가 이 문서에 담긴 생각에 대해 온전히 책임질 수 있는가?”이다. 책임질 수 있다면 어떤 도구를 쓰든 문제는 없다. 책임질 수 없다면, 손으로 쓴 문서도 마찬가지로 신뢰를 훼손한다.
그렇다면 어떤 맥락에서 이 책임이 특히 중요해지는가? 바로 아이디어가 중요하고, 그 아이디어가 내 것이어야 하는 맥락이다. 전략 문서, 기획서, 설계 결정 문서, 회고 보고서, 이직 지원서, 그리고 주장이 담긴 모든 글쓰기. 이런 맥락에서 LLM이 생각을 대신한다면 그것은 자기 자신을 배신하는 행위다. 반면 운영 보고서, 상태 업데이트, 회의록 요약처럼 내용이 이미 정해져 있고 형식만 갖추면 되는 경우에 LLM을 활용하는 것은 합리적이다.
AI-Orchestrated Development 맥락에서의 성찰
이 논의는 내가 실천하고 있는 AI-Orchestrated Development의 맥락에서 더 예리한 의미를 갖는다. 코드는 AI에게 맡기되, 아키텍처 결정과 시스템의 방향은 인간이 책임진다는 원칙. 그런데 이 원칙이 글쓰기에는 어떻게 적용되는가?
만약 내가 AI에게 구현뿐만 아니라 그 구현에 대한 설명 문서까지 맡긴다면, 나는 점차 내 자신의 시스템을 이해하는 능력을 잃어갈 것이다. 아키텍처 결정서를 AI가 쓰고, 트레이드오프 분석을 AI가 정리하고, 회고 보고서를 AI가 요약한다면 — 결국 나는 내 프로젝트의 구경꾼이 된다. Woods의 경고는 바로 이 지점을 가리킨다. 효율성의 이름으로 사고를 위임할 때, 우리는 우리 자신의 전문성을 서서히 비워가고 있다.
반면, AI를 활용해 아이디어를 폭발적으로 생성하고, 그 아이디어들을 내가 비판적으로 선별하고, 선별한 것을 내 언어로 다시 구조화하는 과정은 오히려 생각을 강화할 수 있다. 이것이 Woods가 “아이디어 생성”을 LLM의 적절한 활용 영역으로 인정하는 이유다. 10개 중 1개만 쓸모 있어도 나머지는 버리면 된다. 이 과정에서 나는 여전히 판단하고, 선택하고, 이유를 설명한다. 사고의 근육은 여전히 작동한다.
결국 문제는 LLM이 내 사고를 대체하는가, 아니면 내 사고를 자극하는가이다. 이 두 사용 방식 사이에 명확한 선을 긋고, 그 선을 유지하는 것이 AI 시대의 진정한 전문성이 될 것이다.
결론 — 경고는 옳지만 처방은 더 정밀해야 한다
Alex Woods의 주장은 중요하고, 시의적절하며, 많은 사람이 듣고 싶지 않은 불편한 진실을 담고 있다. MIT 미디어랩의 연구가 신경과학적으로 뒷받침하듯, LLM에게 글쓰기를 통째로 맡기는 것은 인지 능력을 실제로 감소시킨다. 그리고 Oxide의 Bryan Cantrill이 통찰한 것처럼, 독자와 작가 사이의 암묵적 사회적 계약은 실재하며, 그것을 어기면 신뢰는 무너진다.
그러나 경고와 처방은 구분되어야 한다. “LLM에게 글쓰기를 맡기지 말라”는 처방은, 더 정밀하게는 “사고의 책임을 LLM에게 넘기지 말라”로 바꿔 말해야 한다. 글쓰기 과정에서 LLM을 활용하는 것 자체가 문제가 아니라, 그 과정에서 자신의 사고를 포기하는 것이 문제다. 도구의 사용이 아니라 도구에 대한 의존이 문제다.
그리고 이것이 가장 핵심적인 역설이다. LLM이 강력해질수록, 사용자의 사고는 더 능동적이고 더 비판적이어야 한다. 도구가 더 많은 것을 해줄 수 있을수록, 인간이 진정으로 해야 할 것이 무엇인지가 더 명확해진다. 그것은 방향을 설정하고, 판단하고, 책임지는 것이다. 글쓰기에서 그것은 자신의 사고를 언어화하고 그 언어에 책임지는 것이다.
LLM 시대에 가장 중요한 능력은 LLM을 얼마나 잘 쓰는가가 아니다. LLM을 쓰면서도 자신의 목소리와 자신의 사고를 잃지 않는 것이다. 그것이 어렵기 때문에, Woods의 경고는 여전히 유효하다.
참고 자료
- Alex Woods, “Don’t Let AI Write For You”, 2026.03.08
- Kosmyna et al., “Your Brain on ChatGPT: Accumulation of Cognitive Debt”, MIT Media Lab, arXiv 2506.08872, 2025
- Bryan Cantrill, RFD 576 — Using LLMs at Oxide, Oxide Computer Company, 2025.12
- Whittaker, Park, Kietzmann, “Authenticity in the Age of AI”, California Management Review, 2025.12
- Itzhak et al., “Do LLMs write like humans?”, PNAS Vol.122 No.8, 2025.02
- Bojinov et al., “The GenAI Wall Effect”, Harvard Business School Working Paper, 2026.03
- World Economic Forum, “AI paradoxes: Why AI’s future isn’t straightforward”, 2025.12