포스트

Martin Fowler Fragments 2026년 1월 22일 분석: AI 개발 도구 실무 적용의 세 가지 핵심 시그널

Martin Fowler Fragments 2026년 1월 22일 분석: AI 개발 도구 실무 적용의 세 가지 핵심 시그널

Martin Fowler의 2026년 1월 22일 Fragments는 AI 개발 도구의 실무 적용과 관련하여 매우 중요한 세 가지 시그널을 담고 있습니다. 특히 Thoughtworks 같은 글로벌 컨설팅 기업의 공식 플랫폼 발표와 실제 사용 데이터, 그리고 필요한 discipline에 대한 통찰이 결합되어 있습니다. 이는 단순한 기술 트렌드 관찰을 넘어, AI 개발 도구가 실험실을 벗어나 엔터프라이즈 현장으로 진입하는 역사적 전환점을 보여줍니다.

들어가며: Uncle Bob과 Claude의 대화가 던지는 질문

본격적인 분석에 앞서, Robert C. Martin(Uncle Bob)이 2026년 1월에 트위터에 공유한 흥미로운 실험을 살펴봐야 합니다. 그는 Claude와 함께 코드 리팩토링 작업을 진행한 후, AI에게 직접적인 질문을 던졌습니다. “이런 리팩토링이 너(Claude)가 코드를 읽는 데 도움이 되나?”

Claude의 답변은 네 가지 명확한 이유로 “그렇다”였습니다:

  1. 명명된 의도(Named Intent): army-adjacent-to-enemy-city?라는 함수명을 보면 구현을 읽지 않고도 무엇을 확인하는지 이해할 수 있습니다. 인라인 버전에서는 neighbor-offsets를 순회하며 hostile-city?를 확인하는 코드를 파싱해야만 목적을 이해할 수 있습니다.

  2. 작업 메모리 감소(Reduced Working Memory): 중첩된 cond/let/if 표현식은 여러 단계의 컨텍스트를 동시에 유지하도록 요구합니다. set-attention-message에 화물 로직, 이유 로직, 데미지 로직이 모두 인라인으로 있었을 때, 어떤 한 부분을 이해하기 위해 더 많은 상태를 정신적으로 추적해야 했습니다.

  3. 앵커로서의 주석(Comments as Anchors): “다른 유닛을 운반하는 유닛의 화물 설명을 반환합니다”와 같은 주석은 호출자를 이해하려고 할 때 구현을 건너뛸 수 있게 해줍니다.

  4. 예측 가능한 구조(Predictable Structure): case와 단순한 when은 명확한 제어 흐름을 갖습니다. 5개 분기를 가진 cond 안에 3개 분기의 cond가 중첩된 구조는 더 신중한 추적이 필요합니다.

그리고 Claude는 결정적인 고백을 합니다: “복잡하게 중첩된 코드를 파싱할 수 있다. 그것은 하드한 제한이 아니다. 하지만 깊게 중첩된 로직에서는 추론 오류를 범할 가능성이 더 높다. 인간과 같은 방식으로.

이 대화가 2026년 초에 특별한 의미를 갖는 이유는, AI 코딩 도구들이 급격히 발전한 직후이기 때문입니다. Claude Opus 4.5(2025년 11월), GPT-5.2(2025년 12월), Gemini 3 Pro(2025년 11월) 같은 추론 모델의 등장으로 코드 생성 능력은 비약적으로 향상되었습니다. 하지만 역설적이게도, 바로 이 시점에서 클린 코드의 원칙들이 다시 주목받고 있습니다.

Thoughtworks의 AI/works™: 엔터프라이즈 AI 개발의 본격화

획기적인 플랫폼 출시

2026년 1월 20일, Thoughtworks는 AI/works™라는 agentic development platform을 공식 발표했습니다. 이는 단순한 도구 출시 이상의 의미를 갖습니다. Thoughtworks는 Martin Fowler가 수석 과학자로 있는 기업이자, 지난 30년간 Agile, 마이크로서비스, 지속적 배포 등 현대 소프트웨어 개발의 핵심 실천법들을 정의해온 권위 있는 조직입니다. 그들이 “AI-enabled software development”를 위한 플랫폼을 공식적으로 내놓았다는 것은 AI 코딩이 실험 단계를 넘어 프로덕션 레벨 컨설팅 작업에 적용될 준비가 되었다는 선언입니다.

AI/works™는 레거시 시스템 이해, 요구사항 강화, 동적 자동화 사양 생성, 그리고 agentic 코드 생성 및 테스팅을 하나의 플랫폼에서 통합합니다. Thoughtworks CEO Mike Sutcliff는 “제가 만나는 모든 CEO와 CIO는 이상화된 그린필드 환경이 아니라 기존 시스템의 현실 속에서 AI 가치를 실현하려 애쓰고 있습니다”라고 말했습니다. AI/works™는 바로 이런 조건을 위해 설계되었습니다.

3-3-3 배포 모델의 혁명

AI/works™의 가장 야심찬 약속은 “3-3-3 delivery model”입니다. 이는 아이디어에서 프로덕션까지 90일 이내에 완성하는 것을 목표로 합니다. 초기 고객들의 사례는 이것이 단순한 마케팅 슬로건이 아님을 보여줍니다. 과거 몇 년이 걸리던 현대화 사이클이 이제 몇 달 안에 완료되고 있으며, 비용은 대폭 감소하고 출시 시간은 극적으로 개선되었습니다. 더 중요한 것은 이 모든 것이 “더 높은 품질의 코드를 생성하면서” 달성되고 있다는 점입니다.

플랫폼은 AWS, Google Cloud, Microsoft Azure, Databricks, Snowflake 등 주요 클라우드 생태계와 긴밀히 통합됩니다. 또한 Mechanical Orchard와의 협력을 통해 메인프레임 현대화까지 지원합니다. 이는 AI 개발 도구가 마침내 엔터프라이즈의 가장 어려운 문제 중 하나인 레거시 시스템 현대화를 실제로 해결할 수 있음을 시사합니다.

AI-First 컨설팅 기업 인증

2026년 1월 22일, Thoughtworks는 Constellation Research로부터 첫 번째 “AI-First Consulting Firms” 중 하나로 인증받았습니다. 이 인증은 AI 네이티브 운영 모델, 디지털 노동력, 의사결정 자동화를 통해 컨설팅의 변화를 주도하는 조직을 인정합니다. Constellation Research CEO R ‘Ray’ Wang는 “AI는 우리가 본 것과는 다른 지수적 규모의 기술 혁명입니다”라며 “AI-first 컨설팅 기업들은 디지털 노동력으로 증강된 소규모 고효율 팀이 속도, 효율성, 결과에서 레거시 거대 기업들을 능가할 수 있음을 증명하고 있습니다”라고 말했습니다.

Wang은 AI/works™에 대해 “전체 라이프사이클을 다루기 때문에 두드러집니다. 레거시 시스템을 이해하고 갱신하는 것부터 다음에 올 것을 구축하는 것까지. 이것은 카테고리에 새로운 기준을 설정합니다”라고 평가했습니다.

체계적 워크플로우의 중요성

주목할 점은 현재 이 플랫폼이 “Thoughtworks 컨설턴트들의 클라이언트 작업을 지원하기 위한” 것이라는 점입니다. 이는 Thoughtworks가 자사 컨설턴트들을 대상으로 먼저 검증하고, 그 경험을 클라이언트에게 전파하겠다는 전략을 보여줍니다. 이는 매우 보수적이면서도 현명한 접근입니다.

개별 개발자가 산발적으로 ChatGPT나 Claude를 사용하는 것과, 조직이 구조화된 플랫폼을 통해 AI를 통합하는 것은 전혀 다른 차원의 문제입니다. Thoughtworks의 이번 발표는 후자로의 전환이 본격화되고 있음을 보여줍니다.

Claude Code의 전력 소비: 현실적 비용 평가와 환경 영향

Simon Couch의 실증적 분석

Simon Couch의 전력 소비 분석은 AI 개발 도구 사용의 실제 비용을 이해하는 데 중요한 기여를 합니다. 그는 “헤비 유저”로서 하루에 몇 시간씩 프로그래밍하고 2-3개의 Claude Code 인스턴스를 동시에 구동하는데, 중앙값 기준으로 하루 1,300Wh를 소비한다고 추정했습니다. 이는 “일반적인 쿼리” 4,400개에 해당하는 양입니다.

흥미로운 점은 이것이 “여전히 그렇게 많은 전력은 아니며, 식기세척기를 돌리는 것과 비슷하다”는 그의 결론입니다. 이는 AI 개발 도구 사용의 환경적 비용이 일부에서 주장하는 것만큼 과장되었을 수 있음을 시사합니다. 물론 Couch 자신도 인정하듯이 이는 “냅킨 수학(napkin math)”이며, 모델들이 실제로 어떻게 리소스를 사용하는지에 대한 제대로 된 데이터가 없다는 것이 문제입니다.

Agentic Coding의 독특한 사용 패턴

하지만 이 분석이 진짜 중요한 이유는 다른 데 있습니다. “일반적인 쿼리”의 4,400배라는 수치는 agentic coding이 단순한 질의응답과 얼마나 다른 사용 패턴을 갖는지를 보여줍니다. Claude Code 같은 도구는 수백 번의 tool call을 수행하고, 지속적으로 컨텍스트를 확장하며, 여러 시간에 걸쳐 자율적으로 작업합니다. 이는 ChatGPT에 한두 번 질문하는 것과는 완전히 다른 차원의 컴퓨팅입니다.

2025년 12월 발표된 연구에 따르면, Couch는 실제로 하루 평균 12.7백만 토큰을 사용하며, 이는 100-200회의 휴대전화 충전에 해당하거나 미국 가정의 전형적인 에너지 소비량의 약 15%에 해당합니다. 그는 이를 측정하고 시각화하기 위해 Claude Carbon이라는 오픈소스 앱을 개발했으며, 이는 Claude Code의 토큰 사용량을 모니터링하고 이를 휴대전화나 노트북 충전과 같은 에너지 등가물로 변환합니다.

2026년 1월 현재 LLM 생태계

Uncle Bob과 Claude의 대화가 이루어진 2026년 1월 현재, LLM 생태계는 급격한 변화를 겪었습니다:

주요 모델 라인업 (2025년 하반기~2026년 초):

  • Claude 4.5 계열 (Anthropic)
    • Haiku 4.5 (2025년 10월): 빠르고 비용 효율적
    • Sonnet 4.5 (2025년 9월): 코딩과 에이전트에 최적화, SWE-bench Verified 77.2-82%
    • Opus 4.5 (2025년 11월): 최고 성능 모델
  • GPT 계열 (OpenAI)
    • GPT-5 (2025년 8월): 272,000 토큰 컨텍스트
    • GPT-5.2 (2025년 12월): Gemini 3에 대응하여 출시
    • o-시리즈: reasoning 특화
  • Gemini 3 계열 (Google)
    • Gemini 3 Pro (2025년 11월): 19/20 벤치마크에서 우위
    • Gemini 3 Flash (2025년 12월)
    • Gemini 3 Deep Think (2025년 12월)
  • 기타 주요 모델
    • Grok 4, 4.1 (xAI): 실시간 정보 접근
    • Llama 4 Maverick, Scout (Meta): 오픈소스, 10M 토큰 컨텍스트
    • DeepSeek V3, R1 (중국): 저비용 고효율
    • Mistral 3 (2025년 12월): DeepSeek V3 아키텍처 채택

투명성과 Accountability의 필요성

Fowler와 Couch 모두 “우리는 이에 대해 제대로 된 데이터를 가져야 한다”고 동의합니다. 이는 AI 개발 도구가 성숙하려면 투명한 성능 지표와 비용 데이터가 필요하다는 것을 의미합니다.

2025년 8월 현재, Microsoft, Google, AWS 같은 주요 클라우드 제공업체들은 탄소 중립 에너지로 데이터센터를 운영하거나 2030년까지 그렇게 할 계획을 가지고 있습니다. 그러나 OpenAI와 Anthropic 같은 주요 스타트업들은 ChatGPT와 Claude 훈련에 얼마나 많은 에너지가 소요되는지 여전히 공개하지 않고 있습니다.

International Energy Agency(IEA)는 데이터센터의 전력 수요가 2030년까지 약 945 테라와트시(TWh)로 두 배 이상 증가하여 전 세계 전력 수요의 약 3%, 즉 현재 일본의 전체 소비량보다 많을 것으로 추정합니다.

Chad Fowler의 Discipline: Agentic Coding의 핵심 원칙

Discipline의 재배치 (relocate discipline)

Chad Fowler의 통찰은 Uncle Bob과 Claude의 대화를 분석하면서 도달한 결론과 정확히 일치합니다. 그는 agentic coding으로의 전환이 Extreme Programming, 동적 언어, 지속적 배포가 등장했을 때와 유사한 “rigor and discipline”의 변화(shift in rigor and discipline)를 요구한다고 지적합니다.

Extreme Programming의 경우, 이는 테스팅, 지속적 통합, 코드베이스의 건강성 유지에 대한 많은 discipline을 의미했습니다. Fowler는 AI-enabled 개발에서도 “관찰 가능한 행동과 내부 품질 모두에 대해 소프트웨어를 평가하는 데 엄격해야 한다”고 주장합니다.

가장 중요한 문장은 이것입니다: “이 환경에서 번창할 엔지니어들은 discipline을 포기하는 것이 아니라 재배치하는 사람들일 것이다. 그들은 생성(generation)을 더 적은 정밀도가 아니라 더 많은 정밀도를 요구하는 능력으로 취급할 것이다. 그들은 이전에 대체했던 것보다 속이기 어려운 평가 시스템을 구축할 것이다. 그들은 속도(velocity)를 진보(progress)로 착각하려는 유혹을 거부할 것이다.”

Atlassian 연구: 코드 가독성은 여전히 중요하다

2025년 9월, Atlassian은 “Code Readability in the Age of Large Language Models”라는 중요한 연구를 발표했습니다. 이 연구는 LLM과 AI 에이전트가 더 많은 코드를 생성함에 따라 코드 가독성이 여전히 중요한지를 조사했습니다.

핵심 발견사항:

  1. 가독성의 지속적 중요성: 개발자의 81%가 LLM 시대에도 코드 가독성이 여전히 중요하다고 답했습니다. 가장 큰 동기는 장기적 유지보수 비용 절감이었습니다.

  2. AI 생성 코드의 실제 품질: Atlassian의 RovoDev(GPT-4 기반)가 생성한 코드를 인간이 작성한 코드와 비교한 결과:
    • Java, Kotlin, Go, Scala: 가독성에서 거의 차이 없음
    • TypeScript와 Python: 약간 더 길고 유지보수성이 낮지만 차이는 미미
    • 코드 복잡도, 주석 품질: 유의미한 차이 없음
  3. 개발자 인식: 39%는 LLM 생성 코드가 인간 코드보다 더 읽기 쉽다고 답했고, 34%는 비슷하다고 답했습니다.

  4. 가독성 개선에 LLM 활용: 72%가 LLM을 사용하여 코드 가독성을 개선할 의향이 있다고 답했습니다.

이 연구가 시사하는 바는 명확합니다. AI가 생성하는 코드의 품질은 이미 인간 수준에 도달했습니다. 문제는 AI가 나쁜 코드를 생성한다는 것이 아니라, AI조차도 잘 구조화되고 읽기 쉬운 코드를 선호한다는 것입니다. Uncle Bob과 Claude의 대화는 바로 이 지점을 포착합니다.

실증적 연구가 뒷받침하는 통찰

2026년 1월에 발표된 연구 “AI IDEs or Autonomous Agents? Measuring the Impact of Coding Agents on Software Development”는 Chad Fowler의 통찰을 실증적으로 뒷받침합니다. 이 종단적 인과 연구는 오픈소스 저장소에서 에이전트 채택의 영향을 분석했습니다.

핵심 발견사항:

  • 속도 향상의 조건부 효과: 에이전트가 프로젝트에서 처음 관찰된 AI 도구일 때만 크고 선행적인 속도 향상을 보였습니다
  • 기존 AI IDE 사용의 영향: 이전에 AI IDE를 사용했던 저장소는 최소한의 또는 단기적인 처리량 이점만 경험했습니다
  • 품질 영향: 에이전트는 정적 분석 경고, 인지 복잡도, 중복, 주석 밀도 등 소프트웨어 품질 지표에서 혼합된 결과를 보였습니다

Anthropic의 2026년 보고서는 agentic coding이 소프트웨어 개발 라이프사이클을 어떻게 재구성하고 있는지 상세히 분석합니다:

실제 적용 사례:

  • Rakuten: 12.5백만 라인 코드베이스에서 Claude Code가 7시간의 자율 작업으로 99.9% 수치 정확도 달성
  • TELUS: 13,000개 이상의 맞춤형 AI 솔루션 생성, 엔지니어링 코드를 30% 더 빠르게 배송, 총 500,000시간 이상 절약
  • Zapier: 800개 이상의 에이전트를 내부적으로 배포하여 전체 조직에 걸쳐 89% AI 채택률 달성

엔지니어의 진화하는 역할: 엔지니어들은 시간이 지남에 따라 AI 위임에 대한 직관을 개발합니다. 그들은 상대적으로 쉽게 정확성을 확인할 수 있거나 버그를 추적하는 빠른 스크립트처럼 위험이 낮은 작업을 위임하는 경향이 있습니다. 개념적으로 어렵거나 설계 의존적인 작업일수록 엔지니어들은 자신이 직접 하거나 AI와 협력적으로 작업할 가능성이 높습니다.

Velocity vs Progress의 함정

“velocity를 progress로 착각하지 않기”는 특히 한국의 빠른빠른 문화에서 되새겨야 할 경고입니다. 2026년 초 Reddit과 개발자 포럼의 논의는 이 긴장을 생생하게 보여줍니다. “Copilot 사용을 중단했는데 생산성 감소를 느끼지 못했다”는 게시물은 플랫폼 전반에서 반복적으로 메아리치는 감정을 포착합니다.

개발자들이 점점 더 중요하게 여기는 것은 순 생산성(net productivity), 즉 고립된 지원 순간이 아닌 전체 워크플로우입니다. 토큰 효율성도 중요해지고 있습니다. 모든 잘못된 해석, 환각, 실패한 에이전트 실행은 낭비된 돈입니다.

클린 코드 원칙의 부활: AI 시대의 역설

2026년 초 현재, 소프트웨어 개발 커뮤니티에서 흥미로운 현상이 관찰되고 있습니다. AI가 더 많은 코드를 작성할수록, 클린 코드 원칙에 대한 관심이 오히려 증가하고 있다는 것입니다. 이는 역설적으로 보이지만, 깊이 들여다보면 필연적인 귀결입니다.

먼저, AI 도구의 효과성이 코드베이스의 품질에 크게 의존한다는 사실이 명확해졌습니다. Simon Willison은 2025년 회고에서 “최신 코딩 에이전트들은 기존 테스트 스위트를 제공받으면 놀랍도록 효과적이다”라고 지적했습니다.

둘째, AI가 생성한 코드를 검토하고 유지보수하는 것은 여전히 인간의 몫입니다. Atlassian 연구에서 개발자들이 가독성을 중시하는 가장 큰 이유가 “유지보수 비용 절감”이었다는 점은 시사적입니다.

셋째, AI 자체가 클린 코드를 선호한다는 Uncle Bob의 실험 결과는 자기 강화 루프를 만듭니다. 개발자가 클린 코드 원칙을 따르면 → AI가 코드를 더 잘 이해하고 → 더 나은 제안과 리팩토링을 제공하고 → 결과적으로 더 깨끗한 코드베이스가 만들어진다.

전체적 맥락: 기술과 사회의 Accountability

공통 주제로서의 책임성

Fowler가 AI 개발 도구에 대한 논의와 미국의 정치적 상황, 이란의 권위주의에 대한 우려를 하나의 Fragments에 담은 것은 흥미롭습니다. 표면적으로는 무관해 보이지만, 실은 “accountability”라는 공통 주제로 연결되어 있습니다.

ICE와 CBP에 대한 Fowler의 비판은 “unaccountable and poorly trained government agents”에 대한 것입니다. 이는 AI 개발에서도 유사한 위험이 있습니다. 제대로 된 평가 시스템, 투명한 성능 데이터, 명확한 책임 구조 없이 AI 도구를 배포하면, 우리는 “unaccountable and poorly trained AI agents”를 만들게 될 수 있습니다.

Couch가 주장한 “우리는 이 모델들이 리소스를 어떻게 사용하는지에 대한 제대로 된 데이터를 가져야 한다”는 투명성과 accountability에 대한 요구입니다. Chad Fowler의 “속이기 어려운 평가 시스템”도 같은 맥락입니다.

한국 개발 생태계에의 함의

1. 엔터프라이즈급 AI 개발 플랫폼의 시대

Thoughtworks 같은 선도 기업들이 공식 플랫폼을 출시하고 있고, Constellation Research 같은 권위 있는 분석 기관이 AI-First Consulting Firms를 인증하기 시작했습니다. 한국 기업들도 산발적인 도구 사용을 넘어 체계적인 플랫폼 전략이 필요합니다.

AI/works™의 3-3-3 모델처럼, 한국 기업들도 명확한 배포 목표와 프로세스를 정립해야 합니다. 90일 내 아이디어를 프로덕션으로 가져가는 것이 불가능해 보일 수 있지만, AI 도구와 체계적인 워크플로우의 결합은 이를 현실로 만들고 있습니다.

2. 비용-효과 분석의 필수화

Simon Couch의 전력 소비 분석처럼, 한국 기업들도 AI 도구 사용의 실제 비용과 효과를 측정할 수 있는 체계를 구축해야 합니다.

특히 중요한 것은:

  • 토큰 효율성: 하루 12.7백만 토큰 사용이 미국 가정 에너지 소비의 15%에 해당
  • 모델 선택: 효율적 모델과 비효율적 모델 사이 큰 차이 존재
  • 투명한 측정: Claude Carbon 같은 도구로 실제 비용 추적

3. Discipline의 재배치

한국의 많은 개발팀이 여전히 “빠르게 만들고 나중에 고치자”는 마인드로 AI 도구를 사용하고 있다면, 이는 기술 부채를 더 빠르게 쌓는 것일 뿐입니다.

실증 연구들이 보여주듯이:

  • 에이전트가 첫 AI 도구일 때만 큰 속도 향상
  • 기존 AI IDE 사용자는 최소한의 이점만 경험
  • 순 생산성이 고립된 지원 순간보다 중요

한국 개발자들은 다음에 집중해야 합니다:

  • 명확한 사양 작성 능력 향상
  • 포괄적인 테스트 스위트 구축
  • 아키텍처 사고력 강화
  • AI 생성 코드 검증 프로세스 확립

4. 평가 시스템과 품질 게이트

AI가 생성한 코드를 검증할 수 있는 체계적인 시스템 없이는, 우리는 단지 더 많은 레거시 코드를 더 빠르게 생산하는 것뿐입니다.

Rakuten(99.9% 정확도), TELUS(500,000시간 절약) 사례는 적절한 평가 시스템과 품질 게이트가 있을 때 달성 가능합니다. 한국 기업들도:

  • Human-in-the-loop 제어 구현
  • 파괴적 작업 전 승인 게이트 설정
  • 명확한 감사 추적 유지
  • Skills 시스템 구축

5. 레거시 시스템 현대화의 기회

AI/works™가 메인프레임 현대화까지 지원한다는 것은, 한국의 많은 금융기관과 대기업이 직면한 레거시 시스템 문제를 해결할 수 있는 새로운 길을 제시합니다.

맺음말: 본질로의 회귀

Uncle Bob과 Claude의 짧은 대화는 AI 시대 소프트웨어 개발의 본질을 드러냅니다. 기술이 아무리 발전해도, 좋은 코드의 원칙은 변하지 않는다. 아니, 더 정확히 말하면, 기술이 발전할수록 그 원칙의 중요성이 더욱 부각된다.

명확한 의도를 가진 이름, 단순한 구조, 적절한 추상화, 명시적인 계약. 이것들은 1960년대 Edsger Dijkstra가 구조적 프로그래밍을 제안했을 때부터, 2000년대 Uncle Bob이 클린 코드를 강조했을 때부터, 그리고 2026년 AI가 코드를 읽고 쓰는 지금까지 변하지 않는 원칙이다.

Claude가 “인간과 같은 방식으로” 리팩토링된 코드를 더 잘 이해한다는 고백은, 결국 우리가 인간을 위해 작성해온 코드 품질의 원칙이 AI 시대에도 그대로 적용된다는 것을 보여준다. 어쩌면 AI는 우리에게 우리가 이미 알고 있던 진리를 다시 한번 상기시키는 거울인지도 모른다.

2026년, 개발자의 역할은 코드를 타이핑하는 사람에서 AI를 조율하는 아키텍트로 진화하고 있다. 하지만 그 아키텍트가 다루는 재료는 여전히 코드이고, 그 코드의 품질을 결정하는 원칙은 수십 년 전과 크게 다르지 않다. Uncle Bob이 평생 주장해온 “장인 정신(craftsmanship)”은 AI 시대에 더욱 필수적인 덕목이 되었다.

결국, 우리는 본질로 돌아가야 한다. 더 나은 도구를 얻었지만, 더 나은 코드를 작성하는 것은 여전히 우리의 책임이다. 그리고 그 책임을 다하는 방법은 예나 지금이나 같다. 읽기 쉽고, 이해하기 쉽고, 변경하기 쉬운 코드를 작성하는 것. Claude도 인정했듯이, 그것이 인간에게 좋은 것은 AI에게도 좋다.


작성일자: 2026-01-22

주요 참고 자료:

  • Robert C. Martin (Uncle Bob), Twitter 포스트 (2026년 1월)
  • Thoughtworks AI/works™ 공식 발표 (2026년 1월 20일)
  • Constellation Research AI-First Consulting Firms 인증 (2026년 1월 22일)
  • Simon Couch, “What’s Your AI Footprint?” (2025년 12월)
  • Atlassian Research, “Code Readability in the Age of Large Language Models” (2025년 9월)
  • “AI IDEs or Autonomous Agents? Measuring the Impact of Coding Agents” (2026년 1월)
  • Anthropic, “2026 Agentic Coding Trends Report”
  • Simon Willison, “2025: The year in LLMs” (2025년 12월)
이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.