AI기업 Anthropic은 어떻게 일하는가
관련글
AI기업 Anthropic은 어떻게 일하는가 - 바이브로 돌아가는 하이브 마인드
‘뭔가 다르다’는 감각
실리콘밸리에서 30년을 보낸 엔지니어 스티브 예거(Steve Yegge)는 구글과 아마존의 초창기를 몸으로 겪은 사람이다. 그런 그가 2026년 2월 초, Anthropic 직원 40여 명을 몇 주에 걸쳐 인터뷰한 뒤 이렇게 썼다.
“Something is happening over at Anthropic. They are a spaceship that is beginning to take off.” “Anthropic에서 뭔가가 일어나고 있다. 이륙하기 시작하는 우주선 같다.”
흥미로운 건, 직원들도 자기 조직을 비슷하게 묘사한다는 점이다. 예거가 들은 표현은 이랬다. “a hive mind that is run entirely on vibes” — 바이브로 돌아가는 하이브 마인드. 이 말이 경영진의 브랜딩이 아니라 현장에서 자연스럽게 나온 표현이라는 게, 예거를 놀라게 한 첫 번째 지점이었다.
2021년 OpenAI에서 갈라져 나온 이 회사는, 5년 만에 AI 안전 분야의 선두 주자이자 실리콘밸리에서 가장 인재가 몰리는 조직이 되었다. 비결이 뭘까. 예거의 관찰과 여러 소스를 교차 검증하면, Anthropic의 일하는 방식에는 기존 테크 기업과 뚜렷하게 다른 몇 가지 특징이 드러난다.
하이브 마인드 — ‘Yes, And’로 작동하는 집단 지성
Anthropic의 핵심 작동 원리를 한 마디로 줄이면 즉흥극의 ‘Yes, And’ 원칙이다. 누군가 아이디어를 내면 “그건 안 돼”가 아니라 “그래, 그리고…“로 받는다.
모든 아이디어가 일단 환영받고, 검토되고, 집단의 직관으로 평가된다. 중앙 의사결정 기구가 따로 없다. 스티브 잡스나 일론 머스크 같은 ‘비전 독재자’ 모델과는 정반대다. 예거는 자신의 에세이에서 이를 명확히 표현했다. “모든 것을 시도하고, 마법이 일어나면 모두가 동시에 그것을 깨닫는다.”
제품 개발 방식도 독특하다. Anthropic에는 캠프파이어 모델이라 부를 만한 것이 있다. 센터에 ‘살아 있는 프로토타입(living prototype)’이 놓이고, 팀원들이 모닥불 주위에 둘러앉듯 그 프로토타입을 함께 깎아 나간다. 워터폴도 없고 스펙 문서도 없다. 그냥 프로토타입이 진화하고, 어느 순간 “이거다” 하는 감각이 공유되면 그게 제품이 된다.
계획 주기도 짧다. 예거가 들은 바에 따르면, Anthropic은 90일 이상의 운영 계획을 세우지 않는다. 실리콘밸리에서 이 정도로 짧은 계획 주기를 가진 조직은 드물다. 가장 빠른 피드백 루프를 돌리면서, 그 안에서 즉흥처럼 움직인다. 예거는 이걸 “improv(즉흥극)”에 비유했다.
이 방식이 작동하려면 전제가 있다. 팀 전체가 같은 방향을 ‘느끼고’ 있어야 한다. 문서나 KPI로 정렬하는 게 아니라, 바이브로 정렬한다. 소리 없이 작동하는 집단 지성. 그래서 하이브 마인드다.
에세이 리더십 — 2,000자 슬랙 메시지로 토론하는 CEO
Anthropic의 CEO 다리오 아모데이(Dario Amodei)는 일반적인 CEO와 다른 방식으로 소통한다. 회의실에서 한마디로 방향을 정하는 대신, 2,000자짜리 에세이를 슬랙에 올린다.
Anthropic 엔지니어 숄토 더글러스(Sholto Douglas)가 이 문화를 이렇게 묘사했다.
“He quite frequently puts out these very, very well-reasoned essays. And then throughout Slack, we’ll have giant essay-length debates with people about Anthropic.” “그는 아주 잘 추론된 에세이를 자주 올린다. 그러면 슬랙 전체에서 에세이 길이의 거대한 토론이 벌어진다.”
아모데이가 전략적 갈림길에서 고민하는 과정 — 왜 이것이 긴장인지, 왜 저것이 도덕적 딜레마인지 — 이 모든 게 글로 공개된다. 직원들은 그 에세이에 또 다른 에세이로 반론을 제기하고, 아모데이가 다시 응답한다. 더글러스는 이 과정 덕분에 “회사 전체가 아모데이의 사고방식에 대한 좋은 모델을 갖게 된다”고 말했다.
이 에세이들은 단순한 소통 수단이 아니라 Anthropic 역사의 아카이브 역할도 한다. 더글러스의 표현을 빌리면, “10년 뒤 AGI의 역사를 추적할 때 가장 좋은 자료 중 하나가 될 것”이다. 아모데이는 이런 방식으로 의사결정 과정의 투명성을 확보한다. 누구나 주요 결정이 내려진 맥락과 이유를 이해할 수 있고, 심지어 직접 도전할 수 있다.
물론 비판도 있다. 이 방식은 의사결정에 ‘지연세(latency tax)’를 부과한다. 엔지니어와 PM이 복잡한 철학적 논증을 소화한 뒤에야 코드를 짤 수 있으니, 순수 실행 속도는 느려질 수 있다. 글로 소통하는 게 편하지 않은 사람에게는 진입 장벽이 되기도 한다. 하지만 Anthropic은 이 ‘느림’을 의도적으로 선택한 것으로 보인다. 소통만 그런 게 아니다. 제품 출시도 마찬가지다.
2025년 11월 Business Insider와의 인터뷰에서 리더십 전문가들은 이 방식에 대해 엇갈린 평가를 내놓았다. 한 전문가는 “지적 엄밀성과 추적 가능성에 대한 헌신”을 보여주며 직원들에게 “명확한 기록”을 제공한다고 평가했다. 하지만 다른 전문가는 “글쓰기는 시간이 더 걸리고”, “언어보다 텍스트로 소통이 더 나은 사람들을 배제할 위험”이 있다고 지적했다.
안전이 곧 전략이다
Anthropic이 왜 ChatGPT보다 1년 넘게 늦게 Claude를 출시했는지를 보면, 이 조직의 우선순위가 선명해진다. 기술적으로는 비슷한 시점에 준비가 되어 있었지만, 추가적인 안전 연구와 Constitutional AI(헌법적 AI, 명시적 원칙에 따라 모델을 훈련시키는 방법론) 정비에 시간을 더 썼다.
이 철학은 Responsible Scaling Policy(RSP, 책임 있는 확장 정책)로 공식화되어 있다. 미국 정부의 생물안전등급(BSL)에서 영감을 받아, 모델의 능력이 올라갈수록 안전 장치도 비례해서 강화하는 구조다. 브레이크 성능이 엔진 성능을 따라가야 한다는 원칙이다.
대부분의 AI 기업이 이런 자체 제약을 걸지 않는 이유는 간단하다 — 속도를 잃으니까. Anthropic이 이 비용을 감수하는 건, 느림이 곧 신뢰이고 신뢰가 곧 경쟁력이라는 판단에서다. 실제로 Fortune 매거진의 2025년 12월 보도에 따르면, Anthropic의 안전 우선 접근법이 대기업 고객들을 끌어들이는 핵심 요인이 되었다. 기업 고객들은 Anthropic의 안전성과 신뢰성에 프리미엄을 지불하고 있다.
아모데이는 TIME 인터뷰에서 Anthropic의 경쟁 철학을 이렇게 요약했다. “우리의 경쟁 우위는 연구자와 엔지니어의 창의성이지, 순수 컴퓨팅 파워가 아니다.” 그가 자주 쓰는 표현이 있다. “우주선이 필요한 게 아니라 자전거만 있으면 된다(We don’t invent a spaceship if all we need is a bicycle).” 가장 단순한 해결책을 먼저 찾고, 거기서부터 반복한다는 뜻이다.
법인 구조도 이 철학을 반영한다. Anthropic은 Public Benefit Corporation(공익법인)으로 설립되어 있고, Long-Term Benefit Trust(장기이익신탁) 구조를 통해 투자자가 내부 의사결정에 미치는 영향을 구조적으로 제한하고 있다.
숫자가 증명하는 것들
벤처캐피털 SignalFire의 2025년 보고서에 따르면, Anthropic의 인재 유지율은 80%다. 2년 이상 재직한 직원 기준으로, AI 업계에서 가장 높은 수치다. 비교하면 DeepMind가 78%, OpenAI가 67%다. 오퍼 수락률은 기술 직무에서 88%, 영업/마케팅 직무에서는 95%에 달한다.
더 눈에 띄는 건 인재 유입 방향이다. OpenAI에서 Anthropic으로 옮기는 엔지니어는 그 역방향의 8배, DeepMind에서 Anthropic으로 옮기는 비율은 11배다. 그런데 Anthropic의 연봉이 경쟁사보다 높은 것도 아니다. 아모데이는 연봉 경쟁에 참여하지 않겠다고 공개적으로 밝힌 바 있다.
2025년 8월 WebProNews의 보도에 따르면, Meta는 일부 AI 인재들에게 1억 달러(약 1,320억 원)의 사인온 보너스를 제시했지만, Anthropic 직원들은 대화조차 하지 않았다고 한다. 아모데이는 이렇게 말했다.
“I think that what they are doing is trying to buy something that cannot be bought, and that is alignment with the mission.” “그들(경쟁사)은 돈으로 살 수 없는 것을 사려 하고 있다. 그것은 미션에 대한 정렬이다.”
Anthropic의 채용 과정에는 직무와 무관하게 모든 후보에게 적용되는 유니버설 컬쳐 인터뷰가 있다. 기술 역량이 아니라, 앞서 설명한 바이브 문화 — 상호 신뢰, 안전에 대한 진심, 에세이 토론에서 드러나는 지적 겸손 — 에 공명하는 사람인지를 본다. SignalFire의 Nick Lewis(Anthropic Global GTM Recruiting 책임자)는 2025년 7월 인터뷰에서 “진정으로 미션 중심이고, 투명하며, 인간 중심적인 채용 방식이 경쟁이 치열한 환경에서 Anthropic을 독특하게 만들었다”고 설명했다.
아무리 뛰어난 인재라도 미션과 깊이 공명하지 않으면 채용하지 않는다. 에세이 리더십이 만든 투명한 사고 공유 → 미션 정렬 강화 → 높은 유지율. 이 인과 사슬이 80%라는 숫자의 비밀이다.
AI로 AI를 만든다 — 자기 실험의 기록
Anthropic에는 한 가지 흥미로운 메타적 측면이 있다. 자신들이 만든 AI로 자신들의 일하는 방식을 바꾸고, 그 과정을 연구 대상으로 삼는다는 점이다.
2025년 8월, Anthropic은 내부 엔지니어와 연구자 132명을 대상으로 설문조사를 실시하고, 53건의 심층 인터뷰를 진행했다. 여기에 더해 20만 건의 Claude Code 내부 사용 기록을 프라이버시를 보호하는 방식으로 분석했다. 이 연구는 2025년 12월에 공개되어 큰 주목을 받았다.
결과는 이랬다. 12개월 전에는 일상 업무의 28%에 AI를 사용했는데, 조사 시점에는 59%로 늘었다. 자체 보고 기준 생산성 향상은 평균 50%였다. AI 보조로 수행한 업무의 27%는 “그렇지 않았으면 아예 하지 않았을 일”이었다. 버려두었던 아이디어를 되살리거나, 내부 대시보드나 실험 파이프라인처럼 ‘있으면 좋지만 시간이 없어서 못 만들던’ 도구를 만드는 데 AI를 썼다.
6개월 사이에 Claude Code 사용 패턴도 변했다. 태스크 복잡도는 5점 만점에 3.2에서 3.8로 올라갔고, 연속 도구 호출 수는 9.8에서 21.2로 두 배 이상 증가했으며, 인간이 개입하는 횟수는 6.2에서 4.1로 줄었다. AI에게 더 어렵고 자율적인 작업을 맡기는 방향으로 이동한 것이다.
특히 주목할 만한 건 업무 유형의 변화다. 디버깅이 55%로 가장 많았지만, 코드 설계와 아키텍처 기획은 1%에서 10%로, 새로운 기능 구현은 14%에서 37%로 급증했다. 단순 작업 보조를 넘어, AI가 실질적인 협업 파트너가 되고 있다는 뜻이다.
이 변화는 앞서 설명한 캠프파이어 모델과 맞물린다. 프로토타입을 중심에 놓고 함께 깎는 방식에서, AI가 첫 번째 ‘조각 초안’을 만들어주는 역할을 맡게 된 것이다. 바이브로 돌아가는 하이브 마인드에 AI라는 새 구성원이 합류한 셈이다. 이 시너지가 유지되는 한, 예거가 말한 골든에이지의 연료는 계속 공급된다.
하지만 Anthropic 내부에서도 우려는 나온다. 약 50%의 직원이 동료와의 상호작용이 줄었다고 보고했다. AI가 “첫 번째 상담 창구”가 되면서, 코드 리뷰나 멘토링 같은 우연한 배움의 기회가 줄고 있다는 것이다. 한 직원은 이렇게 말했다. “출력이 쉬워지면, 실제로 뭔가를 배우기는 어려워진다.”
다른 엔지니어는 자신의 업무가 “70% 이상 코드 리뷰어/수정자로 변했고, 순수하게 새 코드를 작성하는 사람에서 멀어졌다”고 토로했다. 또 다른 직원은 “1명, 5명, 또는 100명의 Claude에 대한 책임을 지는” 미래를 상상한다고 말했다. 그리고 어떤 이는 단도직입적으로 이렇게 말했다. “단기적으로는 낙관적이지만, 장기적으로 AI가 모든 것을 하게 되어 나와 많은 다른 사람들을 무용지물로 만들 것 같다.”
자신들이 만든 도구가 자신들의 기술을 퇴화시킬 수 있다는 역설. Anthropic은 이 문제를 인식하고 있으며, 이것이 사내만의 문제가 아니라 곧 모든 조직이 마주할 전환이라고 판단하고 있다. 2025년 12월 보고서에서 Anthropic은 자신들을 “책임 있는 직장 전환을 위한 실험실”로 포지셔닝하며, “AI가 일을 어떻게 변화시키는지 연구할 뿐만 아니라, 그 전환을 사려 깊게 헤쳐나가는 방법을 실험하고 있다”고 밝혔다.
골든에이지는 계속될 수 있을까
예거는 Anthropic을 “골든에이지(Golden Age)의 한가운데, 혹은 시작점”에 있다고 진단했다. 골든에이지란 강렬한 혁신과 속도와 생산성이 폭발하는 시기를 뜻한다. 최고의 인재가 업계 전체에서 빠르게 몰려드는 시기이기도 하다.
이런 시기는 역사에서 반복되었다. 벨 연구소, 제록스 PARC, 그리고 초기 구글. 하지만 예거 자신이 가장 잘 아는 것처럼, 구글의 골든에이지는 수익 중심으로 전환하면서 끝났다. 래리 페이지가 20% 시간을 축소하고, 사람이 일보다 많아지기 시작하면서 에너지가 사라졌다.
Anthropic도 이미 500명이 넘는 조직으로 성장했다. 2025년 7월 Alex Kantrowitz의 Medium 에세이에 따르면, 초기 투자자였던 전 구글 CEO Eric Schmidt조차 “매우 작은 회사로 유지할 것이라고 약속했는데, 그렇게 하지 않았다. 이제 매우 큰 회사이고, 평범한 회사다”라고 말했다. 바이브로 돌아가는 하이브 마인드가 이 규모에서 유지될 수 있을까.
예거는 이 문화의 취약성도 언급했다. “하이브 마인드의 작동을 방해하면, 원심분리기처럼 바깥으로 밀려난다.” 바이브에 맞지 않는 사람은 조용히 주변부로 밀려나는 구조라는 뜻이다.
번아웃 리스크를 지적하는 목소리도 있다. 2025년 11월 WebProNews는 “Anthropic’s Intense Culture: Ethical AI Boom Amid Burnout Risks”라는 제목의 기사에서 AI의 존재론적 위험과 싸우는 미션이 주는 강도가 지속 가능한 수준인지에 대한 우려를 다뤘다.
그럼에도 불구하고, 한 가지는 분명하다. 실리콘밸리의 지배적 신조였던 “Move Fast and Break Things”와 정반대의 접근법 — 에세이로 토론하고, 안전을 먼저 챙기고, 90일 이상을 내다보지 않는 ‘느린’ 방식 — 이 AI 안전과 인재 확보라는 두 축에서 가장 강한 결과를 내고 있다는 역설이다.
시장에서의 검증
이 역설은 단지 문화적 현상에 그치지 않는다. 실제 비즈니스 성과로 이어지고 있다. 2025년 여름 Menlo Ventures의 조사에 따르면, 엔터프라이즈 시장에서 Anthropic은 모델 사용량 기준 32%의 점유율로 OpenAI(25%)와 Google(20%)을 앞섰다. HSBC 리서치 보고서는 AI 지출 총액 기준으로 Anthropic의 점유율을 40%로 추정했다.
2025년 12월에는 Claude Code가 출시 7개월 만에 연간 매출 10억 달러(ARR, Annual Recurring Revenue)를 달성했다는 소식이 전해졌다. 같은 시기 Anthropic은 JavaScrip/TypeScript 런타임으로 유명한 Bun을 인수하며 개발자 도구 생태계를 더욱 강화했다.
기업 고객들이 Anthropic을 선택하는 이유는 명확하다. Fortune의 2025년 12월 커버스토리는 “안전 우선 접근법이 대기업을 어떻게 설득했는가”를 다루며, Anthropic의 안전성과 신뢰성 중심 전략이 실제로 기업 시장에서 프리미엄으로 작동하고 있다고 분석했다.
리더의 목소리: 위험과 책임
아모데이는 2024년 10월 “Machines of Loving Grace”라는 에세이를 발표하며 AI의 긍정적 잠재력을 논했다. 하지만 2026년 1월 27일, 그는 20,000단어 분량의 새 에세이 “The Adolescence of Technology”를 통해 훨씬 더 직접적이고 엄중한 경고를 발표했다.
“I believe we are entering a rite of passage, both turbulent and inevitable, which will test who we are as a species.” “우리는 격동적이고 불가피한 통과의례에 진입하고 있으며, 이것은 우리가 어떤 종인지를 시험할 것이다.”
“Humanity is about to be handed almost unimaginable power, and it is deeply unclear whether our social, political, and technological systems possess the maturity to wield it.” “인류는 거의 상상할 수 없는 힘을 곧 손에 넣게 될 것이고, 우리의 사회적, 정치적, 기술적 시스템이 그것을 다룰 성숙함을 갖추고 있는지는 매우 불분명하다.”
이 에세이에서 아모데이는 몇 가지 구체적인 예측을 제시했다. 1~5년 내에 초급 사무직 일자리의 50%가 사라질 것이며, 1~2년 내에 노벨상 수상자보다 더 능력 있는 AI가 등장할 수 있다고 경고했다. 그는 AI가 수조 달러의 가치를 창출할 것이기 때문에, 오히려 그 유혹 때문에 인류 문명이 AI에 대한 어떤 제약도 부과하기 어려워질 수 있다는 “함정”을 지적했다.
하지만 단순히 경고만 한 것은 아니다. 아모데이는 구체적인 해결책도 제시했다. 누진세 시스템을 통한 AI 기업 이익의 재분배, Constitutional AI를 통한 모델의 윤리적 훈련 강화, 그리고 Anthropic이 2026년 목표로 삼은 “Claude가 거의 결코 헌법 정신에 반하지 않도록” 하는 것 등이다.
Fortune은 이 에세이를 분석하며, “아모데이의 에세이는 어느 정도는 소설 길이의 마케팅 메시지이기도 하다”고 지적했다. 하지만 이는 아모데이가 불성실하다는 뜻이 아니라, 그의 믿음과 Anthropic의 비즈니스 전략이 일치한다는 의미다. 안전에 대한 진심 어린 고민이 곧 시장에서의 차별화 전략이 되는 것이다.
결론: 역설이 만드는 미래
이 역설이 AI 시대의 예외인지, 아니면 새로운 정답인지는 아직 아무도 모른다. 하지만 적어도, Anthropic이라는 우주선은 지금 이륙 중이다.
예거가 포착한 Anthropic의 본질은 이것이다. 바이브로 정렬하고, 에세이로 토론하고, 안전을 먼저 생각하는 ‘느린’ 조직이, 역설적으로 가장 빠르게 성장하고 최고의 인재를 끌어모으며 기업 시장을 장악하고 있다. 그리고 그들은 자신들이 만든 AI 도구로 인해 자신들의 업무 방식이 변화하는 과정을 세밀하게 관찰하고 기록하며, 그 고민을 솔직하게 공유한다.
이것이 진정한 “실험실”의 모습이다. Anthropic은 단지 AI 모델을 만드는 회사가 아니다. AI 시대의 조직이 어떻게 작동해야 하는지를 실시간으로 실험하고, 그 과정에서 발견한 긴장과 딜레마를 투명하게 공유하며, 해결책을 찾아가는 조직이다.
당신의 조직은 어떤 방식으로 날고 있는가. 그리고 당신은 이 변화의 시대에 어떤 ‘바이브’로 정렬하고 있는가.
참고 자료
Steve Yegge, “The Anthropic Hive Mind”, Medium, 2026년 2월. https://steve-yegge.medium.com/the-anthropic-hive-mind-d01f768f3d7b
WebProNews, “Inside Anthropic’s ‘Yes, And’ Culture: How a Hive Mind Mentality Is Powering AI’s Most Talked-About Rocket Ship”, 2026년 2월. https://www.webpronews.com/inside-anthropics-yes-and-culture-how-a-hive-mind-mentality-is-powering-ais-most-talked-about-rocket-ship/
Business Insider, “Dario Amodei leads Anthropic using ‘essay-length debates’ on Slack”, 2025년 11월. https://www.aol.com/articles/dario-amodei-leads-anthropic-using-145729316.html
WebProNews, “The 2,000-Word Pivot: Inside Anthropic’s High-Stakes Gamble to Redefine Speed”, 2025년 11월. https://www.webpronews.com/the-2000-word-pivot-inside-anthropics-high-stakes-gamble-to-redefine-speed/
Anthropic, “Responsible Scaling Policy (version 2.2)”, 2025. https://www.anthropic.com/responsible-scaling-policy
Anthropic, “Company”, 2026. https://www.anthropic.com/company
SignalFire, “The SignalFire State of Tech Talent Report - 2025”, 2025년 5월. https://www.signalfire.com/blog/signalfire-state-of-talent-report-2025
SignalFire, “What startups can learn from Anthropic’s 80% talent retention rate”, 2025년 7월. https://www.signalfire.com/blog/anthropic-talent-retention
Fortune, “OpenAI and DeepMind losing engineers to Anthropic in one-sided talent war”, 2025년 6월. https://fortune.com/2025/06/03/openai-deepmind-anthropic-loosing-engineers-ai-talent-war/
Anthropic, “How AI Is Transforming Work at Anthropic”, 2025년 12월. https://www.anthropic.com/research/how-ai-is-transforming-work-at-anthropic
Fortune, “Inside Anthropic: Claude is boosting developer productivity—but raising fears over deskilling and loss of job satisfaction”, 2025년 12월. https://fortune.com/2025/12/02/how-anthropics-safety-first-approach-won-over-big-business-and-how-its-own-engineers-are-using-its-claude-ai/
TIME, “Anthropic CEO Dario Amodei on Being an Underdog, AI…”, 2025. https://time.com/6990386/anthropic-dario-amodei-interview/
WebProNews, “Anthropic’s Intense Culture: Ethical AI Boom Amid Burnout Risks”, 2025년 11월. https://www.webpronews.com/anthropics-intense-culture-ethical-ai-boom-amid-burnout-risks/
Alex Kantrowitz, “The Making Of Anthropic CEO Dario Amodei”, Medium, 2025년 7월. https://kantrowitz.medium.com/the-making-of-anthropic-ceo-dario-amodei-449777529dd6
Dario Amodei, “The Adolescence of Technology”, 2026년 1월. https://www.darioamodei.com/essay/the-adolescence-of-technology
Dario Amodei, “Machines of Loving Grace”, 2024년 10월. https://www.darioamodei.com/essay/machines-of-loving-grace
Axios, “Anthropic CEO’s grave warning: AI will ‘test us as a species’”, 2026년 1월. https://www.axios.com/2026/01/26/anthropic-ai-dario-amodei-humanity
Fortune, “Anthropic CEO Dario Amodei’s proposed remedies matter more than warnings about AI’s risks”, 2026년 1월. https://fortune.com/2026/01/27/anthropic-ceo-dario-amodei-essay-warning-ai-adolescence-test-humanity-risks-remedies/
Interview Query, “Inside Anthropic: 27% of Work Now Done by AI — But Engineers Warn of Growing Skill Erosion”, 2025년 12월. https://www.interviewquery.com/p/anthropic-ai-skill-erosion-report
Steve Yegge, “Steve Yegge on AI Agents and the Future of Software Engineering”, Pragmatic Engineer Newsletter, 2026년 2월. https://newsletter.pragmaticengineer.com/p/steve-yegge-on-ai-agents-and-the
작성 일자: 2026-02-18