AI와 노동시장: 공포 마케팅을 넘어 데이터가 말하는 진실
— Anthropic 보고서 심층 해부 & AI 시대 ‘기초 없는 개발자’ 신화 비판 —
들어가며: 두 개의 목소리, 하나의 주제
2026년 3월, AI와 노동시장을 둘러싼 두 편의 콘텐츠가 각각 다른 방식으로 같은 문제를 건드렸다. 하나는 세종대학교 경영학과 안광섭 교수가 뉴스레터 ‘오즈의 지식토킹’에 기고한 분석글로, Anthropic이 2026년 3월 5일 발표한 노동시장 보고서를 데이터 전문가의 시각으로 해부한 글이다. 다른 하나는 한국의 한 개발자가 올린 유튜브 영상으로, 스탠포드대학교의 AI 개발 강의를 두고 “C언어나 자바 같은 기초 지식 없이도 수업이 가능하다”는 국내 인플루언서들의 주장을 정면으로 반박한 영상이다.
두 콘텐츠는 표면적으로는 다른 이야기를 하는 것처럼 보인다. 하지만 그 밑바닥에는 공통된 문제의식이 흐른다. AI 시대를 바라보는 시선이 지나치게 자극적이거나 단순화되어 있고, 그 과정에서 실제 데이터와 현실이 왜곡된다는 것이다. 첫 번째 글은 “AI가 일자리를 빼앗는다”는 공포 서사에 데이터로 맞서고, 두 번째 영상은 “AI 덕분에 기초 공부는 필요 없다”는 낙관 서사에 팩트로 맞선다. 이 두 콘텐츠를 함께 읽을 때, AI 시대 노동시장과 교육의 현실이 훨씬 입체적으로 보인다.
1부: Anthropic 보고서 — ‘관측된 노출’이라는 새로운 언어
1-1. 기존 연구의 한계: “할 수 있다”와 “하고 있다”의 간극
AI가 노동시장에 미치는 영향을 측정하려는 시도는 꽤 오래전부터 있었다. 그 중 가장 자주 인용되는 것이 2023년 OpenAI 소속 연구진인 Eloundou 외가 발표한 연구다. 이 연구는 미국 내 약 800개 직업의 업무 목록을 분석하여, LLM(거대언어모델)이 이론적으로 업무 속도를 두 배 이상 높일 수 있는지를 0, 0.5, 1의 세 단계로 점수화했다. 이후 이 연구는 수많은 언론 보도와 정책 논의의 근거가 되었고, “AI가 미국 일자리의 80%에 영향을 줄 수 있다”는 식의 문장들이 전 세계 미디어를 가득 채웠다.
그런데 이 연구 방식에는 구조적인 문제가 있다. 바로 ‘이론적 가능성’을 ‘실제 영향’과 동일시하는 오류다. 예를 들어 약국에서 처방전 정보를 처리하는 업무는 Eloundou 외 연구에서 AI 수행 가능성이 최대치(β=1)로 평가되었다. 하지만 실제로 Claude 같은 AI 도구가 이 업무를 수행하는 사례는 현실에서 거의 관찰되지 않는다. 법적 책임 문제, 의료 정보 검증 절차, 기존 병원 소프트웨어와의 통합 장벽이라는 현실적 제약들이 AI의 ‘이론적 능력’을 실제 업무 현장으로부터 차단하고 있기 때문이다. “할 수 있다”는 것과 “실제로 하고 있다”는 것 사이에는 법과 제도와 관행이라는 거대한 장벽이 존재한다.
Anthropic이 2026년 3월 5일 발표한 보고서 “Labor Market Impacts of AI: A New Measure and Early Evidence”는 이 간극을 정면으로 다룬다. 저자는 Maxim Massenkoff와 Peter McCrory 두 경제학자이며, 이들이 이 보고서에서 핵심적으로 도입한 개념이 바로 ‘관측된 노출(Observed Exposure)’이다.
1-2. 관측된 노출: 세 가지 데이터의 결합
‘관측된 노출’ 지표는 세 가지 데이터 소스를 조합하여 만들어진다. 첫째, 미국 노동부 산하의 ONET 데이터베이스에서 제공하는 직업별 업무 목록이다. ONET은 약 1,000개에 달하는 직업에 대해 수만 개의 구체적 업무(task)를 체계적으로 정리한 데이터베이스로, 직업 연구의 기준점 역할을 한다. 둘째, Eloundou 외 연구에서 산출한 이론적 AI 수행 가능성 점수다. 이 점수는 각 업무가 LLM에 의해 자동화될 수 있는 이론적 잠재력을 나타낸다. 셋째, 그리고 여기가 이 보고서의 진정한 혁신인데, Anthropic Economic Index에서 수집한 실제 Claude 플랫폼 사용 데이터다.
Anthropic Economic Index는 2025년 2월부터 운영되기 시작한 시스템으로, Claude.ai에서 이루어지는 수백만 건의 실제 대화를 익명화하여 분석한다. ‘Clio’라는 프라이버시 보존 분석 시스템을 통해 각 대화를 O*NET 데이터베이스의 2만여 개 업무 항목과 매핑함으로써, AI가 실제로 어떤 업무에 사용되고 있는지를 파악한다. 이것이 기존 연구들과 근본적으로 다른 점이다. 설문 응답이나 이론적 추정이 아니라, 실제 사용 행동 데이터를 기반으로 한다.
여기에 한 가지 가중치가 추가된다. AI 사용의 성격에 따라 다른 가중치를 부여하는 것이다. 사람이 AI의 도움을 받아 업무를 수행하는 ‘증강(augmentation)’ 방식에는 0.5의 가중치를, 사람의 개입 없이 API를 통해 완전 자동화된 방식으로 처리되는 사용에는 1.0의 가중치를 부여한다. 이는 완전 자동화가 노동 대체 가능성이 더 높다는 판단을 반영한 것이다. 실제로 2025년 11월 기준으로 Claude.ai 대화의 약 52%가 증강 방식이고 45%가 자동화 방식으로 나타났는데, 이 비율은 시간이 지남에 따라 자동화 방향으로 조금씩 이동하는 추세를 보이고 있다.
이 방법론으로 산출된 결과는 상당히 흥미롭다. 컴퓨터 및 수학 직군의 업무 중 이론적으로는 94%가 AI로 수행 가능하지만, 실제 관측된 커버리지는 33%에 불과했다. 이론과 현실 사이에 약 3배의 격차가 존재하는 것이다. 다른 직군도 마찬가지다. 사무·행정 직군은 이론적 가능성이 매우 높지만 실제 관측 커버리지는 훨씬 낮고, 요리사·바텐더·식기세척원 같은 직군은 이론적으로도 실제로도 AI 노출이 0%에 가깝다.
1-3. “74.5%”라는 숫자의 함정
이 보고서가 발표되자마자 언론은 특정 수치에 집중했다. “컴퓨터 프로그래머 74.5% 대체 위험”(SiliconAngle은 75%로 보도했다)이라는 헤드라인이 쏟아졌고, 일부 국내 인플루언서들도 이 숫자를 그대로 가져다 공포 서사를 강화하는 데 활용했다.
그런데 이 74.5%가 실제로 무엇을 의미하는지 정확히 이해하는 것이 중요하다. 이 숫자는 “컴퓨터 프로그래머 업무의 74.5%가 AI에 의해 대체된다”는 의미가 아니다. 정확한 의미는, “해당 직업의 업무 목록 중에서 이론적으로 AI가 수행 가능하다고 평가된 것 AND 실제 Claude 사용 데이터에서 자동화 패턴이 관찰된 것의 비율”이다. 두 조건이 동시에 충족되어야 하며, 실제 대체 비율을 직접 측정한 수치가 아니다.
더욱이 이 데이터에는 방법론적 편향 가능성이 있다. 이 보고서에서 사용한 실제 사용 데이터는 Claude 플랫폼의 것만이다. ChatGPT, Google Gemini, GitHub Copilot, Microsoft Copilot 등 다른 AI 도구들의 사용 패턴은 전혀 포함되지 않았다. 또한 Claude 사용자 집단의 특성상 개발자 비중이 상대적으로 높다고 알려져 있기 때문에, 컴퓨터 프로그래머의 노출도가 실제보다 과장되어 측정될 가능성도 있다. 실제 AI 활용 전체 범위를 보면 이 보고서의 측정치보다 넓을 수도 있고, 개발자 편향으로 인해 일부 수치는 과대 측정되었을 수도 있다.
1-4. 핵심 발견: 아직 대규모 실업은 없다
이 보고서에서 가장 중요하면서도 언론에 가장 적게 다루어진 발견은 아이러니하게도 보고서의 핵심 결론이다. “AI 고노출 직업군에서 아직 대규모 실업이 발생하지 않았다”는 것이다.
연구진은 2016년부터 현재까지의 미국 인구현황조사(CPS, Current Population Survey) 데이터를 활용하여, AI 노출 상위 25% 직군과 AI 노출이 거의 없는 직군(0% 수준)의 실업률을 비교 분석했다. 이중차분법(Difference-in-Differences, DID)이라는 통계 기법을 사용했는데, 이 방법론은 AI 도입이라는 특정 변수의 효과를 경기 변동 같은 다른 요인들로부터 분리해 내기 위한 것이다. 분석 결과, ChatGPT 출시(2022년 11월) 이후 두 그룹 간 실업률 격차의 변화는 +0.20%포인트에 불과했으며, 이는 통계적으로 유의미하지 않은 수준이었다.
다만 연구진은 이 방법론의 한계도 솔직하게 인정한다. 이 분석 프레임워크로 탐지 가능한 최소 효과 크기가 약 1%포인트 수준이라는 것이다. 다시 말해, 0.5%포인트 수준의 미묘한 실업률 변화는 이 방법론으로는 포착할 수 없다. 측정 도구 자체의 해상도에 한계가 있다. 연구진은 이를 비유적으로 설명한다. 2007~2009년 금융위기 당시 미국 실업률이 5%에서 10%로 두 배 뛴 것처럼, AI 고노출 직군의 실업률이 3%에서 6%로 두 배가 되는 수준이라면 이 프레임워크로 분명히 포착할 수 있다. 하지만 그런 일은 아직 일어나지 않았다.
Yale 예산연구소(Budget Lab at Yale)도 독자적으로 유사한 분석을 수행했는데, 2025년 11월 데이터까지 포함한 분석에서도 “AI 노출 직군에서의 실업 증가 패턴은 관찰되지 않으며, 전반적으로 안정적인 모습을 보인다”는 결론을 내렸다. 두 독립 연구기관이 비슷한 결론에 도달했다는 것은 이 발견의 신뢰도를 높여 준다.
1-5. 진짜 신호는 ‘실업률’이 아니라 ‘진입률’에서
보고서에서 가장 주목해야 할 발견은 실업률 분석이 아니라 뒤쪽에 등장하는 청년층 취업 진입률 분석이다. 이 부분이 사실상 이 보고서의 가장 핵심적인 경고 신호다.
연구진은 22~25세 청년층의 직업 진입률(job start rate), 즉 해당 직업에 새롭게 취업하는 비율을 분석했다. 결과는 주목할 만하다. AI 노출이 높은 직업군에서 청년층의 월간 신규 취업률이 2024년부터 눈에 띄게 하락하기 시작했다. 2022년 대비 약 14% 감소한 것으로 나타났는데, 연구진은 이 수치가 통계적 유의성의 경계선에 있다고 조심스럽게 밝혔다. 반면 AI 노출이 낮은 직업군에서는 청년층의 취업률이 월 2% 수준에서 안정적으로 유지되고 있었고, 25세 이상 연령대에서는 이런 하락이 관찰되지 않았다.
이 발견은 스탠포드 디지털경제연구소(Stanford Digital Economy Lab)의 Brynjolfsson, Chandar, Chen(2025) 연구와 교차 검증이 가능하다. 이 스탠포드 연구팀은 미국 최대 급여 처리 회사인 ADP의 실제 급여 데이터를 분석했는데, AI 고노출 직업에서 22 ~ 25세 고용이 2022년 말 이후 6 ~ 16% 감소했다는 결과를 냈다. 특히 소프트웨어 개발자 직군에서는 22~25세 인력이 2022년 대비 약 20% 감소한 반면, 35세 이상 연령대는 오히려 소폭 증가하는 패턴이 관찰되었다.
두 연구가 서로 다른 데이터 소스(CPS 설문 vs. ADP 급여 데이터)로 유사한 방향의 결과를 도출했다는 사실은 이 신호의 신뢰도를 높여 준다. 동시에 두 연구 모두 공통적으로 인정하는 한계가 있다. 이 감소가 순전히 AI 때문인지는 현 시점에서 인과관계를 확정하기 어렵다는 것이다. 금리 인상, 테크 업계 대규모 구조조정(2022 ~ 2023년), 경기 사이클 변화 등 다른 변수들이 동시에 작용하고 있으며, 이 복합적인 요인들을 통계적으로 완전히 분리해 내기는 현 상태에서 불가능하다.
1-6. 보고서를 읽는 두 개의 시선: 감탄과 경계
안광섭 교수는 이 보고서를 읽으며 두 가지 상반된 감정을 느꼈다고 밝힌다. 하나는 감탄이다. AI를 만드는 회사가 자기 기술의 노동시장 영향을 이 정도 수준의 방법론으로 직접 측정하겠다고 나선 것은 전례가 없는 일이다. 특히 ‘이론적 가능성’과 ‘실제 사용’ 사이의 간극을 데이터로 정직하게 드러낸 것은 기존의 자극적인 AI 일자리 담론에 냉정한 팩트체크를 제공한다.
다른 하나는 경계다. 실업률을 핵심 지표로 삼는 것 자체에 구조적 한계가 있다는 지적이다. 실업률은 “일하고 싶지만 일자리를 찾지 못하는 사람”만 집계한다. AI 때문에 아예 취업 의지를 잃은 사람, 원하는 직종을 포기하고 다른 분야로 전환한 사람, 취업 대신 대학원 진학을 선택한 사람은 실업률 통계에 전혀 잡히지 않는다. 이것이 바로 연구진이 실업률 분석만으로는 부족하다고 판단하여 청년층 진입률이라는 보조 지표를 추가한 이유다.
안 교수는 GTM(Go-To-Market) 전략 수립 경험에서 얻은 통찰을 노동시장에 적용한다. 시장의 변화는 기존 고객의 이탈보다 신규 고객의 유입 차단에서 먼저 나타난다는 것이다. 관성이 있는 기존 고객은 쉽게 떠나지 않지만, 신규 유입은 훨씬 빠르게 차단된다. 노동시장도 마찬가지다. 기존 직원을 해고하는 것은 비용과 법적 리스크가 크다. 하지만 신규 채용을 줄이는 것은 아무런 공개적 마찰 없이 조용히 진행될 수 있다. 결국 “해고 없는 구조조정”이 지금 벌어지고 있는 일의 정체일 수 있다는 것이다.
1-7. 이해충돌이라는 불편한 사실
보고서를 읽는 데 있어 한 가지 더 놓칠 수 없는 맥락이 있다. 이 보고서를 발행한 주체가 Anthropic이라는 사실이다. AI 기업이 직접 나서 “우리 기술이 아직 일자리를 대규모로 파괴하지 않고 있다”고 결론 내린 보고서를 발표하는 것은, 그 데이터가 정직하다 하더라도 전략적 의미를 동시에 띤다. 파리 정치대학의 Antonio Casilli 교수 같은 학자는 이런 연구의 이해충돌 가능성을 명시적으로 지적했다.
물론 Anthropic이 데이터를 허위로 만들었다고 볼 근거는 없다. 오히려 방법론의 한계를 솔직하게 인정하고 데이터셋을 공개(Hugging Face에서 다운로드 가능)한 것은 신뢰성을 높이는 요소다. 하지만 “누가 이 데이터를 공개했고, 왜 지금 공개했는가”라는 질문을 항상 함께 가져가야 한다. 데이터를 읽는 것과 데이터의 맥락을 읽는 것은 서로 다른 작업이다.
2부: 스탠포드 강의 논란 — “기초 없어도 된다”는 신화의 해체
2-1. 논란의 시작: 반쪽 진실이 만들어낸 오해
두 번째 콘텐츠는 한국 유튜브 공간에서 벌어진 작은 하지만 상징적인 논쟁이다. 어떤 인플루언서(들)이 스탠포드대학교의 특정 강의 — “CS 146” 혹은 ‘모든 개발자를 위한 AI’ 관련 강의로 추정 — 를 소개하면서, “이 강의는 C언어나 자바 같은 프로그래밍 언어를 다루지 않으며, 수능을 보지 않는 것과 유사하다”고 설명했다. 그러면서 “비전공자도 AI를 쓰면 개발자가 될 수 있다”는 메시지를 전달했다.
영상의 화자는 이 주장이 왜 문제인지를 직접 스탠포드 강의 자료를 하나하나 뜯어 보며 반박한다. 스탠포드가 2018~2019년 이후 대부분의 강의를 무료로 공개하고 있다는 점을 활용하여, 실제 매주 제출해야 하는 과제물(Assignment)을 모두 다운로드하여 분석했다.
2-2. 강의의 실체: 선수과목부터 과제 내용까지
화자의 분석에 따르면 해당 강의는 명확한 선수과목(Prerequisites)을 요구한다. 수강하기 전에 “Computer Science 1” 또는 그에 상응하는 과정을 이수했을 것을 전제로 한다. CS1, 즉 Computer Science 1이 어떤 수업인지가 중요한데, 화자는 이것이 운영체제(Operating System)를 직접 구축하는 과제를 포함하는 수업이라고 설명한다. 우리가 매일 사용하는 Windows, Linux, macOS 같은 운영체제를 만드는 수준의 지식을 요구하는 것이다.
매주 제출해야 하는 과제들을 보면 더욱 명확해진다. Week 2에서는 FastAPI를 활용하며 Python 언어 구사 능력이 필수적이다. Week 3에서는 Git 버전 관리 시스템을 이해하고 코드 리뷰를 수행해야 한다. Week 4와 5에서는 파이썬 고급 문법과 컴퓨터 아키텍처 이해가 요구된다. Week 6에서는 JavaScript가 등장하며 웹 개발의 클라이언트-서버 구조에 대한 이해가 필요하다. Week 7과 8에서는 개발 환경 설정 능력과 변수, 함수, 제어 흐름 같은 프로그래밍 기초 개념이 전제된다.
그뿐만 아니라 강의 설명서(Course Description) 자체가 이 강의의 목표를 명확히 밝히고 있다. “Next Generation Software Engineers를 양성하기 위한 강의”라고 적혀 있는 것이다. 소프트웨어 엔지니어를 양성하는 강의가 소프트웨어 엔지니어링의 기초 지식을 필요로 하지 않는다는 주장은 그 자체로 논리적 모순이다.
2-3. 절반의 진실이 왜 위험한가
화자는 이 강의의 가장 정확한 비유로 AI가 제시한 한 문장을 인용한다. “이 강의는 운전면허가 있는 사람에게 자율주행차 다루는 법을 가르치는 수업입니다.” 이 비유가 얼마나 정확한지는 실제 커리큘럼을 보면 분명해진다. C언어나 Java의 문법을 세세하게 다루지 않을 수 있다. 하지만 그것은 수강생이 이미 그 수준을 넘어서 있기 때문이다. 문법은 몰라도 되지만, CS1 수준의 시스템 이해도는 반드시 갖추고 있어야 한다.
인플루언서들의 주장처럼 “C언어나 자바를 몰라도 된다”는 것은 반쪽 진실이다. 정확한 표현은 “이 강의에서 C언어와 Java를 처음부터 가르치지는 않는다. 하지만 그 이상의 CS 기초를 이미 갖추고 있어야 한다”이다.
화자가 이를 자율주행 비유로 확장하는 방식은 매우 설득력이 있다. 크루즈 컨트롤이나 자율주행 기능이 탑재된 자동차라면 이론적으로 운전면허 없이도 차를 움직일 수 있다. 하지만 면허 없이 그 기능을 사용하는 것은 불법이고, 무엇보다 긴급 상황에서 적절히 대처할 수 없어 사고 위험이 극히 높아진다. AI 코딩 도구를 활용하여 기초 지식 없이도 뭔가를 만들 수 있다는 것은 사실이다. 하지만 그것이 소프트웨어 엔지니어링의 기초가 필요 없다는 말과는 전혀 다르다.
2-4. 별도의 하버드 사례: 맥락이 빠진 정보 전달
영상에서는 또 다른 사례도 등장한다. 어떤 인플루언서가 ‘하버드 강의’라고 소개한 것이 실제로는 하버드 평생교육원(Extension School)에서 200달러 내외의 수강료를 내면 누구나 들을 수 있는 강의였다는 것이다. 이 강의는 수강생이 너무 많아 교수가 모든 질문에 일일이 답변하기 어려워 챗봇을 붙여 둔 것이었는데, 이것이 마치 “교수가 AI로 대체되고 있다”는 식의 센세이셔널한 메시지로 왜곡되어 유통되었다.
화자의 비판은 이 지점에서 가장 신랄해진다. 정보 자체가 거짓이 아닐 수 있다. 하지만 맥락을 제거하고 자극적인 방식으로 재편집하여 유통하는 것은 사실상의 허위 정보 생산이다. 특히 AI 시대의 교육과 커리어에 대해 불안과 혼란을 느끼는 사람들에게 이런 정보가 미치는 영향을 생각하면, 이는 단순한 오해가 아니라 책임의 문제가 된다.
2-5. 비판의 핵심: AI 슬롭이 만들어 내는 잘못된 인식
화자는 이 영상에서 직접적으로 격앙된 감정을 드러낸다. 자신이 문제 삼는 것은 단순한 사실 오류를 넘어, 이런 콘텐츠들이 사람들에게 AI에 대한 잘못된 인식을 심어 준다는 것이다. “어, 그러면 공부 안 해도 되네. 뭐야, 다 대체할 거네. 대충 알아도 되는 거네”라는 생각을 품게 만드는 것이 진짜 문제다.
그가 이를 “AI 슬롭(AI Slop)”의 일종이라고 표현하는 것은 흥미롭다. AI 슬롭이란 AI가 만들어 낸 저품질 콘텐츠를 지칭하는 용어인데, 화자는 이 맥락에서 이 개념을 확장하여 AI에 대한 잘못된 정보를 유통하는 콘텐츠 전반을 가리키는 데 사용하고 있다. AI가 모든 것을 쉽게 만들어 준다는 과장된 낙관론과, AI가 모든 일자리를 빼앗는다는 과장된 공포론은 서로 반대 방향을 가리키는 것처럼 보이지만, 사실은 같은 뿌리에서 자란다. 복잡한 현실을 단순화하고 자극적으로 포장하는 것이다.
3부: 두 콘텐츠를 관통하는 구조적 문제
3-1. 해고 없는 구조조정: 입구가 조용히 닫히고 있다
Anthropic 보고서와 스탠포드 강의 논란은 사실 같은 현실의 두 가지 측면을 보여 준다. Anthropic 보고서가 드러낸 것은 이렇다. 기존 직원들은 아직 대규모로 해고되지 않고 있다. 그러나 새로운 사람들이 들어올 수 있는 입구, 특히 경력 사다리의 첫 번째 칸이 조용히 좁아지고 있다.
22~25세 소프트웨어 개발자의 신규 취업률이 2022년 대비 약 20% 감소했다는 것은 무엇을 의미하는가. 기업 입장에서는 AI 도구 덕분에 시니어 개발자 한 명의 생산성이 주니어 개발자 여러 명의 생산성에 맞먹게 되었다는 것을 의미한다. 따라서 같은 산출물을 내기 위해 더 적은 주니어를 채용해도 된다. 이것은 기존 직원을 자르는 것이 아니다. 그냥 새로운 사람을 덜 뽑는 것이다. 법적 리스크도 없고, 언론 보도도 없고, 노동 분쟁도 없다. 조용한 구조조정이다.
3-2. 기초 교육의 딜레마: “기초는 필요 없다”는 말이 가장 위험한 이유
스탠포드 강의 논란이 보여 주는 것은 또 다른 차원의 문제다. AI 도구가 강력해질수록, 기초 지식 없이도 표면적인 결과물을 만들어 낼 수 있는 것은 사실이다. 하지만 이것이 “기초가 필요 없다”는 결론으로 이어지는 것은 논리적 비약이다. 오히려 역설적으로, AI 도구가 강력해질수록 그것을 올바르게 평가하고 검증하고 방향을 잡아 줄 수 있는 기초 지식의 중요성은 더 커진다.
이는 뛰어난 바둑 기사 이세돌이 AlphaGo와 대결한 뒤 내놓은 통찰과 통한다. AI 도구는 실력 격차를 줄이는 것이 아니라 오히려 벌린다. 기초가 탄탄한 개발자는 AI를 활용해 생산성을 폭발적으로 높일 수 있다. 반면 기초가 없는 개발자는 AI가 만들어 준 코드가 맞는지 틀린지조차 판단하지 못한다. 자율주행이 잘 작동할 때는 운전면허 없어도 목적지에 도달할 수 있지만, 예외 상황이 발생했을 때 대처하지 못하는 것과 같다.
스탠포드 강의 논란에서 인플루언서들이 퍼뜨린 “기초 없어도 된다”는 메시지는 결과적으로 가장 도움이 필요한 사람들에게 가장 해로운 방향으로 작용할 가능성이 높다. 기초를 쌓을 시간과 여유가 없는 사람들에게 “AI가 다 해결해 준다”는 환상을 심어 주는 것은, 나중에 진입 장벽 앞에서 더 큰 좌절을 겪게 만드는 일이다.
3-3. 공포 서사와 낙관 서사의 공통된 뿌리
Anthropic 보고서를 자극적으로 보도한 언론과 스탠포드 강의를 왜곡하여 전달한 인플루언서들은 정반대의 결론을 내리는 것처럼 보인다. 전자는 “AI가 모든 것을 빼앗는다”고 하고, 후자는 “AI가 모든 것을 쉽게 만들어 준다”고 한다. 하지만 두 서사는 같은 작동 방식을 공유한다. 복잡한 현실에서 단 하나의 자극적인 메시지만을 추출하여 맥락 없이 유통하는 것이다.
안광섭 교수의 표현을 빌리자면, “인공지능이 일자리를 빼앗는다고 단순하게 이야기하는 것은 동네 아저씨, 아줌마, 취준생도 할 수 있다.” 문제는 그 복잡한 현실의 구조를 파악하고, 어떤 구체적인 대응이 필요한지를 이야기하는 것이다. 공포심을 조장하는 것이 목적이라면 그것은 가학적이거나 강의 판매를 위한 도구다. 현실을 지나치게 낙관적으로 단순화하는 것도 마찬가지다.
4부: 실제 데이터가 그리는 지형도
4-1. AI 가장 많이 쓰는 직군과 쓰지 않는 직군
Anthropic Economic Index의 실제 데이터를 보면 직군별 AI 활용의 격차는 극명하다. 컴퓨터 및 수학 직군이 Claude 전체 쿼리의 37.2%를 차지하며 압도적으로 높다. 그 다음이 예술·디자인·엔터테인먼트·미디어 직군으로 10.3%다. 반면 AI 노출이 사실상 0%인 직군도 전체 직업의 약 30%를 차지하는데, 요리사·구명 요원·오토바이 수리공·바텐더·식기세척원 같은 신체 및 현장 노동 중심 직업들이다.
AI 사용과 관련하여 또 하나 흥미로운 패턴이 있다. 가장 낮은 임금 직군과 가장 높은 임금 직군 모두 AI 사용 비율이 낮고, 중간 임금 직군에서 AI 활용이 가장 활발하다는 것이다. 컴퓨터 프로그래머나 카피라이터 같은 중간-고임금 직군이 AI 도구를 가장 적극적으로 활용하고 있다.
4-2. 증강 vs. 자동화: 아직은 증강이 우세
AI 활용의 성격을 보면 2025년 11월 기준으로 증강(사람이 AI의 도움을 받아 작업) 방식이 52%, 자동화(사람 개입 없는 API 처리) 방식이 45%다. 2025년 8월에는 자동화가 잠깐 증강을 추월하는 패턴도 관찰되었는데, 이후 다시 증강이 우세로 돌아왔다. 하지만 장기적 추세는 자동화 방향으로 조금씩 기울고 있다.
이 데이터가 의미하는 것은 현재 AI 활용의 주된 패턴이 아직은 인간을 완전히 대체하는 것이 아니라 인간의 능력을 확장하는 방향이라는 것이다. 하지만 자동화 비중이 지속적으로 증가하고 있다는 것은 미래의 방향을 예고한다.
4-3. 직스킬링과 업스킬링: AI 도구가 만드는 두 가지 결과
AI가 업무 일부를 흡수할 때 두 가지 다른 결과가 나타날 수 있다. 하나는 ‘업스킬링(upskilling)’이다. 부동산 관리자의 경우, AI가 저숙련 업무를 처리해 주면서 부동산 관리자가 더 높은 가치의 업무에 집중할 수 있게 된 패턴이 관찰되었다. 반면 ‘디스킬링(deskilling)’의 위험도 있다. AI가 가장 복잡한 업무를 처리해 버리면, 인간에게는 더 단순한 업무만 남게 되어 전문성이 오히려 퇴화할 수 있다. Anthropic의 2026년 1월 보고서는 여행 대리인을 사례로 든다. AI가 복잡한 일정 계획을 처리해 버리면, 여행 대리인은 단순 확인 업무만 하게 되면서 전문적 능력이 점차 약화될 수 있다는 것이다.
5부: 구조적 함의와 우리가 해야 할 질문들
5-1. 보고서가 제안하는 것: 무엇을 측정할 것인가
안광섭 교수가 이 보고서의 진정한 가치를 “아직 괜찮다는 결론”이 아니라 “무엇을 측정해야 하는가에 대한 프레임워크 제시”에서 찾는 것은 매우 정확한 통찰이다. 보고서의 마지막 문장이 향후 연구 과제로 “AI 고노출 전공 졸업생들의 노동시장 진입 경로”를 지목하고 있다는 것은 그냥 지나칠 수 없는 신호다. 이미 데이터에서 무언가가 감지되고 있기 때문에 이 질문을 던지는 것이다.
컴퓨터공학, 소프트웨어 엔지니어링, 데이터 사이언스를 전공한 졸업생들이 실제로 자신의 전공 분야에서 취업하고 있는가? 그들의 초봉은 어떻게 변하고 있는가? 취업까지의 기간은 늘어나고 있는가? 이런 질문들에 대한 답을 체계적으로 추적하는 것이 앞으로 몇 년간 가장 중요한 노동시장 연구 과제 중 하나가 될 것이다.
5-2. 공교육과 직업 훈련 시스템이 직면한 도전
스탠포드 강의 논란이 드러내는 더 깊은 문제는 AI 시대에 무엇을 가르쳐야 하는가에 대한 사회적 혼란이다. “AI가 다 해결해 주니까 기초 공부는 필요 없다”는 메시지가 유통되는 이유 중 하나는, 빠르게 변하는 기술 환경 속에서 기존 교육 시스템에 대한 불신이 커지고 있기 때문이기도 하다. 4년간 컴퓨터공학을 공부해도 졸업 시점에 업계가 요구하는 것이 달라져 있는 경험을 많은 사람들이 하고 있다.
하지만 해법이 “기초를 포기하고 AI 도구 사용법만 배우자”여서는 안 된다. 운전면허 비유를 다시 쓰자면, 자율주행 기술이 발전했다고 해서 교통 법규와 도로 상황 판단 능력 교육이 불필요해지는 것이 아니다. 오히려 더 복잡해진 교통 환경을 이해하기 위한 더 깊은 교육이 필요할 수 있다.
5-3. 한국적 맥락: 좁아지는 입구가 더 심각하게 작동하는 이유
한국의 노동시장 맥락에서 이 문제는 더욱 예리하게 작동할 수 있다. 한국의 청년 취업 시장은 이미 대기업과 공공기관 위주의 극도로 협소한 입구로 유명하다. 여기에 AI로 인한 신규 채용 감소가 겹친다면, 그 효과는 미국보다 더 가파르게 나타날 가능성이 있다.
또한 한국의 IT 업계는 2022~2023년의 글로벌 테크 업계 구조조정 여파를 직접 경험했고, 동시에 대기업들이 AI 도입을 가속화하고 있다. 이 두 가지 요인이 결합하면, 주니어 개발자의 신규 채용 감소는 단순한 경기 순환적 현상을 넘어 구조적 변화일 가능성이 높다.
결론: 데이터가 말하는 것과 말하지 않는 것
Anthropic의 보고서와 스탠포드 강의를 둘러싼 논란은 서로 다른 각도에서 같은 교훈을 준다. 데이터는 현재 시점에서 AI가 기존 일자리를 대규모로 파괴하고 있다는 증거를 보여 주지 않는다. 하지만 데이터는 동시에, 새로운 일자리로 들어가는 입구가 특정 연령대와 특정 직군에서 조용히 좁아지고 있다는 신호를 포착하고 있다.
스탠포드 강의 논란은 이런 상황에서 기초 지식을 포기하는 것이 얼마나 위험한지를 보여 준다. AI 도구가 강력해질수록, 그것을 올바르게 활용하고 검증하고 방향을 잡아 줄 수 있는 기초 역량의 중요성은 오히려 커진다. “AI가 다 해결해 준다”는 과도한 낙관론과 “AI가 모든 걸 빼앗는다”는 과도한 공포론은 모두 현실을 제대로 보는 데 방해가 된다.
진짜 중요한 질문은 이것이다. 지금 경력 사다리의 첫 번째 칸을 막 오르려는 사람들에게 어떤 준비가 필요한가? 어떤 기초가 AI 시대에도 여전히 유효하며, 어떤 역량을 새롭게 쌓아야 하는가? 그리고 개인의 노력만으로 해결되지 않는 구조적 문제에 대해 사회와 기업과 정책은 어떤 역할을 해야 하는가?
데이터는 지금 이 질문들을 던지기에 가장 적절한 시점이 바로 지금이라고 말한다. 명백한 재앙이 닥친 이후보다, 신호가 감지되기 시작한 지금이 대응하기에 훨씬 좋은 때다.
참고 자료
핵심 보고서 및 연구
- Massenkoff, M. & McCrory, P. (2026). Labor market impacts of AI: A new measure and early evidence. Anthropic. 원문 PDF
- Brynjolfsson, E., Chandar, B. & Chen, R. (2025). Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence. Stanford Digital Economy Lab.
- Eloundou, T. et al. (2024). GPTs are GPTs: An early look at the labor market impact potential of large language models. Science.
- Handa, K. et al. (2025). Which Economic Tasks are Performed with AI? Evidence from Millions of Claude Conversations. Anthropic.
관련 분석 및 비평
- Casilli, A. (2025). Young Workers Haven’t Been Replaced by AI — Economists Are Just Looking for Them in the Wrong Places.
- Budget Lab at Yale (2026). Evaluating the Impact of AI on the Labor Market: November/December CPS Update.
- Anthropic Economic Index 데이터셋: Hugging Face
원본 콘텐츠
- 안광섭 (2026.03.07). 인공지능이 일자리를 빼앗는다고요? 데이터는 다른 이야기를 하고 있어요. 오즈의 지식토킹. https://maily.so/oz.talking/posts/wjzdpmemz3p
- 유튜브 영상: 스탠포드 CS146 강의 ‘기초 불필요’ 주장 팩트체크. https://www.youtube.com/watch?v=fCZ1MAd8jYo
작성일: 2026-03-08