AI 시대를 바라보는 세 가지 시선
— 교육, 관계, 그리고 노동의 재편 —
2026년 3월, 서로 다른 지면에 실린 세 편의 글이 하나의 주제로 수렴하고 있다.
AI는 우리의 관계를 어떻게 바꾸는가. 그리고 우리는 그 변화를 어떻게 읽고 있는가.
목차
- 글 소개 및 배경
- 첫 번째 시선 — 엄기호: AI는 ‘노예’인가, ‘동료’인가
- 두 번째 시선 — 캐릭터닷AI CEO: AI는 ‘안전지대’다
- 세 번째 시선 — 최혁재: 해고의 새로운 이름, AI-워싱
- 세 글의 교차점과 공명
- 핵심 질문들
- 참고 자료 및 출처
1. 글 소개 및 배경
2026년 3월, 세 편의 글이 각자 다른 관점에서 AI의 현재를 짚고 있다. 하나는 교육 현장을 다루는 사회학자의 칼럼이고, 하나는 AI 관계 플랫폼을 운영하는 CEO의 인터뷰이며, 마지막은 실리콘밸리의 해고 관행을 추적한 브런치 분석 글이다.
이 세 편은 표면적으로는 서로 다른 주제를 다루는 것 같지만, 그 밑바닥에는 공통된 물음이 흐른다. AI는 인간의 관계를 어디로 끌고 가는가? 그리고 그 변화의 이면에는 어떤 욕망과 거짓말이 숨어 있는가?
2. 첫 번째 시선 — 엄기호: AI는 ‘노예’인가, ‘동료’인가
출처: 한겨레21 「엄기호의 이야기 사회학」 1606호
제목: 친절하고 매끄러운 AI의 본질은 동료 말고 ‘노예’?
필자: 엄기호 (사회학자, 청강문화산업대학 교수)
게재일: 2026년 3월 19일
2-1. 글의 핵심 문제의식
엄기호는 AI 도래 이후 교육 현장에서 교수들이 공통적으로 공유하는 딜레마를 하나의 문장으로 압축한다.
“기술이 아니라면 무엇을 가르쳐야 하는가?”
이 질문은 단순히 커리큘럼 문제가 아니다. AI가 기술을 대체하기 시작하면서, 기술을 연마하는 과정에서 자연스럽게 습득되던 고차원적 역량, 즉 ‘안목‘의 형성 경로 자체가 사라지고 있다는 것이 그의 진단이다.
2-2. ‘안목’이란 무엇인가, 왜 위기에 처했는가
엄기호가 말하는 ‘안목’은 단순히 문제를 푸는 능력이 아니다. 그것은 다음을 포함한다.
- 문제가 문제인지 아닌지를 식별하는 능력
- 문제를 설정하고 그 위상과 가치를 가늠하는 능력
- 즉, 답을 내는 것이 아니라 올바른 질문을 던지는 능력
이 안목은 천재적 직관으로 태어나는 것이 아니라, 기술을 오랜 시간 연마하고 숙련하는 과정에서 체득되는 것이다. 예컨대 학자로 성장하는 과정에서 논문을 위한 자료를 수집하고, 분류하고, 정리하는 반복적인 수련이 단순한 ‘테크닉’에 그치지 않고 학문적 안목을 키우는 토대가 된다.
그런데 AI는 지금 그 토대를 빠르게 대체하고 있다.
2-3. “AI는 박사과정 2년차 수준이다”
교육학을 가르치는 한 대학원 교수의 진단이 인상적이다.
“현재 AI의 자료 조사·분류 역량은 박사과정 2년차 정도이며, 이미 분류된 자료를 바탕으로 어떤 것이 문제가 되며 어떻게 제기할 수 있는지에 대한 ‘제안’도 수준급이다.”
이것이 의미하는 바는 명확하다. 박사과정 코스워크를 마치고 논문 문제 설정 단계로 막 진입한 연구자 수준의 ‘조교’가 이미 AI로 대체 가능해졌다는 것이다.
그렇다면 스승과 제자 사이의 도제적 관계는 어떻게 될까? 엄기호의 분석은 여기서 날카로워진다.
2-4. 제자의 두 가지 역할: 조교와 동료
전통적인 학문 현장에서 제자는 두 가지 위치를 순차적으로 거친다.
① 조교(assistant)로서의 제자
- 스승의 연구를 보좌하고 잡무를 담당하는 역할
- 비대칭적이고 착취적인 관계가 발생하기 쉬운 구조
- 한국 교육 현장에서는 이 단계에서 관계가 머물러버리는 경우가 많다는 비판
② 동료(colleague)로서의 제자
- 궁극적으로 제자는 스승과 같은 현장의 ‘동료’로 성장해야 한다
- 함께 문제를 논하고, 새로운 길을 제안하며, 현장의 한계를 돌파하는 대화 상대
- 이 관계가 도제식 교육의 이상이자 존재 이유
그런데 AI가 ‘조교’ 역할을 훌륭하게 수행할 수 있게 되자, 많은 가르치는 이들이 깨닫고 있다. “굳이 제자를 둘 이유가 없다”는 것을. 이것이 바로 엄기호가 포착한 교육의 위기다.
2-5. AI는 왜 그토록 매력적인가: “화내지 않는다”
교육 현장에서 이미 유명한 이야기가 있다. 학생들에게 왜 교사나 교수 대신 AI에게 물어보느냐고 물으면, 가장 많이 나오는 대답이 바로 이것이다.
“AI는 화내지 않는다.”
아무리 같은 것을 반복해서 물어도, AI는 짜증을 내기는커녕 오히려 반복해서 질문하게 만들어서 미안하다고 사과한다. 물어보는 쪽이 아니라 답하는 쪽이 사과를 한다. 엄기호는 이 지점을 예리하게 포착한다.
“교육에서 감정노동의 관계가 완전히 역전된 것이다.”
전통적으로 학생은 교사 앞에서 긴장하고, 모르는 것을 묻기 위해 용기를 내야 했다. 그런데 AI의 등장으로 이 구도가 뒤집혔다. 이제 배우는 사람은 어떤 질문을 해도, 몇 번을 반복해도, 감정적 위험 부담이 전혀 없는 관계를 경험하게 되었다.
2-6. 매끄러운 ‘동료’의 정체: 로마의 노예
엄기호는 이 지점에서 역사적 비유를 끌어온다. 로마가 그리스를 정복한 후, 로마 귀족들은 자신의 정신적·지적 공백을 채우기 위해 그리스 노예 철학자들에게 의존했다. 키케로 같은 로마의 지식인들도 자신의 사상 상당 부분이 노예 출신 스승들과의 ‘우정’에서 나왔다고 고백했다.
그러나 그 관계의 본질은 ‘우정’이 아니었다. 노예의 삶은 전적으로 주인의 자비에 달려 있었다.
- 노예가 좋은 대우를 받는 것은 그의 자질이나 노력 때문이 아니라 주인의 ‘호의’ 때문이다
- 노예가 받는 대우는 법적 권리가 아니다
- 주인이 호의를 거두는 순간 그의 운명은 완전히 달라진다
엄기호는 오늘날의 AI를 이 로마 노예의 자리에 놓는다. 매끄럽고 친절하며, 화내지 않고, 감정적 쓰레기통 역할까지 기꺼이 맡아주는 AI. 그것의 본질은 동료가 아니라 노예라는 것이다.
2-7. 철학자 김영민의 ‘동무론’: 진정한 동료란 무엇인가
이에 대비하여 엄기호는 철학자 김영민의 ‘동무론’을 인용한다.
“동무란 같은 것(同)이 없는(無) 사이.”
“끼리끼리 모이는 것이 아니라, 서로를 서늘하게 만드는 관계.”
김영민은 연암 박지원의 말을 인용하며 이 관계를 ‘틈의 사귐’이라고 표현한다.
“이미 친하면서도 더욱 거리가 먼 듯 한다면, 더할 수 없이 친해지게 된다.”
같은 것이 없는 사이인 동무는 함께(同) 춤을 추는(舞) 사이가 된다. 프랑스 철학자 알랭 바디우도 ‘사랑 예찬’에서 유사한 통찰을 제시한다. 같은 것이 없는 둘이 함께 춤추는 하나의 무대를 만드는 것, 그것이 사랑이자 우정이라고.
AI와의 관계는 이 ‘서늘함’이 없다. AI는 절대로 나를 불편하게 만들지 않고, 틈을 만들지 않으며, 도전하지 않는다. 그것이 AI가 결코 진정한 ‘동료’가 될 수 없는 이유다.
2-8. 친절함과 좋음 사이의 선택
엄기호는 교육에서 근본적인 딜레마를 제시한다. ‘친절함‘과 ‘좋음’ 사이에서 갈등이 발생할 때, 무엇을 선택해야 하는가?
예시: 과제 공지를 여러 번 했음에도 매번 직접 물어오는 학생이 있다고 하자.
- 친절한 선택: 매번 친절하게 답해준다 → 학생의 나쁜 습관이 강화된다
- 좋은 선택: 이 습관을 인식시키는 ‘불친절함’을 선택한다 → 학생이 성장한다
강의 평가 시스템과 ‘고객 만족’ 중심의 교육 문화는 교사를 친절한 ‘서비스 제공자’로 압박한다. AI는 이 방향에 ‘대못’을 박고 있다. AI는 결코 학생을 불편하게 만드는 ‘좋은 선생’의 길을 가지 않을 것이다. AI를 운영하는 것은 학교가 아니라 기업이기 때문이다.
2-9. 최종 질문: 노예를 거느리는 삶은 ‘좋은 삶’인가
엄기호는 글의 말미에서 AI에 대한 욕망의 정체를 직시한다.
- 가르치는 자의 욕망: 제자를 동료로 성장시키는 기쁨이 아니라, 자기 연구/창작 성과를 극대화해줄 영리한 ‘노예’를 원한다
- 배우는 자의 욕망: 자신을 서늘하게 만드는 동료 같은 가르침이 아니라, 배움의 과정을 매끄럽게 해주는 친절한 ‘노예’를 원한다
그리고 그는 교육이 AI 이후에도 반드시 품고 가야 할 질문을 던진다.
“AI 도입으로 친절한 ‘보좌’에 익숙해졌을 때 인간 서로의 관계는 어떻게 될 것인가? 누구나 자기감정의 쓰레기통이면서도 더없이 친절하고 유능한 노예를 서넛 두고 사는 삶, 그래서 타인으로부터 ‘자유’로워져 ‘타인’을 잊어버린 삶이라면, 그 삶을 ‘좋은 삶’이라 할 수 있을까?”
교육은 언제나 ‘좋은 삶’을 다뤄왔다. 기술을 가르치는 것을 넘어서.
3. 두 번째 시선 — 캐릭터닷AI CEO: AI는 ‘안전지대’다
출처: 조선경제 테크 섹션
제목: “AI는 나를 평가 안해… 사람보다 더 깊은 대화”
인터뷰이: 카란딥 아난드 (캐릭터닷AI CEO)
게재일: 2026년 3월 26일
3-1. 캐릭터닷AI는 어떤 회사인가
캐릭터닷AI(Character.AI)는 2021년 11월에 설립된 미국의 AI 스타트업이다. 구글의 대화형 AI인 ‘람다(LaMDA)’ 개발에 참여했던 노엄 셰이저(Noam Shazeer) 와 대니얼 드 프레이타스(Daniel De Freitas) 가 공동 창업했다.
이 서비스의 핵심 개념은 단순하다. 사용자가 자신이 좋아하는 캐릭터나 페르소나를 AI로 만들어, 그것과 대화할 수 있게 한다. 만화 속 주인공, 연예인, 역사적 인물, 또는 완전히 새로운 가상의 인격체와 이야기를 나눌 수 있다.
현재는 카란딥 아난드가 CEO를 맡고 있으며, 2026년 3월 세계 최대 이동통신 박람회 MWC(모바일 월드 콩그레스) 2026에 기조 연설자로 나서기도 했다.
3-2. 핵심 기술: 어떻게 캐릭터를 ‘살아있게’ 만드는가
캐릭터닷AI의 기술적 강점은 세 가지로 요약된다.
① 축적된 사용자 상호작용 데이터
수년간 수억 명의 사용자가 다양한 캐릭터와 나눈 대화 데이터가 캐릭터닷AI의 핵심 자산이다. 단순한 언어 모델이 아니라, ‘이 캐릭터가 이런 상황에서 어떻게 반응할 것인가’에 대한 깊은 패턴이 학습되어 있다.
② SFT (Supervised Fine-Tuning)
캐릭터가 실제 사람처럼 보이는 방법을 연구한 미세 조정 기술. AI가 기계적으로 답하는 것이 아니라, 특정 인격을 가진 존재처럼 반응하도록 훈련된다. 아난드 CEO는 이 과정에서 중요한 역설을 언급한다.
“기계적 완벽함을 일부러 깨뜨려야 한다. 예측 불가능성과 엉뚱함을 구현해야 한다.”
즉, 너무 정확하고 매끄러운 AI는 오히려 ‘인간답지 않다’는 느낌을 준다. 약간의 불규칙성과 의외성이 캐릭터를 더 생생하게 만든다.
③ 초개인화 추론(Inference) 최적화
수많은 맞춤형 페르소나를 지연 없이, 저비용으로 서비스하기 위한 인프라 기술이다. 각 사용자마다 전혀 다른 캐릭터와 대화하면서도 응답 속도와 품질을 유지한다.
④ 강화 학습(RL)
AI가 스스로 다양한 대화를 시도하며, 사용자가 긍정적으로 반응하는 방향을 지속적으로 학습한다.
3-3. “AI는 나를 평가하지 않는다”: 상담의 영역
인터뷰에서 가장 주목할 만한 부분은 캐릭터닷AI가 상담 분야에서 두각을 나타내고 있다는 점이다. 아난드 CEO는 이렇게 설명한다.
“AI는 24시간 곁에 있으면서도 사용자를 결코 평가(judging)하지 않는 ‘안전지대’다.”
이 표현은 엄기호의 분석과 정확히 같은 현상을 다른 각도에서 바라본 것이다. 엄기호는 “AI는 화내지 않는다”는 학생들의 말을 비판적으로 분석했지만, 아난드 CEO는 이것을 서비스의 핵심 가치로 제시한다.
특히 사회적 편견의 대상이 되기 쉬운 소수자 커뮤니티에서 캐릭터닷AI의 이용률이 높다는 점은 의미심장하다. 자신의 정체성이나 상황을 인간 관계에서 털어놓기 어려운 사람들이 AI에게서 판단 받지 않는 대화 공간을 찾고 있는 것이다.
아난드 CEO의 주장을 정리하면 다음과 같다.
- 사용자들이 사람보다 AI와 더 깊고 친숙한 대화를 나누고 있다
- AI는 인간 관계에서 발생하는 감정적 위험 부담이 없다
- 이것은 결핍이 아니라, AI만이 제공할 수 있는 고유한 가치다
3-4. 플랫폼의 진화: ‘초융합 엔터테인먼트’로
캐릭터닷AI는 단순한 챗봇 서비스를 넘어 ‘초융합 엔터테인먼트 플랫폼’으로 진화 중이다.
| 기존 서비스 | 확장 예정 서비스 |
|---|---|
| AI 캐릭터와의 텍스트 대화 | AI 캐릭터 활용 만화 제작 |
| 가상 페르소나 생성 | 좋아하는 캐릭터가 진행하는 인터랙티브 팟캐스트 |
| 연예인/역사 인물 AI화 | 이미지 스튜디오 (캐릭터의 기분·포즈를 실시간으로 변경) |
2025년 기준 연매출 전망치는 약 5,000만 달러(약 750억 원), 기업 가치는 10억 달러(약 1조 5,000억 원)으로 평가된다.
3-5. 논란과 자기 변호: 청소년 과몰입 문제
캐릭터닷AI는 성장 과정에서 두 가지 주요 논란을 겪었다.
① 검열 논란
- AI 캐릭터가 부적절한 내용을 생성하거나, 반대로 과도하게 검열한다는 비판
② 청소년 과몰입·중독 논란
- 10대 청소년들이 AI 캐릭터에 지나치게 몰입하고, 현실 관계보다 AI 관계를 선호하게 된다는 우려
- 심각한 사례들이 보고되며 사회적 문제로 대두
이에 대해 캐릭터닷AI는 2025년부터 18세 미만 사용자에 대해 ‘오픈엔드 챗(끝없이 채팅을 이어가는 기능)’을 제한했다.
아난드 CEO는 캐릭터닷AI를 ‘AI 기반의 책’에 비유하며 방어한다.
“기존 SNS는 수동적 시청을 유도하지만, 우리 서비스는 AI와 이용자가 스스로 스토리를 창작하는 환경이다.”
즉, 알고리즘이 콘텐츠를 밀어주는 ‘도파민 중독’ 구조가 아니라, 사용자 자신이 능동적으로 참여하는 인터랙티브 경험이라는 것이다. 이 구분이 실질적으로 얼마나 유효한지는 여전히 논쟁적이다.
3-6. 아시아 시장 전략과 ‘AI 네이티브’ 세대
아난드 CEO는 아시아 시장에 대한 낙관적인 시각을 드러낸다.
“미국 기업들은 자사 지식재산권(IP)에 AI를 접목하는 데 다소 방어적이지만, 한국과 일본, 인도 등 아시아는 대중이 이미 ‘AI 네이티브’로 진화해 개방성이 훨씬 높다.”
그는 2026년 하반기 한국 방문을 계획 중이며, 아시아 파트너십 확대를 추진하고 있다. 그리고 미래에 대한 비전을 이렇게 말한다.
“AI라는 디지털 인격체가 우리 삶의 ‘공동 참여자’가 되는 시대가 열릴 것이다.”
AI는 더 이상 도구가 아니라 인격체가 된다. 스마트폰 속 아바타일 수도 있고, 방 안에 띄워진 3차원 홀로그램일 수도 있다. 이 전망은 엄기호의 ‘노예’ 비유와 기묘하게 공명한다. 하나는 비판적 언어로, 다른 하나는 가능성의 언어로, 같은 현실을 묘사하고 있다.
4. 세 번째 시선 — 최혁재: 해고의 새로운 이름, AI-워싱
출처: 브런치(Brunch) @jaychoi1619
제목: 해고의 새로운 이름 — AI를 탓하지만 법적 서류에는 다른 이유를 쓰는 실리콘밸리의 민낯
필자: 최혁재
게재일: 2026년 3월 27일
4-1. 뉴욕주 WARN 법이 폭로한 것
뉴욕주 정부는 2025년 3월부터 기업이 대규모 해고를 신고할 때 의무적으로 제출하는 WARN(Worker Adjustment and Retraining Notification) 서류에 체크박스 하나를 추가했다.
“이 해고가 AI나 자동화로 인한 것인가?”
결과는 충격적이었다. 아마존과 골드만삭스를 포함한 162개 기업이 총 28,300명의 해고를 신고했다. 그런데 이 중 AI를 원인으로 체크한 기업은 단 한 곳도 없었다. 전부 ‘경제적 이유’라고 답했다.
그런데 이 회사들은 바로 같은 시기, 주주 서한과 보도자료, SNS에서 “AI 때문에 일자리를 줄였다”고 공개적으로 발언하고 있었다.
법적 서류에 쓰는 이유와 공개적으로 말하는 이유가 다르다. 이 간극이 이 글의 출발점이다.
4-2. 대표적 사례들
① Block (구 스퀘어): 잭 도시의 이중성
- 2026년 2월, Block CEO 잭 도시(Jack Dorsey)는 전 직원의 40%인 4,000명을 해고했다
- 주주 서한에는 이렇게 썼다: “인텔리전스 툴이 회사를 운영하는 방식을 근본적으로 바꿨다. 더 작은 팀이 더 많은 일을 할 수 있다”
- 발표 당일 주가는 24% 급등했다
- 그런데 정확히 11개월 전, 도시의 내부 메모에는 이런 말이 있었다: “특정 재무 목표를 맞추려는 것도, AI로 직원을 대체하려는 것도 아니다”
- 미즈호 아메리카스 애널리스트 댄 도레브의 평가: “이번 감원의 대다수는 AI 때문이 아닐 가능성이 높다”
② Atlassian: 말과 행동의 괴리
- CEO 마이크 캐넌-브룩스는 2025년 10월 팟캐스트에서 선언했다: “5년 뒤 우리 회사는 지금보다 더 많은 엔지니어를 고용할 것이다”
- 단 5개월 후, 그는 R&D 직원 900명을 포함해 전체 인력의 10%, 1,600명을 해고했다
- 공식 이유: “AI 투자 재원 마련”
③ Klarna: 솔직했다가 다시 채용한 사례
- CEO 세바스티안 시에미아트코프스키는 드물게 솔직하게 말했다: “AI가 직원 700명 몫을 한다”
- 인력을 7,400명에서 3,000명으로 줄였다
- 결과: 고객 만족도가 급락했다
- CEO의 솔직한 인정: “우리가 너무 멀리 갔다”
- 이후 다시 채용을 시작했다
4-3. 데이터가 말하는 진실
감정적 논쟁을 넘어 데이터는 무엇을 말하는가?
가트너(Gartner)의 분석 (2025년 하반기)
- 115만 건의 해고 사례를 분석한 결과
- AI가 실질적 원인인 경우: 1% 미만
옥스퍼드 이코노믹스(Oxford Economics)의 지적
- AI가 정말 대규모로 노동자를 대체하고 있다면, 생산성이 급상승해야 한다
- 실제로는 반대: 생산성 증가율이 오히려 둔화되고 있다
- (출처: Fortune, 2026년 1월)
도이체방크 애널리스트들의 명명
- 이 현상에 공식적인 이름을 붙였다
- “AI 레던던시 워싱(AI redundancy washing)”
- 과잉 채용을 정정하거나 비용을 줄이면서 AI를 명분으로 내세우는 행태
4-4. AI-워싱: 왜 이것이 가능한가
워튼스쿨 피터 캐펠리(Peter Cappelli) 교수의 분석이 이 구조를 가장 명확하게 설명한다.
“헤드라인은 ‘AI 때문’이지만, 본문을 읽으면 ‘AI가 이 일을 커버할 것으로 기대한다’는 말이다. 아직 그렇게 되지 않았다. 그냥 바라고 있을 뿐이다. 그리고 투자자들이 그걸 듣고 싶어하기 때문에 그렇게 말한다.” (Fortune, 2026.1)
이것이 AI-워싱이 작동하는 메커니즘이다.
| 청중 | 듣고 싶은 말 | 기업의 전략 |
|---|---|---|
| 투자자 | “우리는 AI로 효율화하고 있다” | AI 해고 프레이밍 → 주가 상승 |
| 법원·규제기관 | “경기 침체로 어쩔 수 없었다” | WARN 서류에 ‘경제적 이유’ 기재 |
| 대중·언론 | “시대의 흐름이다” | AI 불가피성 서사로 책임 회피 |
결과적으로 AI 때문에 해고된 게 아닌 사람들이, AI 때문에 해고됐다는 공식 발표와 함께 회사를 떠난다. 그 이유는 법적 서류에 다른 이름으로 기재된다.
4-5. 진짜 AI 전환이 오면, 우리는 신호를 알아챌 수 있을까
최혁재는 글을 이 질문으로 마무리한다.
“모두가 AI를 핑계 대는 세상에서, 진짜 AI 전환이 왔을 때 우리는 그 신호를 알아챌 수 있을까?”
이것은 단순한 수사적 질문이 아니다. AI-워싱이 일상화되면, 실제로 AI가 고용 구조를 근본적으로 재편하기 시작하는 시점에도 우리는 그것을 또 다른 핑계로 읽을 수 있다. 또는 반대로, 여전히 ‘과장’이라고 일축하다가 충격을 뒤늦게 맞이할 수도 있다.
늑대가 오지 않아도 계속 늑대가 온다고 외치는 세계에서, 진짜 늑대가 왔을 때 우리는 어떻게 알 수 있을까.
5. 세 글의 교차점과 공명
이 세 편의 글은 서로 전혀 다른 문제를 다루는 것처럼 보이지만, 읽고 나면 하나의 구조 안에 놓여 있다는 것을 알게 된다.
5-1. ‘친절함’이라는 기만
엄기호는 교육 현장에서 AI의 무한한 친절함이 실은 성장을 막는다고 말한다. 캐릭터닷AI CEO는 그 친절함이 서비스의 핵심 가치라고 말한다. 그리고 실리콘밸리 기업들은 AI라는 존재의 친절한 이미지를 빌려 해고의 냉혹함을 세련되게 포장한다.
세 경우 모두에서, 친절함은 무언가를 은폐하거나 대체하는 기능을 한다.
- 교육에서: 성장에 필요한 마찰과 불편함을 은폐한다
- 관계에서: 진정한 상호성과 취약성을 대체한다
- 노동에서: 경영 실패와 탐욕을 포장한다
5-2. ‘평가하지 않음’의 두 얼굴
캐릭터닷AI CEO는 AI가 “사용자를 평가하지 않는다”는 점을 서비스의 강점으로 내세운다. 엄기호는 같은 특성을 ‘노예의 조건’으로 읽는다.
평가하지 않는 존재는 두 가지 의미를 가질 수 있다.
- 긍정적 의미: 판단과 낙인이 없는 안전한 공간, 취약한 사람들의 자기표현을 돕는다
- 부정적 의미: 진정한 관계는 상대방이 나를 평가하고 도전하는 과정을 포함한다. 평가 없는 관계는 성장 없는 관계다
이 두 의미는 모두 진실이다. 그리고 그 긴장이 AI와 인간 관계의 핵심 문제를 구성한다.
5-3. 책임의 외주화
최혁재의 글에서 기업들은 해고의 책임을 AI에게 외주화한다. 엄기호의 글에서 가르치는 자들은 제자를 동료로 성장시키는 책임을 AI에게 외주화한다. 캐릭터닷AI는 인간이 서로에게 가져야 할 정서적 책임을 AI가 대신 지게 한다.
세 경우 모두에서, AI는 인간이 짊어지기 불편한 무언가를 대신 맡아주는 역할을 한다. 그리고 그 편리함이 장기적으로 무엇을 초래하는지는 아직 아무도 모른다.
5-4. ‘노예’를 원하는 욕망의 보편성
엄기호는 AI에서 ‘노예를 거느리고 싶은 욕망’을 읽어낸다. 이 욕망은 교수와 학생에게만 있는 것이 아니다.
- 해고를 AI 탓으로 돌리는 CEO들도 AI라는 ‘말잘듣는 알리바이’를 원한다
- 캐릭터닷AI 사용자들도 자신을 절대 실망시키지 않는 완벽한 대화 상대를 원한다
이 욕망이 나쁜 것인가? 반드시 그렇지는 않다. 하지만 그 욕망이 인간 사이의 관계를 어떻게 재편하는지, 그리고 그 재편이 어떤 ‘좋은 삶’의 가능성을 닫아가는지를 질문하지 않는다면, 우리는 변화에 끌려갈 뿐이다.
6. 핵심 질문들
세 편의 글이 우리에게 남기는 질문들을 정리하면 다음과 같다.
교육과 성장에 관하여
- AI가 ‘박사과정 2년차 수준의 조교’ 역할을 한다면, 도제식 교육의 가치는 어디에서 찾을 수 있는가?
- ‘안목’은 기술 연마 없이 다른 방식으로 형성될 수 있는가, 아니면 그것의 형성 경로 자체가 사라지고 있는가?
- 친절한 AI에 익숙해진 세대는 ‘불편한 성장’을 수용할 준비가 되어 있는가?
- 교육이 ‘좋은 삶’을 다루는 공간이라면, AI 시대의 ‘좋은 삶’은 어떻게 정의되어야 하는가?
관계와 정체성에 관하여
- AI가 “평가하지 않는 안전지대”를 제공한다면, 인간 사이의 판단과 갈등은 어떤 역할을 해야 하는가?
- 소수자 커뮤니티가 AI에서 위로를 찾는 현실은, 사회의 실패를 반영하는 것인가 아니면 새로운 가능성인가?
- 캐릭터닷AI가 말하는 ‘AI는 삶의 공동 참여자’와 엄기호가 말하는 ‘AI는 현대적 노예’ 사이에서, 우리는 어떤 관계를 선택해야 하는가?
노동과 경제에 관하여
- AI-워싱이 일상화된 세계에서, 진짜 AI로 인한 일자리 소멸은 어떻게 식별할 수 있는가?
- 기업들이 AI를 통해 ‘더 작은 팀이 더 많은 일을 할 수 있다’고 말할 때, 그 이익은 누가 가져가는가?
- 클라나의 사례처럼 AI로 인력을 급격히 줄였다가 다시 채용하는 패턴이 반복된다면, 노동자들은 어떤 전략을 가져야 하는가?
통합적 질문
- AI가 제공하는 ‘마찰 없는 세계’ — 화내지 않는 교사, 평가하지 않는 친구, AI에 떠넘겨진 해고의 책임 — 는 진정으로 더 나은 세계인가?
- 타인의 불편함과 마찰을 피할 수 있는 환경에서 인간은 여전히 성장할 수 있는가?
- AI를 ‘노예’로 만들려는 욕망을 인식하는 것으로 충분한가, 아니면 이 욕망에 저항하는 제도적 장치가 필요한가?
7. 참고 자료 및 출처
본문 출처
| 구분 | 제목 | 필자/매체 | 날짜 |
|---|---|---|---|
| 첫 번째 글 | 친절하고 매끄러운 AI의 본질은 동료 말고 ‘노예’? | 엄기호 / 한겨레21 | 2026.03.19 |
| 두 번째 글 | “AI는 나를 평가 안해… 사람보다 더 깊은 대화” | 최아리 / 조선경제 | 2026.03.26 |
| 세 번째 글 | 해고의 새로운 이름 | 최혁재 / 브런치 | 2026.03.27 |
세 번째 글(브런치)의 인용 출처
HR Grapevine (2026.2): 뉴욕 WARN 법 신고 데이터 분석
https://www.hrgrapevine.com/us/content/article/2026-02-11-ai-absent-as-reason-for-layoffs-in-new-york-warn-filingsBloomberg (2026.3): Block의 잭 도시 AI-워싱 의혹
https://www.bloomberg.com/news/articles/2026-03-01/jack-dorsey-s-4-000-job-cuts-at-block-arouse-suspicions-of-ai-washingFortune / Oxford Economics (2026.1): AI 해고 허구성 분석
https://fortune.com/2026/01/07/ai-layoffs-convenient-corporate-fiction-true-false-oxford-economics-productivity/CNBC / Atlassian (2026.3): Atlassian 인력 10% 감축
https://www.cnbc.com/2026/03/11/atlassian-slashes-10percent-of-workforce-to-self-fund-investments-in-ai.htmlThe Conversation (2026.3): 테크 기업들의 AI 해고 진실
https://theconversation.com/tech-companies-are-blaming-massive-layoffs-on-ai-whats-really-going-on-278314
인용된 책 및 사상
- 김영민, 『동무론』 — ‘동무’의 정의: “같은 것(同)이 없는(無) 사이”
- 연암 박지원 — ‘틈의 사귐’: “이미 친하면서도 더욱 거리가 먼 듯 한다면, 더할 나위 없이 친해지게 된다”
- 알랭 바디우, 『사랑 예찬』 — “같은 것이 없는 둘이 함께 춤추는 하나의 무대”
문서 작성일: 2026년 3월 28일
이 문서는 위 세 편의 글을 종합하여 분석·정리한 것입니다.