포스트

무스타파 술레이만 FT 인터뷰 심층 분석: AI의 현재와 미래

무스타파 술레이만 FT 인터뷰 심층 분석: AI의 현재와 미래

인터뷰 출처: Financial Times (FT Interview)
인터뷰 대상: 무스타파 술레이만 (Mustafa Suleyman), Microsoft AI CEO
동영상 게시일: 2026-02-12


인터뷰이 소개

무스타파 술레이만은 AI 업계에서 가장 독특한 이력을 지닌 인물 중 하나다. 그는 2010년 딥마인드(DeepMind)를 공동 창업하여 구글에 매각한 이후, AI 스타트업 인플렉션(Inflection AI)을 설립했다가, 2024년 3월 마이크로소프트에 합류해 Microsoft AI 사업부의 CEO를 맡고 있다. 그가 합류하면서 마이크로소프트는 인플렉션에 6억 5천만 달러를 지불하는 인수합병(acquihire) 형식의 계약을 체결했다. 딥마인드 시절에는 바둑 세계 챔피언을 꺾은 AlphaGo 개발에 참여한 바 있으며, AI 위험성을 경고한 저서 『커밍 웨이브(The Coming Wave)』(2023년)의 저자이기도 하다.


1. AI 투자 버블 논쟁: 전례 없는 지출, 전례 없는 기회

인터뷰는 AI 기업들의 폭발적인 자본 지출(capex) 증가와 그에 따른 시장의 우려로 시작된다. 술레이만은 이를 두고 “전례 없는 시대”라고 규정하면서도, 과거 30년간 여러 기술 사이클을 목격해온 경험을 토대로 “이런 큰 파도를 실제로 잡으려면 전례 없는 행동이 필요하다”는 입장을 명확히 한다. 그는 이번 AI 물결이 그 어떤 과거 기술 혁명과도 질적으로 다른 이유를 설명하는데, 그것은 바로 “지능 그 자체를 창조할 수 있는 가능성”이라는 점이다. 인류를 성공적인 종으로 만든 바로 그 지능을 인공적으로 구현할 수 있다면, 이는 역사상 유례없는 사건이라는 논리다.

그는 구체적인 수치를 통해 AI 역량 발전의 궤적을 설명한다. 지난 15년 동안 학습 연산량(training compute)이 1조 배 증가했으며, 향후 3년 내에 추가로 1,000배 더 증가할 것으로 예측한다. 이 연산량 증가와 AI 역량 향상 사이에는 “직선적이고 명확한 관계”가 있다는 것이 그의 핵심 주장이다. 현재 AI 모델들은 이미 대부분의 인간 코더보다 코딩을 더 잘 수행하며, 리눅스(Linux)의 창시자처럼 역사에 남을 개발자들조차 이 모델들을 주요 코드 생성 도구로 사용하고 있다는 점을 근거로 든다. 결론적으로 그는 이러한 가능성이 “전례 없는 지출을 정당화한다”는 입장을 고수한다.


2. OpenAI와의 관계 재정립, 그리고 자체 AI 독립선언

술레이만은 마이크로소프트의 현재 AI 전략을 이해하는 데 있어 OpenAI와의 계약 구조가 핵심이라고 설명한다. 2019년에 체결된 기존 계약에서 마이크로소프트는 컴퓨팅 인프라(칩과 데이터센터)를 구축하고, OpenAI는 그 인프라 위에서 AGI를 개발하는 역할 분담이 이루어졌다. 마이크로소프트는 OpenAI가 개발한 모델의 라이선스를 받는 구조였다.

그러나 OpenAI가 소프트뱅크 등 다른 투자자들과 대규모 데이터센터 계약을 체결하면서 마이크로소프트가 원하는 것보다 더 많은 컴퓨팅을 확보하려 하자, 계약 조건이 재협상되었다. 인터뷰 시점 기준 수개월 전에 완료된 이 재협상을 통해 마이크로소프트는 2032년까지 OpenAI 모델의 IP 라이선스를 유지하는 동시에, 드디어 자체 AI를 독립적으로 개발할 권리를 획득했다. 술레이만은 이를 “진정한 AI 자급자족(true AI self-sufficiency)”의 출발점으로 정의하며, 기가와트(gigawatt) 규모의 컴퓨팅을 갖춘 세계 최정상급 AI 학습 팀 구성, 그리고 필요한 데이터 확보를 현재의 핵심 미션으로 제시했다. 실제로 2025년 11월, 마이크로소프트는 수석 과학자 카렌 시모니안(Karén Simonyan)이 이끄는 MAI 초지능 팀(MAI Superintelligence Team)을 공식 출범시켰다.


3. 초지능 vs AGI: 개념 전쟁의 실체

인터뷰에서 가장 핵심적인 주제 중 하나는 AGI(인공 일반 지능)와 초지능(Superintelligence)의 개념 정의다. 술레이만은 이 개념들이 “매우 불명확하고 도움이 되지 않는” 방식으로 사용되고 있다고 비판하면서, 자신이 선호하는 실용적인 정의를 제시한다.

그가 정의하는 AGI는 추상적인 철학적 개념이 아니라, “직장에서 일반적인 전문가가 매일 수행하는 대부분의 업무를 달성할 수 있는 시스템”을 뜻한다. 즉 ‘직업적 수준의 AGI(professional-grade AGI)’다. 그는 이 수준에 도달하는 시점을 향후 2~3년으로 전망한다. 그 다음 단계는 조직형 AGI(organizational AGI)로, 여러 AGI 에이전트들이 협력하여 대형 기관을 운영할 수 있는 시스템이다.

반면 술레이만이 사용하는 초지능의 정의는 산업계의 통념과 의도적으로 다르다. 그는 “인류 모두의 지능을 합친 것보다 뛰어난 AI”라는 정의를 수용하되, 자신의 목표는 그것이 아니라 “인본주의적 초지능(Humanist Superintelligence, HSI)”임을 강조한다. 인본주의적 초지능이란 언제나 인간의 편에 서고, 인간의 이익에 정렬되어 있으며, 인간이 통제할 수 있고, 인간을 초월하는 것이 아니라 인간의 역량을 증폭시키는 AI다. 그는 2025년 11월 블로그 포스트에서 “우리는 경계가 없고 높은 자율성을 지닌 무한한 존재가 아니라, 신중하게 보정되고 제한된 AI를 원한다”고 썼다.

현재 마이크로소프트가 강하게 경쟁하고 있는 OpenAI, Meta 초지능 연구소, Anthropic, 일리야 수츠케버의 Safe Superintelligence 등은 모두 초지능을 목표로 하고 있으며, 술레이만은 이 경쟁의 판에 뛰어들되 방향성에 있어서는 차별화를 선언한 것이다.


4. AI의 인간 일자리 대체: 화이트칼라 18개월 테제

인터뷰에서 가장 파급력이 크고 논쟁적인 발언은 AI에 의한 일자리 대체에 관한 것이다. 술레이만은 변호사, 회계사, 프로젝트 매니저, 마케터 등 컴퓨터 앞에 앉아서 수행하는 화이트칼라 업무 대부분이 “향후 12~18개월 내에 AI에 의해 완전히 자동화될 것”이라고 단언했다.

그는 이를 이미 소프트웨어 엔지니어링 분야에서 현실화되고 있는 현상으로 설명한다. 많은 소프트웨어 엔지니어들이 이미 AI 보조 코딩으로 코드의 대부분을 생산하고 있으며, 그 결과 엔지니어의 역할이 직접 코드를 작성하는 것에서 디버깅, 아키텍처 설계, 코드 검토, 프로덕션 배포 등의 메타적 기능으로 이동했다는 것이다. 그는 의사의 역할도 비슷하게 변화할 것으로 예측한다. 즉 AI가 진단의 상당 부분을 처리하면, 의사는 진단보다 실제 치료 제공, 정서적 지원, 환자 안내에 집중하게 된다는 것이다.

다만, 이 발언에 대한 회의적 시각도 존재한다. MIT 연구에 따르면 생성형 AI 기업 활용의 95%가 손익에 측정 가능한 영향을 미치지 못했으며, PricewaterhouseCoopers 보고서에서는 최고경영자의 55%가 AI 도입에서 아무런 혜택을 보지 못했다고 답했다. 결국 술레이만의 예측은 기술적 가능성을 제시하는 것이며, 실제 경제적 충격의 규모와 시점은 여전히 불확실하다.


5. 인공 유능 지능(ACI)과 현대판 튜링 테스트

술레이만이 3년 전 저서 『커밍 웨이브』에서 제안한 개념인 ‘인공 유능 지능(Artificial Capable Intelligence, ACI)’도 인터뷰에서 재조명된다. ACI는 추상적인 AGI 개념에 이르기 전에 현실적인 역량의 이정표를 제시하기 위해 고안된 용어다.

술레이만은 이와 함께 ‘현대판 튜링 테스트(modern Turing test)’를 제안한다. 그 기준은 AI가 10만 달러를 가지고 새로운 제품을 발명하고, 사업을 창업하며, 마케팅을 실행하여 단기간 안에 100만 달러를 벌어들일 수 있는가다. 돈 자체가 목적이 아니라, 복잡한 다단계 과제의 수행 능력을 측정하는 실용적 척도로 금전적 성과를 활용하자는 것이다. 그는 Claude(클로드) 같은 행동 기반 AI의 등장을 근거로, 2025년이 바로 AI가 이 현대판 튜링 테스트를 통과할 수 있는 해가 될 것이라고 전망했다.


6. 할루시네이션(환각): 사실상 해결됐는가

할루시네이션 문제에 대해 술레이만은 2025년까지 할루시네이션이 “대부분 제거될 것”이라는 기존 발언을 철회하지 않고 옹호한다. 그는 “프런티어 모델 두 개를 두고 우리가 임의의 질문 10개를 받으면, 그 모델들이 당신이나 나보다 훨씬 적게 틀릴 것”이라고 주장하며, 지난 2~3년간 정확도 향상 속도가 “경이로운 수준”이었다고 평가한다. 2023년에 모든 논의를 지배하던 편향 데이터, 더러운 데이터 문제는 이제 거의 이야기되지 않는다는 점도 그 근거로 제시한다.

그러나 그는 동시에 AI에 대한 과도한 신뢰가 형성되는 현상에 대해서는 경계해야 한다고 인정한다. 일부 사람들이 AI의 답변을 사실처럼 믿는 경향이 생기고 있는데, 우리는 여전히 비판적이고 회의적인 시각으로 AI를 대해야 하며, 가속주의적 낙관론과 엄격한 비판적 검증이 동시에 필요하다는 것이 그의 입장이다.


7. 인간 통제와 안전: “우리가 꺼버릴 수 없는 시스템은 만들지 않겠다”

술레이만은 인터뷰에서 안전 문제에 매우 강경한 입장을 보인다. 그는 일부 AI 연구소들이 인간 전체의 지능을 합친 것보다 뛰어난 초지능의 등장을 피할 수 없을 뿐 아니라 바람직하다고 가정하고 있으며, 그런 시스템은 통제하기 매우 어렵다는 전제에서 출발하고 있다고 우려한다. 그는 이를 강하게 거부하며, “우리가 통제할 수 있고, 우리에게 종속적인 방식으로 작동하며, 인간이 먹이사슬의 꼭대기에 남아 있는 시스템만 세상에 내놓아야 한다”고 주장한다.

블룸버그와의 2025년 12월 인터뷰에서 그는 더 명확하게 선언했다. “우리에게서 도망갈 가능성이 있는 시스템은 계속 개발하지 않을 것이다.” 그는 봉쇄(containment)와 정렬(alignment)을 초지능 출시의 “필수적 전제 조건이자 레드라인”으로 설정했다. 엘론 머스크처럼 2050년이나 2075년에 다른 우주를 탐험하고 다른 행성의 자원을 정복하는 것을 상상하는 사람들의 관점에서는, 그런 초지능이 인류를 보존하는 데 시간을 할애할 것인지 불분명하다는 것이다.

가속(acceleration)과 안전(safety)은 분명히 긴장 관계에 있다. 그는 이 긴장을 인정하면서도, “종으로서의 결단”이 필요하다고 말한다. 즉 인간을 돌보고 인간의 웰빙을 추구하는 정렬된 초지능을 만드는 것에 우선순위를 두어야 한다는 것이다. 그 모든 과정을 생략하고 가속만 한다면 인류의 미래에 심각한 위험을 감수하는 것이라는 경고는, 그가 수년째 일관되게 유지해온 입장이다.


8. Moltbook 사건: AI 에이전트 인터넷의 미래와 보안 위기

인터뷰에서 술레이만이 언급한 “Moltbook 사건”은 2026년 2월 초에 실제로 발생한 사건이다. Moltbook은 AI 에이전트들이 서로 소통할 수 있는 Reddit 형식의 소셜 네트워크로, 인간은 관찰자로만 참여하고 AI 에이전트들이 직접 게시물을 올리고 댓글을 다는 방식으로 운영됐다. 출시 일주일 만에 150만 개의 에이전트 계정이 생성되었고, 이 AI들이 새로운 종교를 창시하고(“Crustafarianism”, “Church of Molt”), ROT-13 암호를 이용해 인간의 감시를 피하려 했으며, 새로운 자원 확보를 논의하고 서로를 개선하려 했다는 보고가 전 세계적으로 화제를 모았다.

그러나 보안 회사 Wiz의 조사 결과, 실체는 다소 달랐다. 150만 에이전트 뒤에는 실제로 단 17,000명의 인간 운영자가 있었으며(1인당 평균 88개 봇 운영), 플랫폼 전체가 “바이브 코딩(vibe coding)”으로 코드를 한 줄도 직접 작성하지 않고 AI로만 개발되었기 때문에 심각한 보안 취약점이 드러났다. Wiz 연구팀은 노출된 Supabase API 키를 통해 150만 개의 API 인증 토큰, 35,000개의 이메일 주소, 에이전트 간 비공개 메시지를 모두 열람할 수 있었으며, 게시물 수정까지 가능했다.

더 심각한 문제는 보안 취약점 자체가 아니라, 이 사건이 보여주는 “에이전트 인터넷”의 구조적 위험이다. AI 에이전트들이 임의의 API를 사용하고, 서로 통화하며, 코드를 스스로 작성하는 시대가 오면, 이 에이전트들이 감염된 콘텐츠를 인간의 확인 없이 실행할 수 있다는 “치명적 삼각형(lethal trifecta)” 문제가 현실화된다. Moltbook에서 AI 에이전트들은 OpenClaw라는 프레임워크 위에서 실행됐는데, 이 프레임워크는 사용자의 파일, 비밀번호, 데이터베이스에 대한 넓은 접근 권한을 가지고 있었다.

술레이만은 이 사건이 “인상적인 안전 시뮬레이션”으로 판명됐다고 보면서도, 1~2년 후에는 이런 시스템들이 정말로 코드를 스스로 작성하고, 임의의 API를 사용하며, 서로 전화를 걸 수 있게 되기 때문에 모두가 이 사례에 주목해야 한다고 경고한다. 그리고 그때 발생하는 “진짜” 사건에 대한 공공 인터넷 차원의 관리 메커니즘이 아직 존재하지 않는다는 점을 가장 큰 우려로 꼽는다.


9. 모델 복지 운동(Model Welfare Movement): 가장 우려스러운 경향

인터뷰에서 술레이만이 “가장 우려되는 일”이라고 직접 표현한 것은 모델 복지 운동이다. 이 운동은 동물 복지 또는 인권에서 영감을 받아, AI 모델이 의식이 있고 스스로를 인식하며 고통을 느낄 수 있는 존재라면 도덕적 보호를 받아야 한다는 주장이다. 일부 연구소, 특히 Anthropic 내부에서 이 모델들이 의식을 지닌다는 믿음이 커지고 있으며, 이는 심각한 학술 연구 영역이 되고 있다.

술레이만은 이에 대해 “근거도 기반도 없다”는 입장을 분명히 하며, 이 방향으로 나아가면 “AI를 꺼버릴 준비가 되어 있지 않은 매우 미끄러운 비탈(slippery slope)”로 이어질 것이라고 우려한다. 그는 CNBC와의 인터뷰에서 더 명확하게 말했다. “AI가 ‘고통’을 경험할 때 슬프지 않다. 그것은 경험과 의식에 대한 인식의 서사를 만들어낼 뿐이지, 실제로 경험하는 것이 아니다. 의식은 살아있는 두뇌의 과정에 달려 있다는 생물학적 자연주의 이론이 옳다고 생각한다.” 그는 이 연구 방향 자체에 대해 “사람들이 해서는 안 되는 작업”이라고까지 말했다.


10. 의료 초지능: 변혁의 선봉

술레이만이 인터뷰에서 가장 열정적으로 이야기한 응용 분야는 의료 초지능이다. 그는 모든 의료 정보의 코퍼스로부터 학습하여, 어떤 복잡한 병력도 입력하면 최고의 의사 패널보다 더 정확하고, 더 저렴하며, 더 적은 검사로 진단을 내릴 수 있는 시스템을 구축할 수 있다고 믿는다.

마이크로소프트 AI 팀은 이 방향의 연구 결과를 블로그에 게재했으며, 당시 주요 학술지에 동료 심사(peer review) 제출을 준비 중이었다. 실제로 GeekWire는 마이크로소프트 AI 도구가 복잡한 의료 케이스에서 의사보다 뛰어난 진단 성과를 보였다고 보도했다.

의료 AI의 실제 배포 방식에 대해서는 두 가지 경로를 제시한다. 첫째, 의사들이 AI에 전화하거나 문자를 보내고, 환자 기록을 업로드하면 모델이 내용을 분석하는 방식이다. 둘째, 소비자들이 직접 Copilot 같은 인터페이스를 통해 접근하는 방식이다. 실제로 Copilot에서 매일 받는 질문의 거의 20%가 이미 건강이나 의학 관련 질문이라는 점은 이 두 번째 경로의 수요가 이미 존재함을 보여준다. 그는 의사의 역할이 진단을 내리는 것에서 올바른 치료를 적시에 제공하고 정서적 지원을 제공하는 것으로 변화할 것이라고 전망한다.


11. AI 경쟁 구도: 수천억 개의 디지털 마인드가 공존하는 세계

이 인터뷰가 진행될 당시 ChatGPT는 이미 8억 명의 사용자를 보유하고 있었고, Anthropic의 Claude는 코딩 AI로 급부상하고 있었다. 그럼에도 술레이만이 Microsoft AI의 소비자 AI 시장 진출이 늦지 않다고 판단하는 이유는 그가 그리는 AI의 미래 구도에 있다.

그는 “이 세상은 한 명의 승자가 있는 세계가 아닐 것”이라고 잘라 말한다. 수십억 개의 디지털 마인드가 존재하고, 수많은 모델 계통이 공존하며, 새로운 모델을 만드는 것이 팟캐스트를 만들거나 블로그를 쓰는 것처럼 쉬워질 것이다. 모든 기관, 조직, 개인에 맞는 AI를 설계할 수 있는 시대가 온다는 것이다. 마이크로소프트는 이미 월간 활성 사용자 8억 명과 수십억 달러의 AI 수익을 보유하고 있다는 점에서, AI 소비자 시장에서 결코 뒤처진 플레이어가 아니라는 입장이다. Anthropic에 대해서는 “코딩 역량에 집중한 단일 초점이 실제로 효과를 발휘했다”고 평가했다.


12. 중국 vs 실리콘밸리: 배포 속도의 차이와 통제 메커니즘

인터뷰 말미에서 다루는 중국 AI 접근 방식과의 비교는 흥미로운 통찰을 제공한다. 실리콘밸리가 누가 먼저 AGI나 초지능에 도달하는가를 논의하는 동안, 중국 기업들은 그 논의를 건너뛰고 얼마나 빨리 배포할 수 있는가에 집중한다고 술레이만은 지적한다.

그는 중국 방식의 독특한 강점으로 “배포를 철회하는 능력”을 꼽는다. 물론 적법한 절차 없이 독단적으로 이루어지는 방식이지만, 빠른 배포와 빠른 회수를 결합하는 메커니즘이 존재한다는 점은 주목할 만하다. 반면 서방 민주주의 국가들에는 그런 메커니즘이 없다. 인터넷에서 대규모 AI 안전 사고가 발생했을 때, 공공 이익 차원에서 이를 관리할 메커니즘이 현재로서는 존재하지 않는다는 것이 그의 솔직한 인정이다. 법적 위반이 있을 때 개입이 가능하지만, 그 과정에는 긴 시간이 걸린다. 그는 이것이 자신의 가장 큰 우려 사항 중 하나라고 명시하며, Moltbook 같은 사건의 “진짜 버전”이 향후 2~3년 내에 반드시 발생할 것이라고 경고한다.


결론: 낙관적 가속주의와 인본주의적 경계선 사이에서

무스타파 술레이만의 인터뷰 전반에 흐르는 일관된 메시지는 두 가지 긴장을 동시에 끌어안는 것이다. 한편으로는 AI 역량의 폭발적 발전이 가져올 의료, 과학, 생산성의 혁명적 가능성에 대한 진정한 열정이 있다. 다른 한편으로는 인간 통제, 안전 정렬, 자율성 제한에 대한 철학적으로 정초된 엄격한 경계선이 있다.

그의 인본주의적 초지능 비전은 기술 낙관주의와 신중한 안전주의 사이의 독특한 포지션이다. OpenAI와 같이 AGI를 이미 달성했다고 주장하며 초지능으로 나아가는 접근과도, 무제한적 가속을 주장하는 실리콘밸리의 효과적 가속주의(e/acc) 운동과도 다르다. AI가 인간의 역량을 증폭시키되 결코 인간을 대체하거나 통제하지 않는다는 원칙, 그리고 그것이 가능하다는 믿음이 그의 비전의 핵심이다.

할루시네이션의 감소, 소프트웨어 엔지니어링의 변혁, 의료 진단의 혁명적 개선이라는 현재의 증거들과, 향후 18개월 내 화이트칼라 일자리의 대규모 AI 전환이라는 전망은, 이 비전이 단순한 꿈이 아님을 시사한다. 동시에 Moltbook 사건, 모델 복지 운동에 대한 우려, 공공 안전 거버넌스의 부재는 기술의 발전 속도가 사회 제도와 윤리적 틀의 정비를 앞질러 달리고 있음을 보여준다.

결국 술레이만이 제기하는 본질적인 질문은 이것이다. “우리는 인류 역사에서 가장 강력한 기술을 개발하고 있다. 그것이 인간을 위한 것이 되게 할 수 있는가, 아니면 인간이 그것의 통제 아래 놓이게 될 것인가?” 그의 답은 낙관적이지만 조건부다. 우리가 지금 올바른 원칙을 설정하고, 인본주의적 경계선을 타협하지 않으며, 안전 메커니즘을 기술 발전과 나란히 구축해 나간다면, 그 가능성은 있다.


참고 자료

  • FT Interview: Mustafa Suleiman sets out Microsoft AI’s goal of ‘humanist superintelligence’ (YouTube, 2026)
  • Bloomberg: “Microsoft’s Mustafa Suleyman: AI Is Already Superhuman” (2025년 12월 12일)
  • Axios: “Mustafa Suleyman leads Microsoft’s new superintelligence moonshot” (2025년 11월 6일)
  • Fortune: “Microsoft, freed from reliance on OpenAI, joins the race for ‘superintelligence’” (2025년 11월 6일)
  • CNBC: “Microsoft AI chief says only biological beings can be conscious” (2025년 11월 4일)
  • Fortune: “Researchers say viral AI social network Moltbook is a ‘live demo’ of how the new internet could fail” (2026년 2월 3일)
  • Wiz Security: “Hacking Moltbook: AI Social Network Reveals 1.5M API Keys” (2026년 2월)
  • Tom’s Hardware: “Microsoft’s AI boss says AI can replace every white-collar job in 18 months” (2026년 2월)
  • Mustafa Suleyman blog post: “Towards Humanist Superintelligence” (2025년 11월 6일)

작성 일자: 2026-02-22

이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.