포스트

AI, 만능의 환상이 깨지고 있다: 게임 개발 현장의 실체

AI, 만능의 환상이 깨지고 있다: 게임 개발 현장의 실체

출처: 인벤 웹진 | 김병호 기자 | 2026년 3월 12일
원문 링크: https://m.inven.co.kr/webzine/wznews.php?idx=314280
분석 작성일: 2026년 3월 16일


개요

인공지능(AI)은 게임 개발 분야에서 ‘혁신의 만능 해결사’로 기대를 한 몸에 받아왔다. 게임 기획 초안 작성, 코드 자동 생성, 그래픽 에셋 제작 보조 등 다양한 가능성이 제시되었고, 실제로 일부 성과도 거두었다. 그러나 2025~2026년 사이 게임 개발 현장에서는 이와는 다른 목소리가 점차 커지고 있다. AI 도입의 이면에 숨겨진 문제들, 즉 저품질 코드 범람, 숨겨진 버그, 개발자 신뢰 하락이라는 현실이 수면 위로 떠오르고 있는 것이다.

이 문서는 인벤 웹진의 기획 기사를 중심으로, 관련 해외 보도 자료를 추가하여 현재 게임 개발 업계에서 벌어지고 있는 AI 논란을 상세히 정리한다.


1. ‘AI 슬롭(AI Slop)’이란 무엇인가

‘AI 슬롭(AI Slop)’이란 생성형 AI(LLM)가 만들어낸 저품질의 내용물을 가리키는 신조어다. 외형은 그럴싸해 보이지만 실제로는 맥락과 논리가 결여되거나, 작동하지 않거나, 작성자 스스로도 이해하지 못한 채 제출된 콘텐츠를 일컫는다. 코드, 글, 이미지 등 다양한 영역에서 사용되지만, 최근 게임 개발 오픈소스 커뮤니티에서 특히 심각한 문제로 부각되고 있다.


2. 고도(Godot) 엔진 사태: 오픈소스의 위기

고도 엔진이란?

고도(Godot)는 2014년부터 운영되어온 무료 오픈소스 게임 엔진이다. 유니티(Unity)나 언리얼(Unreal Engine)과 같은 상용 엔진의 대안으로 주목받아 왔으며, 최근에는 인기 인디 게임들의 플랫폼으로 자리잡았다. 실제로 최근 흥행을 기록 중인 슬레이 더 스파이어 2(Slay the Spire 2), 브로타토(Brotato), 돔 키퍼(Dome Keeper), 벅샷 룰렛(Buckshot Roulette) 등이 고도 엔진으로 제작되었으며, 심지어 배틀필드 6의 일부 에디터 도구에도 활용될 만큼 영향력이 확장되고 있다. 또한 디스코드 게임 개발 커뮤니티에서 3위 규모를 자랑할 정도로 해외에서 넓게 쓰이고 있다.

오픈소스 엔진인 만큼, 소스 코드가 무상으로 공개되어 있고 누구나 자유롭게 기여(Contribution)할 수 있다. 이 기여 방식은 GitHub를 통한 풀 리퀘스트(Pull Request, PR) 방식으로 이루어진다. 즉, 누구나 코드를 수정해서 제출하면 관리자가 검토 후 병합 여부를 결정하는 구조다.

레미 베르셸드의 경고

2026년 2월 17일, 고도 엔진의 핵심 관리자이자 고도의 주요 후원사 W4 Games의 공동 창업자인 레미 베르셸드(Rémi Verschelde) 는 블루스카이(Bluesky) SNS에 충격적인 글을 올렸다.

“솔직히 말해서, AI 슬롭 PR들은 고도 관리자들에게 점점 더 지치고 사기를 떨어뜨리는 일이 되고 있습니다. 매일 여러 번, 새 기여자의 모든 PR을 의심의 눈으로 재검토해야 하는 상황에 처해 있습니다.”

그는 AI가 생성한 코드 제출물로 인해 관리자들이 PR을 검토할 때마다 다음과 같은 질문을 반복해야 한다고 밝혔다.

  • PR 설명이 장황한 LLM 출력물인가?
  • 코드는 사람이 적어도 일부라도 작성한 것인가?
  • 제출자가 자신이 제출한 코드를 실제로 이해하고 있는가?
  • 코드를 테스트해봤는가? 테스트 결과가 조작된 것은 아닌가?
  • 코드가 잘못된 것이 AI 때문인가, 아니면 경험 없는 인간 기여자의 실수인가?

특히 “영어가 서툴러서 PR 설명을 AI로 작성했다”는 답변처럼, AI를 일부만 활용한 경우와 AI가 코드 전체를 생성한 경우를 구별하는 것 자체가 매우 어렵다는 점도 문제로 지적되었다.

규모와 심각성

현재 고도 GitHub 페이지에는 4,681개 이상의 미처리 풀 리퀘스트가 쌓여 있다. 매월 수십 개의 PR이 AI 생성 코드로 판명되어 거절되거나 스팸 처리되고 있으며, 관리자들은 매일 이 작업에 상당한 시간을 쏟고 있다.

게임 개발자 에이드리안 드 용(Adriaan de Jongh, Hidden Folks 개발사 디렉터)도 이 문제를 공개적으로 제기하며 “변경 사항은 말이 안 되는 경우가 많고, 설명은 지나치게 장황하며, 제출자들은 자신의 변경 사항을 이해하지 못한다”고 비판했다.

베르셸드는 “고도는 새 기여자들을 환영하는 것을 자랑으로 여기지만, 이 속도로는 언제까지 버틸 수 있을지 모르겠다”고 토로했다. 해결책으로는 더 많은 관리자를 고용하기 위한 재정 지원 외에는 뾰족한 방법이 없다는 것이 그의 결론이었다.

AI로 AI를 막는 아이러니

베르셸드는 AI 탐지 자동화를 활용하는 방안에 대해 “AI로 AI 슬롭을 탐지해야 한다는 것은 끔찍하게 아이러니한 발상”이라고 표현했다. 그러나 뾰족한 대안이 없다면 결국 이 방법을 도입해야 할 수도 있다고도 덧붙였다.

이 문제는 고도에만 국한되지 않는다. 블렌더(Blender), 리눅스 재단(Linux Foundation), 페도라(Fedora), 파이어폭스(Firefox), Ghostty, Servo, LLVM 등 수많은 오픈소스 프로젝트들이 유사한 AI 기여 관련 정책을 마련하거나 논의 중에 있다. GitHub 역시 이 문제를 인지하고 “저품질 기여의 증가로 인한 심각한 운영 과제”에 대한 해결책을 모색 중이라고 밝혔다.


3. ‘AI 슬롭’ 코드의 기술적 문제: 조용한 실패(Silent Failures)

표면적 정상 작동, 내면의 시한폭탄

IEEE 스펙트럼(IEEE Spectrum)의 보도에 따르면, 최신 AI 모델들이 생성하는 코드의 가장 위험한 특성 중 하나는 ‘조용한 실패(Silent Failures)’ 다. 이는 코드가 겉보기에는 정상적으로 작동하는 것처럼 보이지만, 특정 상황이나 엣지 케이스(edge case)에서 예기치 않은 버그를 유발하는 현상을 말한다.

이 문제가 특히 위험한 이유는 다음과 같다.

탐지의 어려움: 일반적인 테스트에서는 문제가 발견되지 않기 때문에, 실제 플레이어들이 게임을 즐기는 도중에서야 버그가 드러나는 경우가 많다.

디버깅의 복잡성: AI가 생성한 코드는 특정 구조적 패턴이나 최적화 방식이 인간이 작성하는 코드와 다르다. 이 때문에 버그 발생 원인을 추적하는 데 인간이 처음부터 작성한 코드보다 훨씬 더 많은 시간이 소요된다.

유지보수의 불투명성: 어떤 부분이 AI에 의해 자동 생성된 것인지 명확히 표시되지 않을 경우, 향후 다른 개발자가 유지보수를 맡았을 때 코드의 의도와 구조를 파악하는 데 혼란을 겪게 된다.

누적 효과: 개별적으로는 작은 문제처럼 보이는 AI 생성 코드들이 대규모 프로젝트 내에서 축적되면, 장기적으로 게임 전체의 안정성과 성능을 심각하게 위협하는 결과로 이어진다.


4. 개발자 인식의 전환: 통계로 보는 현실

생성형 AI 도입률의 하락

게임 개발자 전문 미디어 게임 디벨로퍼(Game Developer) 가 실시한 설문조사 결과는 AI에 대한 개발자들의 인식 변화를 수치로 보여준다.

항목2025년 상반기2026년 초변화
생성형 AI 도구 사용률36%29%▼ 7%p
AI가 게임 품질에 부정적 영향을 미칠 것이라는 우려(기준치)47%증가
AI가 게임 품질에 긍정적 영향을 미칠 것이라는 기대(기준치)11%소수
AI의 비용 절감 효과에 낙관적27%21%▼ 6%p
AI로 인해 비용 증가를 우려(기준치)(기준치+8%)▲ 8%p

이 데이터는 게임 개발자들이 AI를 처음 접했을 때의 기대감에서 벗어나, 실제 업무 환경에서 겪은 현실적 한계를 반영하기 시작했음을 보여준다. 특히 47%의 개발자가 AI로 인한 게임 품질 저하를 우려하는 반면, 긍정적 영향을 기대하는 비율은 고작 11% 에 그친다는 점은 매우 대조적이다.

비용 절감 신화의 붕괴

초기에 AI 도입의 가장 큰 명분 중 하나는 ‘비용 절감’이었다. 코드 자동 생성, 에셋 제작 보조 등을 통해 개발 비용을 줄일 수 있다는 기대가 컸다. 그러나 실제 현장에서는 AI가 만들어낸 결과물을 검토하고 수정하는 데 드는 ‘관리 비용(Overhead Cost)’이 점차 부각되고 있다. AI가 절약해주는 시간보다 AI의 실수를 찾아 고치고, 품질을 검수하는 데 드는 시간이 더 많아지는 역설적인 상황이 발생하는 것이다.


5. AI의 긍정적 가능성과 현실적 한계

이 기사가 AI를 전면 부정하는 것은 아니다. AI는 다음과 같은 영역에서 게임 개발의 생산성을 실제로 높이고 있다.

기획 초기 단계: 아이디어 브레인스토밍, 시나리오 초안 작성, 세계관 설정 보조 등에서 창의적 출발점을 제공한다.

반복 작업 자동화: 동일한 패턴이 반복되는 코드 작성, 데이터 구조화 등 단순하고 반복적인 작업에서 효율성을 높일 수 있다.

에셋 생성 보조: 배경 이미지 초안, 텍스처 생성 등에서 작업 속도를 높여준다.

NPC 행동 로직: 인공지능 기반의 NPC 행동 패턴 구현에 생성형 AI가 활용될 수 있다.

그러나 이러한 장점들이 발휘되려면 전제 조건이 필요하다. AI를 제대로 활용할 줄 아는 인간 개발자의 감독과 판단이 반드시 동반되어야 한다는 것이다. AI가 도구로서 기능하려면, 그 도구를 올바르게 쓸 수 있는 숙련된 사용자가 필요하다.


6. 전문가들의 해결 방안 제언

인간 중심의 검수 체계 구축

전문가들은 AI가 생성한 모든 결과물—코드, 그래픽, 텍스트—에 대해 인간 개발자의 철저한 검토와 피드백 과정이 필수적이라고 강조한다. 특히 게임의 핵심 로직이나 플레이어 경험에 직결되는 부분에서는 AI의 보조 역할을 인정하되, 최종적인 품질과 책임은 인간에게 있어야 한다는 원칙이 명확히 세워져야 한다.

관리 비용에 대한 현실적 예산 편성

AI 도입을 결정할 때, 단순히 AI가 가져다주는 생산성 향상만을 계산해서는 안 된다. 베르셸드의 사례에서 보듯이, AI가 야기하는 저품질 결과물을 걸러내고 수정하는 데 필요한 ‘관리 비용(Overhead)’도 함께 고려하여 예산과 인력을 배분해야 한다.

고차원적 개발 역량의 육성

전문가들은 앞으로의 게임 개발자에게 단순히 AI 도구를 사용하는 능력을 넘어, AI가 생성한 코드를 분석하고 디버깅하며, AI의 한계를 이해하고 보완하는 고차원적인 역량이 요구된다고 강조한다. AI를 단순한 ‘복사-붙여넣기 도구’가 아닌 ‘협력자’로 활용하려면, 개발자 스스로가 AI의 특성과 한계를 깊이 이해해야 한다.

명확한 AI 사용 공개 원칙

고도 엔진의 기여 가이드라인에는 이미 AI 사용 여부를 밝히도록 하는 조항이 있지만, 이것이 자주 무시된다는 점이 문제다. 오픈소스 커뮤니티뿐 아니라 상용 게임 개발 현장에서도 AI 활용 범위를 투명하게 공개하는 문화와 제도가 필요하다.


7. 더 넓은 맥락: 오픈소스 생태계 전반의 위기

고도 엔진의 사례는 게임 개발에만 국한된 문제가 아니다. 블렌더, 리눅스, 파이어폭스 등 수많은 오픈소스 프로젝트들이 동일한 문제에 직면해 있다. 오픈소스 소프트웨어 개발은 자발적인 기여자들의 열정과 신뢰를 기반으로 작동하는 구조인데, AI 슬롭의 범람은 이 신뢰 구조 자체를 흔들고 있다.

GitHub 역시 이 문제를 심각하게 받아들이고 있으며, 플랫폼 차원에서 저품질 기여를 필터링하는 방법을 모색 중이다. 발브(Valve) 타이틀 다수의 스크립트 작가로 유명한 쳇 팔리셰크(Chet Faliszek) 는 “이 상황이 진행되는 것을 지켜보는 것 자체가 지칩니다. GitHub가 이것을 조장하는 대신 싸워야 할 책임이 있다”고 비판하기도 했다.


8. 결론: AI와의 공존, 그 방향성

AI는 거스를 수 없는 거대한 흐름이다. 게임 개발 분야도 예외가 아니며, AI의 활용 가능성 자체를 부정하는 것은 현실적이지 않다. 그러나 지금 이 시점에서 중요한 것은, AI가 가져올 미래가 자동으로 낙원이 되지는 않는다는 인식이다.

저품질 AI 생성물의 범람(AI 슬롭), 숨겨진 버그(조용한 실패), 오픈소스 커뮤니티의 관리 비용 폭증, 개발자 신뢰 하락—이 모든 현상은 AI를 맹목적으로 도입했을 때 발생하는 부작용이다. 그 해답은 결국 인간 중심의 접근 방식으로 귀결된다.

AI는 도구다. 도구가 얼마나 유용한지는 그 도구를 어떻게, 누가, 어떤 기준으로 사용하느냐에 달려 있다. 지금 게임 개발 업계에 필요한 것은 AI의 편리함에 대한 맹신이 아니라, AI의 한계를 직시하고 인간의 판단력과 책임감을 중심에 두는 성숙한 AI 활용 문화다.


참고 자료


본 문서는 인벤 웹진 기사(2026.03.12)의 내용을 상세히 정리하고, 관련 해외 보도 자료를 추가 조사하여 종합적으로 작성한 분석 문서입니다.

이 기사는 저작권자의 CC BY 4.0 라이센스를 따릅니다.