12분 49초 만에 한 달치 기획이 나왔다: 콘텐츠 AX 실험기
출처: 요즘IT (https://yozm.wishket.com/magazine/detail/3647/)
작성 일자: 2026-03-11
들어가며: 콘텐츠 마케터의 오랜 고민
콘텐츠 마케팅 현장에서 AI를 활용하는 시도는 이미 꽤 오래전부터 있어왔다. 프롬프트에 키워드를 입력하고 나온 결과물을 다듬어 발행하거나, GPTs를 직접 구성해보거나, 검색 API를 연동해 자동화를 시도하는 방식들이 대표적이다. 하지만 현실에서는 기대만큼의 결과가 나오지 않는 경우가 훨씬 많았다. AI가 만들어낸 글들은 서로 비슷비슷한 내용에 깊이가 얕아서, 오히려 브랜드 신뢰도를 해칠 수 있는 수준이었다.
요즘IT는 이 고민을 4년째 매일 콘텐츠를 발행하면서 직접 겪어온 팀이다. 월 90만 페이지뷰, 뉴스레터 구독자 8만 명을 보유한 IT 매거진으로서, 실무자가 직접 쓴 글을 편집해 발행하는 방식을 고수해왔다. 리서치, 기획, 제작, 편집 전반에 걸쳐 AI를 활용하면서도, AI가 모든 콘텐츠를 100% 생산하는 방향은 택하지 않았다. 그 이유는 명확했다. 작가마다 다른 문체, 경험에서 우러나온 결이 이 매거진의 정체성이었기 때문이다. 독자와 직접 소통하는 채널이라는 성격상, 콘텐츠에 AI를 적용하더라도 마지막 단계에서 반드시 사람의 검수를 거쳤다.
그러나 시간이 지나면서 팀은 중요한 사실을 깨달았다. AI를 다양한 방면에서 써보면, 어디에 활용하는 것이 좋고 어디에는 쓰지 않는 게 나은지에 대한 감각이 생긴다는 것이다. 휴먼 터치가 중요한 콘텐츠에서는 사람의 손이 반드시 필요하지만, 모든 콘텐츠가 그럴 필요는 없다는 인식이 생겨난 것이다.
AI 시대, 기업에 필요한 두 종류의 콘텐츠
이 실험의 출발점은 간단하지만 날카로운 질문에서 비롯되었다. AI 에이전트가 신뢰하고 인용해야 하는 콘텐츠라면 어떨까? 작가의 개성보다 의사결정에 필요한 지식과 정보 자체가 중요한 콘텐츠라면?
기업 블로그에 진정으로 필요한 것은 작가의 개성이 아니다. 정확한 정보를 구조화된 형태로, 일관되게 전달하는 것이다. 표준화된 디자인과 문체를 적용할 수 있고, 무엇보다 기업에게는 고유한 데이터가 있다. 위시켓을 예로 들면, 플랫폼에 등록되는 프로젝트의 카테고리 분포, 기술 스택 트렌드, 예산대별 분포 같은 데이터들이다. 이 데이터 자체가 콘텐츠의 차별화 포인트가 된다. 다른 곳에서는 복제할 수 없는, 기업만이 가진 원천 소스인 셈이다.
그런데 이 데이터를 표준적으로 잘 커뮤니케이션할 수 있다면, 그 콘텐츠를 읽는 독자는 사람뿐일까? AI 시대에 콘텐츠를 소비하는 주체는 사람만이 아니다. ChatGPT, Perplexity, Gemini 같은 AI 에이전트들도 웹을 검색하고, 신뢰할 수 있는 출처의 콘텐츠를 인용해서 답변을 구성한다. 구조화된 정의, 구체적인 수치, 명확한 Q&A 형태로 정리된 콘텐츠를 AI가 더 잘 읽고 더 자주 인용한다. 이런 콘텐츠를 먼저 선점하는 기업이 검색 시장의 다음 승자가 된다. 이른바 GEO(Generative Engine Optimization) 라고 불리는 영역이다.
이를 바탕으로, AI 시대 기업에 필요한 콘텐츠는 두 가지로 정리된다.
첫 번째는 사람을 위한 콘텐츠다. 브랜드 스토리, 고객 공감, 설득의 영역으로, 감각과 감정을 다루기 때문에 사람의 손이 많이 필요하다. AI를 도구로 활용할 수는 있지만, 사람들의 어떤 감각을 자극할지, 그 ‘무엇’을 기획하는 것은 여전히 사람의 일이다.
두 번째는 에이전트를 위한 콘텐츠다. 기업의 고유 데이터를 구조화해서, AI 에이전트가 신뢰하고 인용할 수 있는 형태로 만드는 콘텐츠다. 이쪽은 표준화가 가능하고, 데이터 자체가 차별화 포인트이며, 꾸준히 자동으로 생산할 수 있는 구조를 만들 수 있다.
요즘IT 팀은 자동화된 콘텐츠의 가치는 바로 이 두 번째, 에이전트를 위한 콘텐츠에서 나온다고 봤다. 기업이 에이전트를 위한 콘텐츠를 꾸준히, 자동으로 만들어낼 수 있다면, 그리고 그 안에 기업만의 데이터가 담겨 있다면, GEO 시대에 검색을 선점할 수 있다는 판단이었다. 신뢰를 얻는 콘텐츠에는 양과 질이 모두 중요한데, 두 가지 모두 AI로 해결할 수 있을 것이라는 가설 아래 직접 실험을 시작했다.
핵심 원칙의 발견: 한꺼번에 시키면 안 된다
팀은 이미 기업용 글을 생산하는 콘텐츠 생성 에디터를 직접 만들어본 경험이 있었다. 이 에디터는 콘텐츠의 목적과 의도를 입력하면 AI가 기획부터 본문 생성까지 처리해주는 편집기였다. 이 경험에서 결정적인 교훈을 얻었다.
단순히 “글 써줘”라고 지시하는 것이 아니라, 레퍼런스를 입력하고, 단락별로 기획안을 생성하게 하고, 그 기획안이 통과되면 글을 작성하게 하고, 단락별로 수정을 거치는 구조가 훨씬 좋은 결과를 냈다는 것이다.
문제의 핵심은 이것이었다. AI에게 한꺼번에 시키면 안 된다. 리서치부터 글쓰기까지 하나의 프롬프트에 몰아넣으면, 리서치의 폭이 자동으로 좁아진다. 겉으로는 괜찮은 결과물처럼 보이지만, 판단 과정을 뜯어보면 이해도가 낮고 신뢰가 떨어진다. 이는 단순히 키워드에 따라 글을 작성해주는 대행사를 이용해본 경험과 유사하다. 비즈니스 맥락 없이 키워드만 타깃한 글은 사람이 쓰든 AI가 쓰든 뻔한 결과물이 나올 수밖에 없다.
이 원칙을 더 큰 스케일로 적용하기로 했다. 글 한 편을 잘 쓰는 수준이 아니라, 기획부터 발행까지 전체 과정을 파이프라인으로 만드는 것이었다.
6단계 콘텐츠 자동화 파이프라인의 설계
콘텐츠 마케터가 실제로 일하는 순서를 그대로 따르는 구조로, 총 6단계 파이프라인을 설계했다.
1단계: 퍼널/GEO 기반 키워드 기획 시스템
어떤 키워드를 타깃할지, 검색량과 경쟁 강도, GEO 인용 가능성을 종합해서 콘텐츠 주제를 결정하는 단계다. 단순히 검색량이 많은 키워드가 아니라, AI 에이전트가 인용할 가능성이 높고 마케팅 퍼널의 각 단계(인지-고려-전환)에 균형 있게 배치될 수 있는 주제를 선별한다.
2단계: 키워드 기반 콘텐츠 생성 자동화
결정된 키워드를 바탕으로 H2 구조, 제목안, 본문 초안까지 자동으로 생성하는 단계다. 기획안이 확정된 이후에 비로소 글쓰기가 시작되는 구조로, 이 순서를 지키는 것이 품질을 높이는 핵심이다.
3단계: SEO/GEO 최적화 검수
생성된 콘텐츠가 검색엔진과 AI 에이전트 모두에게 잘 읽히는 구조인지 점검하는 단계다. 전통적인 SEO 최적화에 더해, AI 에이전트가 인용하기 좋은 형태인지를 함께 검토한다.
4단계: 발행 자동화 시스템
검수를 통과한 콘텐츠를 블로그에 자동으로 발행하는 단계다. 사람의 개입을 최소화하여, 기획에서 발행까지의 속도를 최대화한다.
5단계: 뉴스레터 자동 재생산
발행된 블로그 콘텐츠를 뉴스레터 형식으로 재가공해서 발송하는 단계다. 같은 내용을 채널 특성에 맞게 변형함으로써, 콘텐츠 하나의 확산력을 극대화한다.
6단계: 멀티포맷 확장
블로그 글 하나를 SNS 포스팅, PR 보도자료 등 다양한 포맷으로 변환하는 단계다. 원소스 멀티유즈(One Source Multi Use) 전략을 자동화로 구현한다.
핵심 원칙은 “한 번에 다 시키지 않는다”는 것이다. 에이전트에게 넓은 범위의 목표를 주면 결과가 산만해진다. 좁은 범위의 목표를 주고 완수하게 하는 쪽이 성능이 훨씬 좋았다. 리서치 따로, 기획 따로, 글쓰기 따로, 검수 따로 — 사람이 팀으로 일하는 것처럼, 에이전트도 역할을 나눠야 제대로 된 결과물이 나왔다.
1단계 구축: 자동 키워드 기획 시스템의 내부 작동 원리
왜 첫 번째 에이전트가 ‘리서처’였는가
6단계 파이프라인을 설계한 후, 다음 질문은 “어디부터 만들 것인가”였다. 팀은 1단계, 즉 키워드 기획 시스템부터 시작했다. 이유는 콘텐츠 마케터의 실제 업무 순서를 따랐기 때문이다.
콘텐츠를 기획하려면 먼저 어떤 키워드를 타깃할지를 결정해야 한다. 검색량은 어느 정도인지, 경쟁 콘텐츠는 뭐가 있는지, 이미 다룬 주제와 겹치지는 않는지. 이 판단을 내리려면 그 전에 키워드를 둘러싼 데이터를 긁어모으는 리서치가 선행되어야 한다.
처음에는 리서치와 기획을 하나의 에이전트에 넣어봤다. “키워드 조사해서 콘텐츠 기획안까지 만들어줘.” 결과는 좋지 않았다. 리서치를 하면서 동시에 판단까지 하려니 리서치의 폭이 좁아졌다. 에이전트가 자기가 쓰기 편한 방향으로 데이터를 골라오는 느낌이었다. 그래서 분리했다.
- 리서처 에이전트: 데이터를 수집하는 역할
- 플래너 에이전트: 그 데이터를 보고 기획을 짜는 역할
역할을 나누자 리서치의 폭이 넓어지고, 기획의 근거가 탄탄해졌다.
인터뷰가 결정적이었다
이 과정에서 결정적인 역할을 한 것은 내부 콘텐츠 마케터와의 인터뷰였다. 자동화의 대상이 콘텐츠 마케터의 업무이다 보니, 마케터가 실제로 키워드를 디깅하는 절차를 먼저 이해해야 했다.
- 어떤 순서로 검색하는지
- 어디서 키워드를 찾는지
- 뭘 보고 “이 키워드는 된다, 안 된다”를 판단하는지
이것을 자연어로 정의하고, 그대로 에이전트의 작업 정의서에 올렸다. 이 과정이 기술적인 코드 최적화보다 훨씬 큰 성능 향상을 가져왔다는 것이 팀이 얻은 가장 중요한 인사이트다.
실제 파이프라인의 작동 방식: 슬랙 명령어 하나에서 한 달치 기획까지
전체 구조는 다음과 같다.
1
슬랙 입력 → 리서처(시장조사) → 플래너(전략수립) → 슬랙 결과 + 구글시트 및 대시보드 출력
슬랙에서 ①질문 의도, ②콘텐츠 방향성, ③발행 월을 입력하면 파이프라인이 자동으로 돌아간다. GEO 최적화를 위해 사용자의 질문과 그 의도를 중심으로 콘텐츠를 기획하는 방향으로 입력 항목을 설계했다.
리서처 에이전트의 3단계 시장조사
1단계 — 키워드 수집 및 클러스터링: 입력된 질문에서 키워드를 추출하고, 구글/네이버 자동완성, 검색광고, 연관검색어를 수집한 뒤 의미 기준으로 그룹핑한다. “외주 개발”이라는 메인 키워드 하나에서 104개 클러스터, 24개의 PAA(People Also Ask) 질문이 수집된 것이 실제 실행 결과다.
2단계 — 경쟁사 분석: 각 클러스터의 대표 키워드로 구글과 네이버 상위 콘텐츠를 수집하고, 경쟁사를 분석하며, 검색결과의 특수 영역(AI 오버뷰, 영상, 스니펫 등)을 감지한다.
3단계 — GEO 현황 파악: ChatGPT에 같은 질문을 넣어서 어떤 사이트가 인용되는지를 확인한다. 위시켓 블로그가 AI 검색에서 인용되고 있는지, 경쟁사는 인용되고 있는지를 파악하는 것이 목적이다.
플래너 에이전트의 7단계 기획 완성
리서처가 수집한 데이터를 받아 플래너는 다음 7단계로 기획을 완성한다.
- 키워드 그룹을 질문 카테고리별로 분류
- 각 질문이 인지/고려/전환 중 어디에 해당하는지 퍼널 태깅
- 기존 발행 글 200건 이상과 대조하여 중복 여부 판정
- 검색량과 트렌드 가중치로 우선순위 결정
- 월/수/금 발행일에 퍼널이 교차 배치되도록 일정 수립
- 각 콘텐츠의 제목 후보 3개, 본문 H2 구조, CTA 설계
- GEO 유형(비교형, Q&A형 등) 분류까지 완성
실제 결과물 예시
“외주 개발”로 한 번 실행했을 때 생성된 기획안의 예시는 다음과 같다.
| 항목 | 내용 |
|---|---|
| 타깃 질문 | “외주 개발사를 고를 때 포트폴리오 외에 반드시 확인해야 할 검증 기준은 무엇인가요?” |
| 퍼널 단계 | 고려 단계 |
| GEO 유형 | 비교형 |
| 발행일 | 3월 18일 |
| SEO 제목안 | “외주 개발사 검증 기준 5가지, 포트폴리오 너머를 봐야 한다” |
| CTR 제목안 | “포트폴리오 보고 고른 외주 개발사가 실패하는 이유” |
| 구성 | H2 구조 5개 + CTA(견적 비교) |
이런 기획이 월 13건, 한 달치가 12분 49초 만에 완성된다.
사용 모델과 비용 효율
파이프라인에 사용된 모델 구성은 다음과 같다.
- 리서처: GPT-5.2
- 가벼운 필터링: GPT-4.1 mini
- 플래너: Claude Sonnet 4.6
콘텐츠 마케터가 같은 작업을 수동으로 수행하면 보통 2~3시간이 걸린다는 점을 고려하면, 12분 49초라는 처리 시간은 시간과 비용 양면에서 모두 의미 있는 수준의 효율화다.
기술보다 기획이 중요하다: 이 실험에서 얻은 핵심 인사이트
인사이트 1: 이것은 기술 프로젝트가 아니라 기획 프로젝트다
이 실험에서 가장 크게 느낀 점은, 이 작업이 “기술 프로젝트”가 아니라 “기획 프로젝트”에 가깝다는 것이다. 에이전트의 성능을 끌어올린 결정적인 순간은 코드를 최적화한 때가 아니었다. 콘텐츠 마케터가 실제로 일하는 과정을 인터뷰해서 자연어로 정의하고, 그 정의를 에이전트의 작업 명세서에 옮긴 순간이었다.
비개발자가 기술 단위의 최적화를 요청하는 것보다, 기획 문서를 정돈해서 넘기는 쪽이 결과가 좋았다. 에이전트에게 좋은 지시를 내리는 것은, 결국 좋은 기획을 할 수 있느냐의 문제였다. 이것은 컨텍스트 엔지니어링의 핵심 원칙, 즉 모델에게 무엇을 알려주느냐가 어떻게 지시하느냐보다 더 중요하다는 사실과 일맥상통한다.
인사이트 2: 사전 컨텍스트의 힘
같은 에이전트라도 회사 프로필, 타깃 페르소나, 경쟁사 목록 같은 내부 맥락을 넣어주느냐 안 넣어주느냐에 따라 결과물 품질이 확연히 달라졌다. 아무 맥락 없이 돌리면 일반적인 블로그 수준의 결과가 나오지만, 위시켓의 데이터와 상황을 이해시키면 “이 회사 블로그에서만 할 수 있는 이야기”가 나오기 시작한다.
결국 자동화의 품질은 자동화 바깥에서 결정된다는 원칙이다. 자동화 파이프라인을 아무리 정교하게 구성해도, 그것에 공급하는 내부 컨텍스트가 빈약하면 결과도 빈약하다. 기업의 고유 데이터, 명확한 타깃 페르소나, 차별화된 포지셔닝이 자동화의 연료인 셈이다.
지금 당장 해볼 수 있는 두 가지
파이프라인을 바로 구축하기 어려운 상황이라도, 지금 당장 다음 두 가지는 해볼 수 있다.
첫 번째는 내부 콘텐츠 담당자에게 “콘텐츠를 기획하고 제작할 때 실제로 어떤 순서로 작업하나요?”라고 묻는 것이다. 이 질문 하나가 자동화의 설계도를 만드는 데 필요한 가장 중요한 정보를 끌어낸다.
두 번째는 그 워크플로우를 자연어로 정리해두는 것이다. 도구도 아니고 코드도 아닌, 단순한 문서 한 장이 나중에 자동화를 시작할 때 가장 큰 자산이 된다.
앞으로의 방향
이 글은 6단계 파이프라인 중 1단계의 기본 로직을 완성한 시점에서 작성되었다. 콘텐츠 생성, SEO/GEO 검수, 발행 자동화, 뉴스레터, 멀티포맷 확장은 아직 구축 전이다. 1단계도 더 나은 결과물이 나오도록 계속 피드백하며 개선 중이다.
앞으로 나머지 단계를 만들어가면서 각 에이전트 개발기를 하나하나 공유하는 것보다는, 기업이 AI 콘텐츠 자동화를 도입할 때 실제로 부딪히는 구조적 문제와 해결 방향 위주로 인사이트를 공유할 예정이다.
정리: 이 실험이 우리에게 말해주는 것
콘텐츠 자동화는 단순히 “AI가 글을 대신 써주는 것”이 아니다. 이 실험이 보여주는 것은 훨씬 더 구조적인 변화다.
첫째, 콘텐츠의 목적 자체가 이중화되고 있다. 사람을 설득하는 콘텐츠와 AI 에이전트에게 인용되는 콘텐츠는 서로 다른 기준과 전략을 필요로 한다. GEO라는 개념이 SEO의 다음 전장이 되고 있다.
둘째, 에이전트 설계의 핵심은 역할 분리와 단계별 품질 통제다. 모든 것을 한 번에 처리하려는 단일 에이전트보다, 각자의 역할이 명확히 분리된 멀티에이전트 구조가 일관되게 더 좋은 결과를 낸다.
셋째, 자동화의 경쟁력은 데이터와 기획에서 온다. 파이프라인을 아무리 정교하게 구성해도, 그 안에 기업 고유의 데이터와 명확한 기획 의도가 없으면 차별화된 결과가 나오지 않는다. 자동화 바깥의 기획력이 자동화의 품질을 결정한다.
넷째, 이것은 개발자만의 프로젝트가 아니다. 가장 큰 성능 향상을 가져온 것은 코드가 아니라 마케터 인터뷰와 자연어 작업 정의서였다. 비즈니스 도메인을 이해하는 기획자의 역할이 에이전트 시대에 오히려 더 중요해지고 있다.
작성 일자: 2026-03-11