Pipeline de Conteúdo com IA: 6 Artigos por Dia
Pipeline de conteúdo com IA é um sistema automatizado que encadeia pesquisa de temas, geração de texto, validação de qualidade e publicação — sem precisar abrir o editor a cada artigo. Construí o meu em três semanas usando Claude, TypeScript e GitHub Actions. Hoje ele publica 6 artigos por dia em givanildo.com.br.
Vou mostrar exatamente como funciona: da fila de temas até o commit no repositório.
Por que automatizar publicação de conteúdo?
Antes de automatizar, eu publicava 2–3 artigos por semana. Cada um levava 3–4 horas entre pesquisa, escrita e formatação. Com o pipeline, esse tempo caiu para 20 minutos de configuração por lote de temas.
O volume importa para SEO porque o Google privilegia sites com topical authority (autoridade temática — o sinal de que um site cobre um assunto em profundidade, não apenas com um post isolado). Para construir essa autoridade num cluster como “corretores de plano de saúde” ou “vibe coding”, você precisa de dezenas de artigos cobrindo ângulos diferentes. Fazer isso manualmente é inviável.
Isso não significa publicar qualquer coisa. O pipeline tem um quality check que reprova artigos fora do padrão — a taxa de rejeição no início foi de 40%. Após ajustar os prompts com base nos erros recorrentes, caiu para menos de 15%.
Como funciona a fila de temas?
A fila é um arquivo content-queue.json com temas priorizados por cluster. Cada item tem: keyword principal, título sugerido, categoria, links internos disponíveis e status (pending, in-progress, published, rejected). O cron roda 3x por dia e puxa os próximos temas com status pending.
Antes de gerar qualquer artigo, o sistema verifica anti-canibalização: se 60% dos tokens do novo título coincidem com um artigo existente, o tema é pulado automaticamente. Evita publicar dois posts competindo pela mesma keyword.
A fila é alimentada manualmente (eu defino os clusters estratégicos) e semi-automaticamente via Google Suggestions API — uma chamada sem API key que retorna o autocomplete real do--- title: “Pipeline de Conteúdo com IA: 6 Posts por Dia” description: “Como construí um pipeline que gera, valida e publica 6 artigos diários usando Claude API, Astro e TypeScript — sem intervenção manual.” category: “vibe-coding” date: 2026-04-04 updated: 2026-04-04 featured: false guide: false draft: false tags: [“pipeline conteúdo ia”, “automação conteúdo”, “vibe coding”, “claude api”, “astro”] image: “/images/blog/pipeline-conteudo-ia-6-posts-dia.webp” imageAlt: “Terminal com logs de pipeline de geração automática de artigos com IA, exibindo score do quality check e confirmação de commit bem-sucedido” wordCount: 1720 faq:
- question: “Como funciona um pipeline de conteúdo com IA?” answer: “Um pipeline de conteúdo com IA encadeia etapas automatizadas: Google Suggest para identificar buscas reais, Claude API para escrever o artigo com as regras editoriais certas, quality check para validar antes de publicar, e git para fazer o deploy automático. Cada etapa é independente — você pode trocar o modelo de IA sem refazer o sistema inteiro.”
- question: “Quanto custa gerar 6 artigos por dia com Claude API?” answer: “Com Claude 3.5 Haiku, cada artigo custa entre R$0,15 e R$0,35 em tokens. Seis por dia = R$0,90 a R$2,10. Somando Gemini Imagen para imagens, o custo total fica abaixo de R$5 por dia para manter o pipeline rodando com seis publicações.”
- question: “O pipeline substitui o trabalho de um redator?” answer: “Para conteúdo informativo e SEO em escala, o pipeline substitui a execução — mas não a estratégia. Temas, ângulo editorial e revisão de artigos sensíveis continuam sendo decisões humanas. Pense no pipeline como um time de redação que executa rápido e nunca para, mas precisa de um editor-chefe para dar direção.”
- question: “Quais são os riscos de publicar conteúdo automático sem quality check?” answer: “Os três principais riscos são: qualidade inconsistente (mitigado por score mínimo de 75/100 no quality check), canibalização de keywords (mitigado por verificação de similaridade antes de gerar) e erros técnicos no MDX que quebram o build (mitigado por validação de frontmatter antes do commit). Sem esses três controles, o pipeline vira gerador de spam.”
Pipeline de conteúdo com IA é o conjunto de scripts que automatiza desde a escolha do tema até o commit no repositório — sem editor humano entre as etapas. Construí o meu sobre Astro + TypeScript + Claude API. Hoje publica 6 artigos por dia com quality check de 20 dimensões rodando antes de qualquer commit.
O custo: menos de R$5 por dia em tokens e infraestrutura. O ganho: topical authority (autoridade temática — o sinal que o Google usa para entender que seu site cobre um assunto com profundidade) crescendo semana a semana, com zero trabalho manual de execução.
Como funciona a arquitetura do pipeline?
O pipeline tem 6 scripts independentes, cada um com responsabilidade única: keywords → geração → imagens → quality check → fila → commit. Não existe monólito central — cada script pode falhar, ser substituído ou melhorado sem derrubar o resto.
A fila de artigos vive em um arquivo JSON (content-queue.json) com estado por item: pending, generated, approved, published. O cron executa os scripts na sequência certa e atualiza o estado a cada etapa. Se um artigo falha o quality check, vai para rejected e não avança.
| Etapa | Script | Ferramenta | Output |
|---|---|---|---|
| Keywords | google-suggest.ts | Google Suggest API | keywords + H2s + FAQ |
| Geração | article-generator.ts | Claude API (Haiku) | arquivo .mdx |
| Imagens | generate-blog-images.mjs | Gemini Imagen | .webp hero + body |
| Validação | quality-check.ts | Claude + Zod | score 0–100 |
| Commit | auto-publisher.ts | git + Cloudflare Pages | deploy automático |
Cada etapa lê seu input do estado anterior e escreve seu output no próximo. Não há chamadas diretas entre scripts — tudo passa pelo arquivo de fila. Isso torna o sistema fácil de debugar: você sabe exatamente em qual etapa um artigo travou.
Como os artigos são gerados com Claude API?
Cada artigo começa com uma chamada à Google Suggest API — sem custo, sem chave de API — que retorna as sugestões de autocomplete para a keyword principal. Essas sugestões viram os H2s e as perguntas do FAQ. O artigo é escrito para responder buscas reais, não para impressionar.
O prompt enviado ao Claude API inclui: a keyword principal, as suggestions do Google, as regras de formatação com frontmatter (bloco de metadados YAML no topo do arquivo — título, data, categoria e campos obrigatórios) completo, e o arquivo learned-mistakes.md com os erros históricos do pipeline. Esse contexto reduz drasticamente a taxa de rejeição no quality check.
Uso Claude 3.5 Haiku para geração em volume — rápido e barato o suficiente para rodar 6 vezes ao dia. Cada chamada custa entre $0,001 e $0,003 por artigo de 1.500 palavras. Links internos são inseridos automaticamente com base na categoria do artigo e verificados contra os slugs existentes antes do commit.
Para artigos que precisam de geração mais sofisticada — análises comparativas, guias aprofundados — o pipeline escala para Claude Sonnet sem mudança de arquitetura. Só troca o model ID na chamada.
Como a geração de imagens foi automatizada?
A geração de imagens funciona em três etapas independentes: hero via Gemini Imagen com prompt derivado do imageAlt gerado pelo Claude, OG image (imagem usada no compartilhamento em redes sociais como WhatsApp e LinkedIn) via Satori renderizando um template SVG em build-time, e body images com prompts específicos derivados dos H2s do artigo.
As três rodam no mesmo script (generate-blog-images.mjs), mas cada uma pode falhar de forma isolada. Se a hero falha, as body images ainda são geradas — o artigo não fica bloqueado. Isso é deliberado: falha parcial é melhor do que travar tudo.
O prompt da hero segue regras estritas: sem texto na imagem, sem hex codes (códigos de cor em formato hexadecimal — ex: #ff0000 — que causam texto parasita gerado pela IA), sem metáforas visuais saturadas como funil para conversão ou megafone para marketing.
Cada body image recebe um alt text (texto alternativo que descreve a imagem para mecanismos de busca e leitores de tela) único, derivado do H2 onde é inserida. Nenhuma imagem repete o mesmo alt text de outra no mesmo artigo — regra bloqueante no quality check.
Como o quality check garante a qualidade?
O quality-check.ts avalia cada artigo em 20 dimensões antes do commit. Se o score total ficar abaixo de 75 pontos, ou se uma dimensão bloqueante falhar, o arquivo vai para o rejection-log e nunca chega ao ar — o build do Cloudflare Pages nem é acionado.
As dimensões bloqueantes incluem: título acima de 60 caracteres, zero links externos, menos de 50% dos H2s como perguntas, frontmatter incompleto, e wordCount com divergência acima de 10% da contagem real do corpo.
Além das dimensões bloqueantes, o check valida GEO — Generative Engine Optimization (otimização para respostas geradas por IA como ChatGPT, Google AI Overviews e Perplexity). Isso inclui: H2s abrindo com resposta direta (não teaser), parágrafos auto-contidos de 134–167 palavras, e presença de pelo menos uma tabela em artigos acima de 1.500 palavras.
A validação do frontmatter usa Zod (biblioteca de validação de dados em TypeScript) para garantir que todos os campos têm o tipo correto — string, booleano, array. Um erro de tipo no YAML quebra o Astro Content Collections; o Zod captura o problema antes do commit.
O Que o Pipeline Não Faz — e Por Quê?
Automatizar 100% de um processo editorial é uma armadilha. Existem três funções que mantenho fora do pipeline por design:
-
Definir novos temas na fila — curadoria de temas exige contexto de mercado: o que está crescendo no Search Console, o que clientes perguntam, quais concorrentes ranqueiam. Nenhum script interpreta isso com a precisão necessária. Essa decisão é minha.
-
Revisar artigos YMYL — YMYL (Your Money Your Life — conteúdo sobre saúde, finanças ou questões jurídicas que impacta diretamente decisões de vida das pessoas) exige padrões de E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness — critérios do Google para avaliar credibilidade de conteúdo) mais altos. Esses artigos passam por revisão manual antes de publicar.
-
Manter o pipeline quando quebra — quando a API da Anthropic muda, quando o Astro atualiza o schema de content collections, quando o Gemini Imagen rejeita um tipo de prompt: alguém precisa debugar. Automação sem manutenção vira dívida técnica silenciosa.
Para os dois primeiros cenários, uso automação seletiva como descrevo em Automação com IA: 7 Exemplos Práticos. Para o terceiro, alertas no cron avisam quando um job falha mais de duas vezes seguidas.
Construir vs comprar: qual faz sentido para você?
Ferramentas SaaS de geração de conteúdo em escala (Jasper, Copy.ai, Writesonic) custam entre $99 e $499/mês e criam vendor lock-in (dependência de um único fornecedor de tecnologia — se o preço sobe ou o serviço muda, você não tem saída sem migrar tudo). Um pipeline próprio custa menos de R$5/dia em tokens, pode ser ajustado linha a linha e troca de modelo de linguagem sem nenhuma migração.
A desvantagem real do pipeline próprio é o tempo inicial. Levei cerca de 40 horas para construir, testar e calibrar as regras editoriais. Para quem está começando com IA no desenvolvimento, as ferramentas de vibe coding para escolher em 2026 aceleram bastante essa construção.
Se você publica menos de 5 artigos por semana, uma ferramenta SaaS provavelmente compensa. Se precisa de volume diário com consistência de qualidade e controle total sobre as regras editoriais, o pipeline próprio é a resposta certa. Quanto mais específica for a sua régua de qualidade, mais difícil será terceirizar para uma solução genérica.
Para complementar o pipeline com ferramentas open-source de automação que se integram bem a esse tipo de arquitetura, veja 6 Ferramentas Open-Source de Automação em 2026.
Se você quer estruturar automação de conteúdo para o seu negócio — especialmente em nichos como corretores de planos de saúde ou serviços locais onde volume e consistência editorial fazem diferença — entre em contato. Posso ajudar a definir a arquitetura certa para o volume e a qualidade que você precisa.
Perguntas frequentes
Como funciona um pipeline de conteúdo com IA?
O pipeline encadeia scripts independentes: Google Suggest identifica as buscas reais com volume confirmado, Claude API escreve o artigo seguindo as regras editoriais, o quality check valida em 20 dimensões antes de qualquer publicação, e o git faz o deploy automático. A diferença de um pipeline bem projetado para um script de geração simples está na fila de estado e nos controles de qualidade — sem eles, você publica volume sem consistência.
Quanto custa gerar 6 artigos por dia com Claude API?
Com Claude 3.5 Haiku, cada artigo custa entre R$0,15 e R$0,35 em tokens, dependendo do tamanho. Seis artigos por dia ficam entre R$0,90 e R$2,10 de LLM. Somando Gemini Imagen para imagens e o servidor que roda os crons, o custo total fica abaixo de R$5 por dia — menos do que um freelancer cobaria por um único artigo.
O pipeline substitui o trabalho de um redator?
Ele substitui a execução, não a direção editorial. O pipeline escreve, valida e publica sem esperar. Mas quem define quais temas entram na fila, qual ângulo tomar em cada artigo e quais posts precisam de revisão humana antes de subir — essa parte continua sendo uma decisão de negócio, não técnica. Automação de conteúdo funciona melhor como multiplicador de uma estratégia já definida do que como substituto dela.
Quais são os riscos de publicar conteúdo automático sem quality check?
Sem quality check, os riscos são concretos: artigos com canibalização de keywords (dois posts competindo pela mesma busca no Google), frontmatter com campos faltando que quebram o build do site, e conteúdo genérico que passa sem valor real para o leitor. Com um quality check calibrado — score mínimo de 75 mais dimensões bloqueantes — esses três riscos caem para menos de 5% dos artigos gerados. Os que falham vão para o rejection-log e podem ser revisados manualmente ou regenerados com ajustes no prompt.
Este artigo foi útil?
CEO @leadmarkbr · Especialista em SEO e Tráfego Pago
CEO da LeadMark desde 2012. Mais de 15 anos em Google Ads, SEO/GEO e Meta Ads. Gero +60k leads/mês para 30 mil corretores de planos de saúde em todo o Brasil. Certificado Google Ads Search. Palestrante em eventos de marketing digital.
Nenhum comentário ainda
Seja o primeiro a compartilhar sua opinião