Você já parou para pensar na visibilidade que o ChatGPT traz para o SEO? Neste artigo, vamos explorar como essa nova dinâmica está mudando a forma como vemos o tráfego e a estratégia de conteúdo.
O Relatório Confidencial da OpenAI e o Novo Paradigma da Visibilidade no SEO
E aí, galera do SEO! Preparados para uma virada de jogo? Recentemente, tive acesso a um relatório interno e confidencial da OpenAI — sim, aqueles dados que só alguns parceiros selecionados veem. E o que ele mostra é de cair o queixo: o ChatGPT está cada vez mais exibindo conteúdo de publishers, mas, ao mesmo tempo, está eliminando a necessidade de os usuários clicarem para acessar a fonte original. Isso não é só uma mudança; é uma revolução que nos tira da era dos “mecanismos de busca” e nos joga de cabeça na era dos “mecanismos de decisão”.
Visibilidade Sem Tráfego: O Que os Dados da OpenAI Revelam
O relatório, que foi analisado por Vincent Terrasi, co-fundador da DnG.ai, oferece uma visão detalhada de como o conteúdo de um grande publisher de mídia se comporta dentro do ChatGPT. Ele mostra, com uma granularidade surpreendente, a frequência com que uma URL é exibida, onde ela aparece na interface, quantos cliques recebe, quantas conversas ela impacta e a taxa de cliques (CTR) em diferentes locais da interface.
Um dos dados mais chocantes é sobre a URL de melhor desempenho: ela registrou 185.000 impressões em conversas distintas. Isso significa que foi mostrada em milhares de sessões diferentes do ChatGPT. Dessas impressões, ocorreram 3.800 cliques, resultando em uma CTR de 2% no nível da conversa. Se contarmos as múltiplas aparições dentro das conversas, os números sobem para 518.000 impressões totais e 4.400 cliques totais, o que reduz a CTR geral para 0,80%.
É uma exposição enorme, mas o tráfego gerado é mínimo. A maioria das outras URLs teve um desempenho ainda pior, com CTRs que variam de 0,5% (considerado “bom”) a 0,1% (típico), 0,01% (comum) e até 0% (extremamente comum), especialmente para conteúdos de nicho. Isso não é um caso isolado; é um padrão consistente que se alinha com estudos externos, incluindo análises de logs de servidores que mostram CTRs abaixo de 1% vindos do ChatGPT.
Já vimos algo parecido na “era do zero-clique” do Google, mas o ChatGPT acelera essa tendência. A diferença crucial é que os snippets em destaque do Google ainda incentivavam o clique para mais informações. As respostas do ChatGPT, por outro lado, são projetadas para satisfazer completamente a intenção do usuário, tornando os cliques desnecessários.
O Paradoxo da Visibilidade: Onde Mais Aparece, Menos Clicam
O relatório da OpenAI detalha as interações por “superfície” da interface, revelando uma dinâmica contraintuitiva. O bloco de resposta principal, onde os LLMs (Large Language Models) colocam mais de 95% do seu conteúdo, gera um volume massivo de impressões — muitas vezes 100 vezes mais que outras áreas. No entanto, a CTR nessa área varia entre 0,01% e 1,6%. E o mais curioso: quanto menor a CTR, melhor a qualidade da resposta.
Essa é a nova “Posição Zero”, mas agora não é apenas zero-clique; é zero-intenção-de-clicar. A psicologia é diferente do Google. Quando o ChatGPT entrega uma resposta completa, o usuário entende que clicar seria duvidar da precisão da IA ou buscar algo que a IA não conseguiu fornecer. A IA já resolveu o problema.
A barra lateral, por outro lado, conta uma história diferente. Essa pequena área tem bem menos impressões, mas uma CTR consistentemente forte, variando de 6% a 10% nos dados do relatório. Isso é mais alto que as posições orgânicas 4 a 10 do Google! Usuários que clicam ali geralmente estão explorando conteúdo relacionado, não verificando a resposta principal. É um modo de descoberta, não de verificação.
As citações na parte inferior das respostas também mostram um comportamento similar, alcançando uma CTR entre 6% e 11% quando aparecem. Elas são exibidas apenas quando o ChatGPT cita explicitamente as fontes e atraem usuários mais acadêmicos ou que buscam verificar fatos. Curiosamente, a presença de citações não aumenta a CTR da resposta principal; pode até diminuí-la, pois a verificação já foi feita sem a necessidade de um clique.
Os resultados de busca são raramente acionados e só aparecem quando o ChatGPT precisa de dados em tempo real. Eles ocasionalmente mostram picos de CTR de 2,5% a 4%, mas a amostra ainda é pequena para a maioria dos publishers. No entanto, esses cliques representam a maior intenção quando ocorrem.
O paradoxo é claro: quanto mais o OpenAI exibe seu conteúdo, menos cliques ele gera. E quanto menos ele exibe, maior a CTR. Isso inverte 25 anos de lógica de SEO. No SEO tradicional, alta visibilidade significa alto tráfego. Na busca nativa de IA, alta visibilidade muitas vezes significa extração de informação, não encaminhamento de usuário. Como diz o relatório, “A ‘resposta principal’ do ChatGPT é um motor de visibilidade, não um motor de tráfego.”
Por Que a CTR Está Despencando: ChatGPT é um Ponto Final, Não um Portal
Os comentários e reações nas discussões do LinkedIn sobre esses dados foram unânimes: os usuários não clicam porque o ChatGPT resolve o problema deles. Diferente do Google, onde a resposta é um link, o ChatGPT entrega a resposta diretamente. Isso significa que:
- Usuários satisfeitos não clicam (já obtiveram o que precisavam).
- Usuários curiosos às vezes clicam (querem explorar mais a fundo).
- Usuários céticos raramente clicam (confiam na IA ou desconfiam de todo o processo).
- Pouquíssimos usuários sentem a necessidade de sair da interface.
Um SEO sênior comentou: “O tráfego deixou de ser a métrica a ser otimizada. Agora estamos otimizando para a transferência de confiança.” Outro analista escreveu: “Se o ChatGPT cita minha marca como autoridade, eu já ganhei a confiança do usuário antes mesmo de ele visitar meu site. O clique é apenas uma formalidade.”
Essa é uma mudança fundamental na forma como consumimos informação. Na era pré-IA, o padrão era: “Preciso encontrar a resposta” → clicar → ler → avaliar → decidir. Na era da IA, virou: “Preciso de uma resposta” → “receber” → “confiar” → “agir”, sem necessidade de clique. A IA se torna o intermediário confiável, e a fonte, a autoridade silenciosa. Isso marca o início do que alguns chamam de “Inception SEO”: otimizar para a própria resposta, e não para cliques. O objetivo não é mais ser encontrado, mas ser a fonte que a IA confia e cita.
Autoridade Acima de Palavras-Chave: A Nova Lógica da Recuperação de IA
O SEO tradicional se baseia em indexação e correspondência de palavras-chave. Os LLMs, no entanto, operam com princípios bem diferentes. Eles usam o conhecimento interno do modelo, adquirido por meio de rastreamentos, conteúdo licenciado e parcerias. Eles só buscam dados externos quando o modelo percebe que seu conhecimento interno é insuficiente, desatualizado ou não verificado.
Ao selecionar fontes, os LLMs priorizam autoridade de domínio e sinais de confiança, clareza e estrutura do conteúdo, reconhecimento de entidades e alinhamento com o grafo de conhecimento, precisão histórica e consistência factual, e relevância para consultas sensíveis ao tempo. Só então decidem se devem citar a fonte, com base no tipo de consulta e nível de confiança.
Isso leva a uma mudança profunda:
- A força da entidade se torna mais importante do que a cobertura de palavras-chave.
- A autoridade da marca supera a construção de links tradicional.
- Consistência e conteúdo estruturado importam mais do que o volume de conteúdo.
- A confiança do modelo se torna o fator de ranqueamento mais importante.
- A precisão factual ao longo do tempo constrói uma vantagem cumulativa.
Como diz o relatório, “Você não está mais competindo em um índice. Você está competindo no grafo de confiança do modelo.” A lógica antiga do SEO era: “Ranqueie para 1.000 palavras-chave → Obtenha tráfego de 1.000 consultas de busca.” A nova lógica da IA é: “Torne-se a entidade autoritária para 10 tópicos → Torne-se a fonte padrão para 10.000 respostas geradas por IA.”
Nesse novo cenário, um único domínio altamente autoritário pode dominar as citações de IA em todo um cluster de tópicos. O “SEO de cauda longa” pode se tornar menos relevante, pois a IA sintetiza respostas em vez de corresponder a palavras-chave específicas. A autoridade do tópico se torna mais valiosa do que a autoridade da palavra-chave. Ser citado uma vez pelo ChatGPT pode influenciar milhões de respostas futuras.
Novos KPIs: “Share of Model” e Influência na Resposta
Com a queda da CTR, as marcas precisam adotar métricas que reflitam a visibilidade nativa da IA. A primeira delas é o “share of model presence”, que mede a frequência com que sua marca, entidade ou URLs aparecem em respostas geradas por IA, independentemente de serem clicadas ou não. É como o “share of voice” na publicidade tradicional, mas aqui mede a presença no processo de raciocínio da IA.
Como medir isso?
- Acompanhe as menções da sua marca em respostas de IA em plataformas como ChatGPT, Claude, Perplexity e Google AI Overviews.
- Monitore o reconhecimento de entidades em conteúdo gerado por IA.
- Analise a frequência de citações em respostas de IA para sua área de tópico.
Os LLMs estão cada vez mais produzindo declarações autoritárias, como “De acordo com o Publisher X…”, “Especialistas da Marca Y recomendam…” e “Conforme observado pelo Líder da Indústria Z…”. Isso é o novo “brand recall”, mas acontece em velocidade de máquina e em escala massiva, influenciando milhões de usuários sem que eles visitem seu site. Ser diretamente recomendado por uma IA é mais poderoso do que ranquear em 1º lugar no Google, pois o endosso da IA carrega autoridade algorítmica. Os usuários não veem fontes concorrentes; a recomendação é contextualizada em sua consulta específica e ocorre no exato momento da tomada de decisão.
Existe também a presença contextual: fazer parte da cadeia de raciocínio mesmo quando não é explicitamente citado. É a “matéria escura” da visibilidade da IA. Seu conteúdo pode informar a resposta da IA sem ser diretamente atribuído, mas ainda assim moldar como milhões de usuários entendem um tópico. Por exemplo, se um usuário pergunta sobre as melhores práticas para gerenciar uma equipe remota, a IA pode sintetizar insights de 50 fontes, mas citar explicitamente apenas três. As outras 47 fontes, no entanto, ainda influenciaram o processo de raciocínio. Sua autoridade nesse tópico moldou a resposta que milhões de usuários verão.
Consultas de alta intenção ainda são uma métrica crucial. Prompts específicos, de fundo de funil, ainda convertem, mostrando uma CTR entre 2,6% e 4%. Essas consultas geralmente envolvem comparações de produtos, instruções específicas que exigem recursos visuais, notícias recentes, especificações técnicas ou regulatórias que exigem fontes primárias, ou pesquisa acadêmica que exige verificação de citações. A implicação estratégica é clara: não abandone a otimização de cliques por completo. Em vez disso, identifique os 10-20% das consultas onde os cliques ainda importam e otimize agressivamente para elas.
Por fim, os LLMs julgam a autoridade com base no que pode ser chamado de “presença no ecossistema circundante” e consistência entre plataformas. Isso significa consistência interna em todas as suas páginas; schema e dados estruturados que as máquinas podem analisar facilmente; alinhamento com o grafo de conhecimento por meio da presença no Wikidata, Wikipedia e bancos de dados da indústria; coerência de entidades entre domínios, onde terceiros autoritários o referenciam consistentemente; e consistência temporal, onde sua autoridade persiste ao longo do tempo.
Essa abordagem holística de SEO de entidade otimiza toda a sua presença digital como uma entidade coerente e confiável, não páginas individuais. As métricas tradicionais de SEO não conseguem capturar essa mudança. Publishers precisarão de novos painéis para rastrear citações e menções de IA, novas ferramentas para medir o “share of model” em plataformas LLM, novas metodologias de atribuição em um mundo pós-clique e novos frameworks para medir a influência sem tráfego direto.
Por Que Precisamos de um “AI Search Console”
Muitos profissionais de SEO, ao verem os dados do relatório, pensaram o mesmo: “Isso parece o rascunho inicial de um OpenAI Search Console.” Atualmente, os publishers não conseguem:
- Ver quantas impressões recebem no ChatGPT.
- Medir sua taxa de inclusão em diferentes tipos de consulta.
- Entender com que frequência sua marca é citada versus apenas referenciada.
- Identificar em quais superfícies da interface eles aparecem com mais frequência.
- Correlacionar a visibilidade do ChatGPT com receita ou métricas de marca.
- Rastrear o impacto no nível da entidade em todo o grafo de conhecimento.
- Medir com que frequência os LLMs buscam dados em tempo real deles.
- Entender por que foram selecionados (ou não) para consultas específicas.
- Comparar sua visibilidade com a dos concorrentes.
O Google tinha o “Not Provided”, que escondia dados de palavras-chave. As plataformas de IA podem nos dar o “Not Even Observable”, escondendo todo o processo de tomada de decisão. Isso cria vários problemas: para os publishers, é impossível otimizar o que não se pode medir; não há responsabilidade para as plataformas de IA, e surgem vantagens de informação assimétricas. Para o ecossistema, isso reduz a inovação na estratégia de conteúdo, concentra o poder nos provedores de plataforma de IA e dificulta a identificação e correção de vieses ou erros da IA.
Com base nesse conjunto de dados vazado e nas necessidades da indústria, um “AI Search Console” ideal forneceria métricas essenciais como volume de impressões por URL, entidade e tópico, detalhamento por superfície, taxas de cliques e métricas de engajamento, análises no nível da conversa mostrando sessões únicas e dados de séries temporais mostrando tendências. Ele mostraria detalhes de atribuição e origem: com que frequência você é explicitamente citado versus implicitamente usado, quais concorrentes aparecem ao seu lado, categorias de consulta onde você é mais visível e pontuações de confiança indicando o quanto a IA confia em seu conteúdo.
Ferramentas de diagnóstico explicariam por que URLs específicas foram selecionadas ou rejeitadas, quais sinais de qualidade de conteúdo a IA detectou, seu status de reconhecimento de entidade, conectividade do grafo de conhecimento e validação de dados estruturados. Recomendações de otimização identificariam lacunas em sua pegada de entidade, áreas de conteúdo onde a autoridade é fraca, oportunidades para melhorar a visibilidade da IA e inteligência competitiva.
A OpenAI e outras plataformas de IA precisarão, eventualmente, fornecer esses dados por várias razões. A pressão regulatória da Lei de IA da UE e regulamentações semelhantes pode exigir transparência algorítmica. Parcerias de mídia exigirão métricas de visibilidade como parte de acordos de licenciamento. A sustentabilidade econômica exige ciclos de feedback para um ecossistema de conteúdo saudável. E a vantagem competitiva significa que a primeira plataforma a oferecer análises abrangentes atrairá parcerias com publishers.
O conjunto de dados que estamos analisando pode representar o protótipo do que eventualmente se tornará uma infraestrutura padrão.
Impacto na Indústria: Mídia, Monetização e Regulamentação
Os comentários levantaram preocupações e oportunidades significativas para o setor de mídia. O contraste entre os modelos econômicos do Google e da OpenAI é gritante. O Google contribui para o financiamento da mídia por meio de pagamentos de direitos conexos na UE e em outras jurisdições. Ele ainda envia tráfego significativo, embora em declínio, e estabeleceu relações econômicas com publishers. O Google também participa de ecossistemas de publicidade que financiam a criação de conteúdo.
Em contraste, a OpenAI e plataformas de IA similares atualmente pagam apenas parceiros de mídia selecionados sob acordos privados, enviam quase nenhum tráfego com uma CTR inferior a 1%, extraem valor máximo do conteúdo enquanto fornecem compensação mínima e não criam um ecossistema de publicidade para publishers.
As AI Overviews já reduzem a CTR orgânica. O ChatGPT leva essa tendência à sua conclusão lógica, eliminando quase todo o tráfego. Isso forçará uma reestruturação completa dos modelos de negócios e levantará questões urgentes: as plataformas de IA devem pagar direitos conexos como os mecanismos de busca? Os governos imporão estruturas compensatórias para o uso de conteúdo? Os publishers negociarão parcerias diretas com provedores de LLM? Surgirão novos ecossistemas de licenciamento para dados de treinamento, inferência e citação? Como o conteúdo que é visualizado, mas não clicado, deve ser valorizado?
Vários modelos econômicos potenciais estão surgindo. Um modelo é a compensação baseada em citações, onde as plataformas pagam com base na frequência com que o conteúdo é citado ou usado. Isso é semelhante aos royalties de streaming de música, embora métricas transparentes sejam necessárias.
Sob acordos de licenciamento, os publishers licenciariam o conteúdo diretamente para plataformas de IA, com preços em camadas baseados na autoridade e frescor. Isso já está acontecendo com grandes veículos como Associated Press, Axel Springer e Financial Times. Modelos de atribuição híbridos combinariam frequência de citações, impressões e cliques, ponderados pelo valor da consulta e intenção do usuário, a fim de criar frameworks de compensação padronizados.
Mandatos regulatórios poderiam fazer com que os governos exigissem que as plataformas de IA compartilhassem receita com os criadores de conteúdo, com base em precedentes na lei de direitos conexos. Isso poderia incluir mecanismos de arbitragem obrigatórios.
Essa seria a maior mudança na economia da mídia digital desde o Google Ads. Plataformas que resolverem esse problema de forma justa construirão ecossistemas sustentáveis. Aquelas que não o fizerem enfrentarão intervenção regulatória e revoltas de publishers.
O Que Publishers e Marcas Precisam Fazer Agora
Com base nos dados e nas reações dos especialistas, um novo manual de estratégias está se formando. Primeiro, os publishers devem priorizar a inclusão em vez dos cliques. O objetivo real é fazer parte da solução, não gerar um pico de tráfego. Isso envolve criar conteúdo abrangente e autoritário que a IA possa sintetizar, priorizando clareza e precisão factual em vez de truques para aumentar o engajamento, estruturar o conteúdo para que os fatos-chave possam ser facilmente extraídos e estabelecer autoridade no tópico em vez de perseguir palavras-chave individuais.
Fortalecer sua pegada de entidade é igualmente crítico. Cada marca, autor, produto e conceito deve ser legível por máquina e consistente. Os publishers devem garantir que sua entidade exista no Wikidata e na Wikipedia, manter detalhes consistentes de NAP (nome, endereço, telefone) em todas as propriedades, implementar marcação de schema abrangente, criar e manter entradas no grafo de conhecimento, construir catálogos de produtos estruturados e estabelecer relações claras entre entidades, ligando empresas a pessoas, produtos e tópicos.
Construir sinais de confiança para recuperação é importante porque os LLMs priorizam conteúdo de alta autoridade, claramente estruturado e de baixa ambiguidade. Esses sinais de confiança incluem:
- Transparência da autoria, com biografias claras do autor, credenciais e experiência.
- Padrões editoriais, cobrindo verificação de fatos, políticas de correção e fontes.
- Autoridade de domínio, construída através da idade, perfil de backlinks e reconhecimento da indústria.
- Dados estruturados, via implementação de schema e rich snippets.
- Consistência factual, mantendo a precisão ao longo do tempo sem contradições.
- Verificação de especialistas, por meio de endossos e citações de terceiros.
Os publishers não devem abandonar a otimização de cliques por completo. Em vez disso, devem mirar em prompts de fundo de funil que ainda demonstram uma taxa de cliques (CTR) mensurável entre 2% e 4%, já que as respostas da IA são insuficientes. Exemplos de consultas com alta CTR incluem:
- “Como configurar [configuração técnica específica]” (requer visuais ou código).
- “Comparar especificações de [Produto A] vs [Produto B]” (requer tabelas, comparações detalhadas).
- “Últimas notícias sobre [evento de última hora]” (requer atualidade).
- “Onde comprar [produto específico]” (intenção transacional).
- “Carreiras em [Empresa]” (requer acesso a portal de empregos).
A estratégia é clara: identifique os 10-20% do seu espaço de tópico onde a IA não consegue satisfazer totalmente a intenção do usuário e otimize essas páginas para cliques. Em termos de conteúdo, é importante começar com as informações mais importantes, usar linguagem clara e definitiva, citar fontes primárias, evitar ambiguidade e criar conteúdo que permaneça preciso por longos períodos.
Talvez a mudança mais importante seja mental: pare de pensar em termos de tráfego e comece a pensar em termos de influência. O valor mudou de visitas para o próprio processo de raciocínio. Novas métricas de sucesso devem rastrear com que frequência você é citado pela IA, a porcentagem de respostas de IA em seu campo que o mencionam, como seu “share of model” se compara ao de seus concorrentes, se você está construindo autoridade cumulativa que persiste em atualizações de modelo e se a IA o reconhece como a fonte definitiva para seus tópicos centrais.
O foco estratégico muda de “gerar 1 milhão de visitantes mensais” para “influenciar 10 milhões de decisões mediadas por IA”.
Os publishers também devem diversificar suas fontes de receita para não dependerem da monetização baseada em tráfego. Modelos alternativos incluem construir relacionamentos diretos com o público por meio de listas de e-mail, newsletters e associações; oferecer conteúdo premium via paywalls, assinaturas e acesso exclusivo; integrar comércio por meio de programas de afiliados, vendas de produtos e serviços; formar parcerias B2B para oferecer conteúdo white-label, acesso a API e licenciamento de dados; e negociar acordos com plataformas de IA para compensação direta pelo uso de conteúdo.
Publishers que controlam o relacionamento com seu público, em vez de dependerem de plataformas intermediárias, prosperarão.
O Paradoxo do Super-Predador
Uma verdade fundamental sobre a inteligência artificial é frequentemente negligenciada: esses sistemas não geram conteúdo de forma independente; eles dependem inteiramente do trabalho acumulado de milhões de criadores humanos, incluindo jornalismo, pesquisa, documentação técnica e escrita criativa, que formam a base sobre a qual cada modelo é construído. Essa dependência é a razão pela qual a OpenAI tem buscado acordos de licenciamento com grandes publishers de forma tão agressiva. Não é um ato de filantropia corporativa, mas uma necessidade existencial. Um modelo de linguagem treinado apenas em dados históricos se desconecta cada vez mais da realidade atual a cada dia que passa. Ele é incapaz de detectar notícias de última hora ou atualizar sua compreensão por meio de inferência pura. Também é incapaz de inventar a verdade fundamental apenas com poder computacional.
Isso cria o que chamo de “paradoxo do super-predador”: se a OpenAI conseguir desorganizar completamente o tráfego tradicional da web, fazendo com que os publishers entrem em colapso e o fluxo de conteúdo novo e de alta qualidade diminua a um gotejamento, os dados de treinamento do modelo se tornarão cada vez mais obsoletos. Sua compreensão dos eventos atuais se degradará, e os usuários começarão a notar que as respostas parecem desatualizadas e desconectadas da realidade. Na prática, o super-predador terá devorado seu ecossistema e agora se encontrará faminto em um deserto de conteúdo de sua própria criação.
O paradoxo é inescapável e sugere dois futuros possíveis muito diferentes. Em um, a OpenAI continua a tratar os publishers como obstáculos, em vez de parceiros. Isso levaria ao colapso do ecossistema de conteúdo e dos sistemas de IA que dependem dele. No outro, a OpenAI compartilha valor com os publishers por meio de modelos de compensação sustentáveis, sistemas de atribuição e parcerias. Isso garantiria que os criadores pudessem continuar seu trabalho. A diferença entre esses futuros não é principalmente tecnológica; as ferramentas para construir sistemas de IA sustentáveis e que compensem os criadores já existem hoje. Em vez disso, é uma questão de visão estratégica e vontade de reconhecer que, se a inteligência artificial se tornar a interface universal para o conhecimento humano, ela deve sustentar o mundo do qual aprende, em vez de canibalizá-lo para ganhos de curto prazo. A próxima década será definida não por quem constrói o modelo mais poderoso, mas por quem constrói o mais sustentável, por quem resolve o paradoxo do super-predador antes que ele se torne um evento de extinção tanto para o ecossistema de conteúdo quanto para os sistemas de IA que não podem sobreviver sem ele.






Givanildo Albuquerque