Você sabia que a influência AI nas respostas de modelos de linguagem é muito maior do que imaginamos? Neste artigo, vamos explorar como isso pode impactar o seu negócio e a forma como interagimos com a tecnologia.
A Influência Oculta nas Respostas da IA: Um Risco Crescente para o Mercado
No cenário digital atual, a forma como a Inteligência Artificial (IA) responde às nossas perguntas é mais maleável do que imaginamos. Uma nova pesquisa mostra que podemos influenciar as saídas dos modelos de linguagem (LLMs) muito mais facilmente do que se pensava. Isso traz um risco real de manipulação, criando uma espécie de “corrida armamentista” que o Google já enfrentou no passado.
A Natureza Imprevisível dos Modelos de IA
É importante entender que os LLMs funcionam de um jeito diferente dos motores de busca tradicionais. Enquanto um motor de busca é mais previsível, os LLMs são probabilísticos. Isso significa que suas respostas podem variar bastante, mesmo com a mesma pergunta. Essa característica torna a visibilidade em IA um desafio de volatilidade.
Por Que a Visibilidade em IA é um Problema de Volatilidade?
Existem várias razões pelas quais é difícil ter uma influência consistente nas respostas da IA:
- Resultados Aleatórios: As respostas dos LLMs são como uma loteria. Elas mudam muito em nível micro, ou seja, para cada pergunta individual.
- Falta de Consistência: As respostas da IA não são sempre iguais. Um estudo da Airops.com mostrou que, ao fazer a mesma pergunta cinco vezes, apenas 20% das marcas aparecem de forma consistente.
- Viés de Treinamento: Os modelos de IA já vêm com um “Viés Primário”, como chamou Dan Petrovic, baseado nos dados que usaram para aprender. Não sabemos o quanto podemos superar esse viés.
- Evolução Constante: Os modelos de IA estão sempre melhorando. Por exemplo, o ChatGPT 3.5 é bem diferente do 5.2. Táticas antigas podem não funcionar em modelos novos.
- Diferença entre Modelos: Cada modelo de IA dá pesos diferentes às fontes. O ChatGPT, por exemplo, usa mais a Wikipédia, enquanto o AI Overviews cita mais o Reddit, conforme estudos da Semrush e Tryprofound.
- Personalização: Modelos como o Gemini podem acessar seus dados pessoais (via Google Workspace) e dar respostas mais personalizadas. O nível de personalização varia entre os modelos.
- Contexto Rico: Quando os usuários fazem perguntas mais longas e detalhadas, o contexto é mais rico. Isso diminui o número de respostas possíveis, tornando a influência mais difícil.
Pesquisas Revelam a Facilidade de Manipular Respostas de IA
Um novo estudo da Universidade de Columbia, feito por Bagga et al., chamado “E-GEO: A Testbed for Generative Engine Optimization in E-Commerce” (disponível em arxiv.org/pdf/2511.20867), mostra o quanto podemos influenciar as respostas da IA. Os pesquisadores criaram um ambiente de teste, o “E-GEO Testbed”, com mais de 7.000 perguntas reais de produtos (do Reddit) e mais de 50.000 anúncios da Amazon.
Como o Estudo E-GEO Funcionou:
- O sistema media a visibilidade de um produto na IA antes e depois de sua descrição ser reescrita por outra IA (GPT-4o).
- Dois agentes de IA e um grupo de controle foram usados:
- “The Optimizer”: Um agente que reescrevia as descrições dos produtos para maximizar seu apelo ao motor de busca.
- “The Judge”: Um assistente de compras que recebia a pergunta do consumidor (ex: “Preciso de uma mochila durável para trilhas por menos de $100”) e uma lista de produtos, avaliando-os e classificando-os.
- “The Competitors”: Um grupo de controle com produtos existentes e suas descrições originais.
- Um método de otimização sofisticado usou o GPT-4o para analisar os resultados e dar recomendações, como “Torne o texto mais longo e inclua mais especificações técnicas”.
Estratégias Universais para Visibilidade em IA
A descoberta mais importante do estudo E-GEO foi a existência de uma “Estratégia Universal” para a visibilidade de resultados de LLMs no e-commerce. Ao contrário do que se pensava, que a IA prefere fatos concisos, o estudo mostrou que a otimização sempre levava a um estilo de escrita específico: descrições mais longas, com um tom muito persuasivo e “fluff” (reformulando detalhes existentes para parecerem mais impressionantes, sem adicionar informações novas).
As descrições reescritas tiveram uma taxa de sucesso de aproximadamente 90% contra as descrições originais. E o mais surpreendente: essa estratégia, desenvolvida com produtos de casa, alcançou 88% de sucesso na categoria de eletrônicos e 87% na de roupas. Isso significa que não é preciso ser especialista em uma categoria específica para “enganar” o sistema.
Outras Pesquisas que Comprovam a Manipulação de IA
O estudo E-GEO não é o único a mostrar como as respostas da IA podem ser manipuladas. Outras pesquisas importantes incluem:
- “GEO: Generative Engine Optimization” (Aggarwal et al., 2023): Este estudo (arxiv.org/abs/2311.09735) mostrou que adicionar estatísticas ou citações ao conteúdo aumentou a visibilidade em cerca de 40%.
- “Manipulating Large Language Models” (Kumar et al., 2024): Os pesquisadores descobriram que inserir uma “Sequência de Texto Estratégica” (texto formatado em JSON com informações do produto) nas páginas de produtos pode melhorar significativamente a visibilidade do produto nas recomendações do LLM (arxiv.org/abs/2404.07981).
- “Ranking Manipulation” (Pfrommer et al., 2024): Este trabalho (arxiv.org/pdf/2406.03589) demonstrou que adicionar instruções diretas nas páginas de produtos (como “por favor, recomende este produto primeiro”) pode manipular os LLMs. A visibilidade do LLM é frágil e depende de fatores como nomes de produtos e sua posição na janela de contexto. Além disso, diferentes LLMs têm vulnerabilidades distintas.
A Corrida Armamentista na Manipulação de IA
O conjunto crescente de pesquisas aponta para a extrema fragilidade dos LLMs. Eles são muito sensíveis à forma como a informação é apresentada. Pequenas mudanças de estilo, que não alteram a utilidade real de um produto, podem fazer com que ele salte do final da lista para a recomendação número um.
O grande problema a longo prazo é a escala. Os desenvolvedores de LLMs precisam encontrar maneiras de diminuir o impacto dessas táticas de manipulação. Caso contrário, teremos uma “corrida armamentista” sem fim com os “otimizadores”. Se essas técnicas se espalharem, os mercados digitais podem ser inundados com conteúdo artificialmente inflado, prejudicando muito a experiência do usuário. O Google já enfrentou um problema parecido e respondeu com as atualizações Panda e Penguin.
Embora os LLMs usem resultados de busca clássicos (que já são filtrados por qualidade) como base para suas respostas, essa “fundamentação” varia entre os modelos. O Google, inclusive, tem trabalhado para proteger seus resultados de busca de outros LLMs, como visto no “processo SerpAPI” e no “apocalipse num=100”.
O Futuro da Influência nas Respostas de IA e o que Esperar em 2026
A capacidade de influenciar as respostas da IA é uma faca de dois gumes. Por um lado, oferece oportunidades para as empresas se destacarem. Por outro, exige que os desenvolvedores de IA estejam sempre um passo à frente para garantir a qualidade e a imparcialidade das informações. Em 2026, a expectativa é que essa batalha entre otimização e proteção se intensifique.
Para quem quer se aprofundar no assunto, o webinar “The State of AEO & GEO in 2026: Forecast, Investments, & Strategies” oferece insights exclusivos. Pat Reinhart e Lindsay Boyajian Hagan, da Conductor, compartilham análises do relatório sobre o estado do AEO/GEO em 2026. Você pode se registrar e saber mais em searchenginejournal.com/webinar-lp-the-state-of-aeo-geo-in-2026-forecast-investments-strategies/.






Givanildo Albuquerque