AI shopping

Amazon x Perplexity: agente ou invasor? O que essa briga revela sobre o futuro do “AI shopping”

Na última semana, a Amazon enviou uma notificação legal à Perplexity exigindo que o agente do navegador Comet pare de agir dentro do Amazon Store sem se identificar como agente e sem autorização explícita. Segundo a Amazon, a Perplexity teria mascarado o agente como se fosse o Google Chrome, contornado bloqueios e operado em contas de usuários — comportamento que violaria as Condições de Uso e leis como o CFAA (EUA) e o CDAFA (Califórnia). A Perplexity respondeu publicamente com o post “Bullying is Not Innovation”, acusando a gigante de “intimidação” para barrar inovação e restringir a escolha do consumidor.

Por que essa briga importa? Porque inaugura, de forma pública, a próxima batalha da economia digital: quem vai mediar a decisão de compra quando uma IA executa a jornada por nós — pesquisando, comparando preços e, no limite, apertando “comprar”? Esse conflito já está sendo colocado na imprensa como um marco da “era dos agentes” na web.

O ponto de vista da Amazon

A narrativa da Amazon tem três pilares.

  1. Transparência operacional. Agentes que tomam ações “em nome do cliente” devem se identificar como tais e seguir regras específicas da plataforma. Sem isso, a empresa não consegue monitorar abusos, manter a experiência e garantir segurança.
  2. Qualidade da experiência. A Amazon diz que investiu anos e bilhões para orquestrar preço, prazo, avaliações, histórico e opções como “adicionar à entrega existente”. Um agente externo pode ignorar nuances que impactam custo total, conveniência e satisfação (inclusive devoluções quando a compra é “terceirizada”).
  3. Segurança e responsabilidade. Sem identificar o agente, a plataforma não aplica defesas de forma eficaz nem audita vulnerabilidades. A discussão pública já citou riscos como prompt injection e phishing associados a agentes de navegação.

No fundo, a Amazon está dizendo: “Quer operar aqui? Jogue pelo nosso livro de regras, de forma transparente, ou pare.” É a lógica de qualquer marketplace que precisa padronizar experiências, minimizar fraudes e gerenciar risco sistêmico.

O ponto de vista da Perplexity

O contra-ataque da Perplexity é direto e potente na comunicação: “bullying.” A tese: o agente do Comet age sob orientação do usuário e, portanto, teria “os mesmos poderes” que o humano ao navegar e comprar. Se o usuário prefere delegar à sua IA, negar esse uso seria tolher a escolha do consumidor. A empresa também sugere que a resistência da Amazon protegeria mais um modelo de negócios baseado em anúncios e controle de recomendação do que a experiência do cliente.

Na prática, a Perplexity tenta reposicionar a briga: não é sobre “burlar regras”, é sobre uma plataforma dominante impedindo uma camada de inovação que facilitaria a vida do usuário (pesquisar, comparar e fechar a compra com um clique), supostamente gerando até mais vendas.

Quem está “certo”?

Em mercados digitais, “estar certo” costuma exigir respostas em três dimensões.

  1. Legal/compliance. Se a Amazon comprovar acesso não autorizado, mascarando o agente, burlar bloqueios e impacto operacional, há jurisprudência relevante do lado dela. Por outro lado, o argumento “o agente age com o mesmo consentimento do usuário” é novo e ainda pouco testado — e certamente será um dos temas quentes de agora em diante: o que significa “autorização” quando quem executa é uma IA? (Leitura de conjuntura baseada na cobertura e nos posicionamentos públicos de ambas as partes.)
  2. Experiência do cliente. Um super agente pode, sim, simplificar a vida — especialmente para compras repetitivas ou técnicas. Mas “o melhor para o usuário” não é trivial: personalização fina, logística integrada, políticas de devolução, bundles e programas de fidelidade são camadas que um agente externo pode não capturar bem (ou pode capturar melhor, dependendo do nível de integração e das APIs expostas).
  3. Estratégia de plataforma. Plataformas vivem de regras. Abrir espaço para agentes de terceiros exige padrões claros de identificação, limites de ação, responsabilidade por falhas e auditoria. Isso não é anti-inovação; é governança. Em paralelo, é verdade que toda plataforma dominante tem incentivos para proteger sua margem e seu poder de recomendação. O equilíbrio entre esses interesses define o quanto a “inovação” chega ao usuário final.

O que vem pela frente

  • “Agent Terms” padronizados: identificação explícita do agente (user-agent), limite de escopo, audit logs, responsabilidades, APIs apropriadas e trilhas de consentimento do usuário.
  • APIs de checkout “agent-safe”: menos scraping e “navegação encenada”, mais integrações verificáveis.
  • Certificações de segurança para agentes: testes contra prompt injection, phishing e vazamento de credenciais antes de operar em plataformas críticas.
  • Debates regulatórios sobre “autorização delegada”: quando o usuário delega à IA, o que é “acesso legítimo”? Quem responde quando algo dá errado?
  • Guerra de distribuição: plataformas podem lançar agentes nativos; agentes independentes brigarão por interoperabilidade — e pelos dados que melhoram recomendação.

Nossa visão

  1. Inovação com trilhos. Agentes vão prosperar onde houver identificação clara, traceability, sandbox de permissões e APIs oficiais. “Mover rápido e quebrar coisas” não funciona quando a “coisa” é a confiança do cliente.
  2. Escolha do usuário importa — com responsabilidade explícita. Se um agente de terceiro promete conveniência, precisa aceitar também o ônus de segurança, suporte e accountability, sem terceirizar o risco ao usuário ou à plataforma.
  3. Para marcas e e-commerces: preparem-se para o “canal agente”. Documentem políticas, criem endpoints seguros e definam guidelines de UX para agentes. Quem fizer isso primeiro vai capturar valor sem sacrificar experiência.
  4. Para quem constrói agentes: tratem as plataformas como “infra crítica”. Evitem mascaramento; publiquem identidade de agente no user-agent; ofereçam audit logs; provem resiliência a ataques e demonstrem que realmente tem respeito às preferências do usuário.

No fim, não é “bullying” versus “inovação”. É inovação com responsabilidade versus inovação sem trilhos. E, como em (quase) toda boa transformação digital, vence quem combinar conveniência real com confiança verificável.