O agente de viagens perfeito existe. Trata de tudo, não se engana e nunca pede para “confirmar mais tarde”. Dizemos apenas quando e para onde queremos ir e, em segundos, temos voos, hotéis, itinerário, seguros e visitas guiadas organizados. Tudo fechado. Mas na verdade, para quem é que está este “agente” a trabalhar?
Hoje, usamos Inteligência Artificial (IA) como suporte. Pedimos ideias, sugestões, comparações. Amanhã - e esse amanhã está mais próximo do que parece - os agentes de IA vão actuar directamente nas plataformas de comércio online. Vão deixar de apenas sugerir para passar a decidir, executar e comprar.
Imaginemos uma situação banal. Abrimos uma plataforma de viagens e dizemos ao agente de IA: “Queremos ir ao Japão em abril”. A resposta surge como um pacote completo: voo, hotel em Tóquio, passes de comboio, duas visitas guiadas e um seguro de viagem. À primeira vista, tudo nos parece razoável. Seguimos em frente, clicamos em “Confirmar” e o dinheiro sai da conta.
O que não nos apercebemos é de que, a certa altura, a decisão deixou de ser inteiramente nossa. Talvez o voo aterre num aeroporto mais distante porque as taxas são mais baixas ou porque existe um acordo comercial mais vantajoso. Talvez o hotel reservado não seja o mais central, mas o que precisava mais de aumentar a ocupação. Talvez nem pensássemos em comprar seguro, mas apareça por defeito já incluído. Nada disto foi escondido. Apenas aparece como a opção natural.
Chamamos a isto “nudges”. Já convivemos com eles há muito tempo. A pastilha elástica na caixa do supermercado. As sugestões de “o que ver a seguir” nas plataformas de streaming. O seguro adicionado à compra de bilhetes de espetáculos (como se cada experiência cultural implicasse um internamento). Funcionam porque raramente dizemos não.
A diferença é que agora o processo deixa de ser passivo. O agente de IA não espera que estejamos distraídos. Decide por nós, de forma contínua e coerente. Mesmo quando reparamos que algo não era exactamente o que queríamos, por exemplo, aterrar em Tóquio em vez de Quioto, raramente nos damos ao trabalho de mudar. O plano já está feito. Desfazer e refazer dá trabalho. Aceitamos. Avançamos. Não é falta de informação. É conveniência e fadiga cognitiva.
Quem decide então o que é melhor para nós? Quem nos protege? Em primeira instância são os reguladores e legisladores, sendo que as respostas não são iguais em todo o lado. A legislação tenta acompanhar o ritmo frenético da tecnologia, mas enfrenta um problema estrutural: as plataformas são globais, as regras continuam a ser locais. Uma decisão tomada por um agente de IA é a mesma em Lisboa, Nova Iorque ou Tóquio, mas o enquadramento institucional muda de país para país. Na Europa, a protecção do consumidor e a regulação preventiva continuam a ser a regra. Nos Estados Unidos, a lógica é mais reactiva, resolvida em tribunal. Na Ásia, por exemplo, na China, o foco tende a ser o controlo.
Historicamente, quando as plataformas tomam decisões estruturais, muitas vezes contando com a nossa conformidade, adaptamo-nos sem grande resistência. Quando, por exemplo, a União Europeia exigiu à Meta que desse aos utilizadores uma escolha real sobre o uso dos seus dados, a resposta foi simples: quem não aceitasse a publicidade baseada em dados teria de pagar. A maioria de nós fez a escolha mais fácil: não pagou. E seguiu em frente.
Há, no entanto, uma diferença importante em relação ao passado. As agências de viagem tradicionais também tentavam vender-nos mais coisas. Seguros, upgrades, excursões extra. Mas faziam-no de forma clara. Percebíamos que alguém nos estava a tentar vender algo. Dizer “não” era mais fácil. Com agentes de IA, a venda deixa de parecer uma venda. Torna-se parte do plano. Invisível, optimizado e difícil de desfazer.
O “agente” é apresentado como um concierge pessoal. Sempre disponível e sempre eficaz. Mas todo o concierge trabalha para alguém. E, quase sempre, não somos nós.