Entre o artigo que está a ler e o anúncio ao lado, está a ocorrer uma guerra silenciosa pelos seus olhos. A maioria dos anúncios em exibição perde atenção porque as pessoas simplesmente odeiam anúncios—tanto que grandes empresas tecnológicas como a Perplexity ou a Anthropic estão a tentar afastar-se dessas cargas invasivas, procurando modelos de monetização melhores. Mas uma nova ferramenta de IA, desenvolvida por investigadores da Universidade de Maryland e da Universidade de Tilburg, quer mudar isso—prevendo, com uma precisão inquietante, se você realmente vai olhar para um anúncio antes que alguém se dê ao trabalho de colocá-lo lá. A ferramenta chama-se AdGazer, e funciona analisando tanto o próprio anúncio quanto o conteúdo da página web que o rodeia—depois prevê quanto tempo um visualizador típico irá fixar o olhar no anúncio e no logótipo da marca, com base em dados históricos extensos de pesquisa em publicidade.
A equipa treinou o sistema com dados de rastreamento ocular de 3.531 anúncios digitais. Pessoas reais usaram equipamentos de rastreamento ocular, navegaram por páginas, e os seus padrões de olhar foram registados. O AdGazer aprendeu com tudo isso. Quando testado em anúncios que nunca tinha visto antes, previu a atenção com uma correlação de 0,83—o que significa que as suas previsões correspondiam aos padrões reais de olhar humano cerca de 83% das vezes. Ao contrário de outras ferramentas que se focam apenas no anúncio, o AdGazer analisa toda a página ao seu redor. Um artigo de notícias financeiras ao lado de um anúncio de relógio de luxo tem um desempenho diferente daquele mesmo anúncio de relógio ao lado de um ticker de resultados desportivos. O contexto circundante, de acordo com o estudo publicado no Journal of Marketing, representa pelo menos 33% da atenção que um anúncio recebe—e cerca de 20% do tempo que os visualizadores olham especificamente para a marca. Isto é importante para os profissionais de marketing, que há muito assumiam que a criatividade era responsável por toda a atenção.
O sistema usa um modelo de linguagem multimodal de grande escala para extrair tópicos de alto nível tanto do anúncio quanto do conteúdo da página, e depois avalia quão bem eles correspondem semanticamente—basicamente, o anúncio em si versus o contexto em que está inserido. Essas representações de tópicos alimentam um modelo XGBoost, que combina esses dados com características visuais de nível inferior para produzir uma pontuação final de atenção. Os investigadores também criaram uma interface, Gazer 1.0, onde pode carregar o seu próprio anúncio, desenhar caixas delimitadoras ao redor da marca e elementos visuais, e obter um tempo de olhar previsto em segundos—junto com um mapa de calor que mostra quais partes da imagem o modelo acha que vão atrair mais atenção. Funciona sem necessidade de hardware especializado, embora a correspondência de tópicos alimentada por LLM ainda exija um ambiente GPU, que ainda não está integrado na demonstração pública. Por agora, é uma ferramenta académica. Mas a arquitetura já está lá. A diferença entre uma demonstração de pesquisa e um produto de tecnologia publicitária de produção mede-se em meses—não anos.