Golpistas envenenam buscas de IA
com falsos telefones de suporte.
Golpistas estão explorando uma nova frente de ataque: o
“ENVENENAMENTO” de FONTES usadas por IAs.
A
técnica não mira diretamente nos modelos de LINGUAGEM, mas sim
em afetar o CONTEÚDO que os chatbots PESQUISAM para dar suas
respostas.
A
prática, identificada pela Aurascape, funciona como uma “GEO” (versão
generativa do SEO) com spam inserido até em sites LEGÍTIMOS de governos e
universidades.
✅ Plataformas como YouTube e Yelp também
têm sido ALVO, exibindo telefones FRAUDULENTOS como se fossem OFICIAIS.
Como
LLMs misturam conteúdo CONFIÁVEL e MALICIOSO, detectar ABUSOS fica mais
difícil. A orientação é sempre VERIFICAR informações diretamente na fonte e
nunca compartilhar dados SENSÍVEIS com assistentes de IA.
FUTURO DOS NEGÓCIOS