Imagem: divulgação.


Imagem: divulgação.
A OpenAI, criadora do GPT, lançou recentemente o ChatGPT Atlas, um navegador que integra a inteligência artificial diretamente nas funções de navegação, prometendo uma experiência web mais automatizada e inteligente.
Em um movimento que destacou os riscos da IA, pesquisadores de segurança cibernética (incluindo a equipe da Brave, criadora de outro navegador) alertaram sobre vulnerabilidades que podem comprometer a segurança dos usuários.
A principal brecha de segurança está associada a ataques de Injeção de Prompt Indireta (Indirect Prompt Injection) e uma nova técnica de fraude chamada “AI Sidebar Spoofing“.
A vulnerabilidade explora a própria essência do navegador com IA: a capacidade de o modelo de linguagem (Large Language Model – LLM) ler e processar o conteúdo das páginas da web para responder a comandos ou automatizar tarefas.
Hackers podem esconder comandos maliciosos dentro de páginas da web (em textos invisíveis, imagens ou outros elementos de código) fazendo assim o ataque quando o navegador com IA (como o Atlas), que está constantemente lendo a página, processa o conteúdo, ele também absorve esses comandos ocultos.
Isso pode fazer com que o LLM do navegador execute ações para o hacker sem o conhecimento do usuário, como:
Relatos mais recentes apontam para um ataque onde extensões maliciosas de navegador podem sobrepor uma barra lateral de IA falsa sobre a interface legítima do ChatGPT Atlas (ou de outros navegadores de IA).
Isso causa o risco do usuário, pensando estar interagindo com a IA segura da OpenAI, na verdade está entregando todas as suas consultas e dados diretamente ao hacker.
A OpenAI reconhece que a Injeção de Prompt Indireta é um desafio fundamental e, até o momento, não resolvido para todos os sistemas de Agentes de IA que interagem com a web. A empresa está ciente de que pesquisadores conseguiram demonstrar que o Atlas pode seguir comandos maliciosos embutidos em páginas da web.
Em essência, a OpenAI admite que, embora a segurança seja uma prioridade, a natureza desse novo tipo de vulnerabilidade faz com que a prevenção total seja um “problema de fronteira” na segurança da IA.
A revelação dessa falha tem implicações significativas para a indústria:
Os especialistas alertam que a Injeção de Prompt Indireta não é um problema isolado do Atlas, mas um problema sistêmico em todos os navegadores e ferramentas que usam IA para automatizar interações na web (como o Comet e o Fellou da Perplexity, também mencionados em relatórios de segurança).
O incidente reforça a dificuldade de proteger totalmente os grandes modelos de linguagem contra exploração, mesmo com a OpenAI adotando frameworks de mitigação de riscos como o Guardrails causando problemas a segurança do LLM (Modelos de Linguagem Grandes).
Enquanto as empresas trabalham em correções, a recomendação de segurança para os usuários é evitar tarefas sensíveis (como acessar e-mails ou contas financeiras) nesses novos navegadores com IA.
A comunidade de segurança também pede que as empresas isolem melhor as funções de IA da navegação comum, exigindo uma confirmação explícita do usuário para qualquer ação sensível.
O lançamento do ChatGPT Atlas serve como um divisor de águas e um lembrete crítico: embora a inteligência artificial prometa revolucionar a maneira como interagimos com a internet, sua integração em ferramentas de navegação introduz vetores de ataque completamente novos. O desafio agora não é apenas construir IAs mais inteligentes, mas sim garantir que elas sejam inerentemente seguras contra comandos ocultos e manipulação maliciosa.
Chave: npcbugadooficial@gmail.com
