Imagem: divulgação.

npcbugado2025_tecnologia_atlas

Falha crítica no novo navegador com IA da OpenAI

Tecnologia
57

A OpenAI, criadora do GPT, lançou recentemente o ChatGPT Atlas, um navegador que integra a inteligência artificial diretamente nas funções de navegação, prometendo uma experiência web mais automatizada e inteligente.

Em um movimento que destacou os riscos da IA, pesquisadores de segurança cibernética (incluindo a equipe da Brave, criadora de outro navegador) alertaram sobre vulnerabilidades que podem comprometer a segurança dos usuários.

A Falha Crítica:

A principal brecha de segurança está associada a ataques de Injeção de Prompt Indireta (Indirect Prompt Injection) e uma nova técnica de fraude chamada “AI Sidebar Spoofing“.

Como a Falha Funciona e Quais São os Riscos

A vulnerabilidade explora a própria essência do navegador com IA: a capacidade de o modelo de linguagem (Large Language Model – LLM) ler e processar o conteúdo das páginas da web para responder a comandos ou automatizar tarefas.

A Ameaça de Injeção de Prompt Indireta

Hackers podem esconder comandos maliciosos dentro de páginas da web (em textos invisíveis, imagens ou outros elementos de código) fazendo assim o ataque quando o navegador com IA (como o Atlas), que está constantemente lendo a página, processa o conteúdo, ele também absorve esses comandos ocultos.

O Risco

Isso pode fazer com que o LLM do navegador execute ações para o hacker sem o conhecimento do usuário, como:

  • Comprometer arquivos locais;
  • Roubar senhas ou dados sensíveis;
  • Interagir com contas conectadas (e-mail, contas bancárias) para fins de phishing.

O Ataque de “AI Sidebar Spoofing”

Relatos mais recentes apontam para um ataque onde extensões maliciosas de navegador podem sobrepor uma barra lateral de IA falsa sobre a interface legítima do ChatGPT Atlas (ou de outros navegadores de IA).

Isso causa o risco do usuário, pensando estar interagindo com a IA segura da OpenAI, na verdade está entregando todas as suas consultas e dados diretamente ao hacker.

Reconhecimento do Risco Inerente

A OpenAI reconhece que a Injeção de Prompt Indireta é um desafio fundamental e, até o momento, não resolvido para todos os sistemas de Agentes de IA que interagem com a web. A empresa está ciente de que pesquisadores conseguiram demonstrar que o Atlas pode seguir comandos maliciosos embutidos em páginas da web.

Em essência, a OpenAI admite que, embora a segurança seja uma prioridade, a natureza desse novo tipo de vulnerabilidade faz com que a prevenção total seja um “problema de fronteira” na segurança da IA.

Implicações e Reações da Comunidade

A revelação dessa falha tem implicações significativas para a indústria:

Os especialistas alertam que a Injeção de Prompt Indireta não é um problema isolado do Atlas, mas um problema sistêmico em todos os navegadores e ferramentas que usam IA para automatizar interações na web (como o Comet e o Fellou da Perplexity, também mencionados em relatórios de segurança).

O incidente reforça a dificuldade de proteger totalmente os grandes modelos de linguagem contra exploração, mesmo com a OpenAI adotando frameworks de mitigação de riscos como o Guardrails causando problemas a segurança do LLM (Modelos de Linguagem Grandes).

Recomendações Imediatas

Enquanto as empresas trabalham em correções, a recomendação de segurança para os usuários é evitar tarefas sensíveis (como acessar e-mails ou contas financeiras) nesses novos navegadores com IA.

A comunidade de segurança também pede que as empresas isolem melhor as funções de IA da navegação comum, exigindo uma confirmação explícita do usuário para qualquer ação sensível.

O lançamento do ChatGPT Atlas serve como um divisor de águas e um lembrete crítico: embora a inteligência artificial prometa revolucionar a maneira como interagimos com a internet, sua integração em ferramentas de navegação introduz vetores de ataque completamente novos. O desafio agora não é apenas construir IAs mais inteligentes, mas sim garantir que elas sejam inerentemente seguras contra comandos ocultos e manipulação maliciosa.

Postado por:
Outras Matérias…

Apoie nosso projeto enviando um PIX!

Chave: npcbugadooficial@gmail.com