A falha de Lenovo AI Chatbot permite a execução remota de scripts em sistemas corporativos

Os pesquisadores de segurança cibernética descobriram vulnerabilidades críticas no chatbot de suporte ao cliente da Lenovo, que poderia permitir que os invasores executem scripts maliciosos em sistemas corporativos e roubam dados de sessão sensível.

A descoberta destaca lacunas de segurança significativas nas implementações da IA corporativa e levanta preocupações sobre a rápida implantação de sistemas de IA sem controles de segurança adequados.

Os pesquisadores da CyberNews identificaram várias falhas de segurança que afetam a implementação de “Lena” da Lenovo, um chatbot de AI alimentado pela tecnologia GPT-4 da Openai.

As vulnerabilidades permitem scripts entre sites (XSS) Ataques que podem comprometer as plataformas de suporte ao cliente e potencialmente fornecer acesso não autorizado a sistemas corporativos.

A cadeia de ataques começa com um aviso aparentemente inocente de 400 caracteres que explora a natureza “agradando as pessoas” do chatbot para gerar respostas maliciosas em HTML.

Depois de executado, o ataque pode roubar cookies de sessão ativa de clientes e agentes de suporte, potencialmente concedendo aos atacantes acesso não autorizado à infraestrutura de suporte ao cliente da Lenovo.

A exploração utiliza várias fraquezas de segurança, incluindo higienização inadequada de entrada, validação inadequada de saída e verificação insuficiente de conteúdo por servidores da Web.

Os pesquisadores demonstraram como um único prompt criado poderia enganar o chatbot a gerar código HTML contendo javascript malicioso que executa quando os agentes de suporte veem a conversa.

O ataque se desenrola em vários estágios: o chatbot aceita instruções maliciosas disfarçadas de consultas legítimas de produtos, gera respostas de HTML contendo código de exploração, armazenam o conteúdo malicioso no histórico de conversas e desencadeia a execução da carga útil quando os agentes de suporte acessarem o bate -papo.

Este processo pode resultar em seqüestro de sessão, roubo de dadose potencial movimento lateral nas redes corporativas.

Além do roubo de biscoitos, a vulnerabilidade pode permitir ataques mais sofisticados, incluindo keylogging, manipulação de interface, redirecionamentos de phishing e exfiltração de dados.

Especialistas em segurança alertam que a falha demonstra como os sistemas de IA sem corrimão adequados podem se tornar vetores de ataque, enfatizando que os grandes modelos de linguagem não têm instintos de segurança e executarão instruções conforme fornecido.

A Lenovo reconheceu a vulnerabilidade e implementou medidas de proteção após a divulgação responsável pelos pesquisadores.

Os profissionais de segurança recomendam o tratamento de todas as saídas de chatbot como potencialmente maliciosas e implementando protocolos rígidos de sinalização de entrada/saída.

O incidente ressalta a necessidade de estruturas abrangentes de segurança de IA, incluindo validação estrita de conteúdo, implementação robusta de política de segurança de conteúdo e controles de acesso ao privilégio mínimo para sistemas movidos a IA.

À medida que as organizações implantam rapidamente as tecnologias de IA, essa descoberta serve como um lembrete crítico de que as medidas de segurança devem evoluir juntamente com a inovação para evitar violações potencialmente devastadoras.

Encontre esta notícia interessante! Siga -nosGoogle NewsAssim,LinkedIneXPara obter atualizações instantâneas!