Os pesquisadores de segurança cibernética descobriram vulnerabilidades críticas no chatbot de suporte ao cliente da Lenovo, que poderia permitir que os invasores executem scripts maliciosos em sistemas corporativos e roubam dados de sessão sensível.
A descoberta destaca lacunas de segurança significativas nas implementações da IA corporativa e levanta preocupações sobre a rápida implantação de sistemas de IA sem controles de segurança adequados.
Os pesquisadores da CyberNews identificaram várias falhas de segurança que afetam a implementação de “Lena” da Lenovo, um chatbot de AI alimentado pela tecnologia GPT-4 da Openai.
As vulnerabilidades permitem scripts entre sites (XSS) Ataques que podem comprometer as plataformas de suporte ao cliente e potencialmente fornecer acesso não autorizado a sistemas corporativos.
A cadeia de ataques começa com um aviso aparentemente inocente de 400 caracteres que explora a natureza “agradando as pessoas” do chatbot para gerar respostas maliciosas em HTML.
Depois de executado, o ataque pode roubar cookies de sessão ativa de clientes e agentes de suporte, potencialmente concedendo aos atacantes acesso não autorizado à infraestrutura de suporte ao cliente da Lenovo.
A exploração utiliza várias fraquezas de segurança, incluindo higienização inadequada de entrada, validação inadequada de saída e verificação insuficiente de conteúdo por servidores da Web.
Os pesquisadores demonstraram como um único prompt criado poderia enganar o chatbot a gerar código HTML contendo javascript malicioso que executa quando os agentes de suporte veem a conversa.
O ataque se desenrola em vários estágios: o chatbot aceita instruções maliciosas disfarçadas de consultas legítimas de produtos, gera respostas de HTML contendo código de exploração, armazenam o conteúdo malicioso no histórico de conversas e desencadeia a execução da carga útil quando os agentes de suporte acessarem o bate -papo.
Este processo pode resultar em seqüestro de sessão, roubo de dadose potencial movimento lateral nas redes corporativas.
Além do roubo de biscoitos, a vulnerabilidade pode permitir ataques mais sofisticados, incluindo keylogging, manipulação de interface, redirecionamentos de phishing e exfiltração de dados.
Especialistas em segurança alertam que a falha demonstra como os sistemas de IA sem corrimão adequados podem se tornar vetores de ataque, enfatizando que os grandes modelos de linguagem não têm instintos de segurança e executarão instruções conforme fornecido.
A Lenovo reconheceu a vulnerabilidade e implementou medidas de proteção após a divulgação responsável pelos pesquisadores.
Os profissionais de segurança recomendam o tratamento de todas as saídas de chatbot como potencialmente maliciosas e implementando protocolos rígidos de sinalização de entrada/saída.
O incidente ressalta a necessidade de estruturas abrangentes de segurança de IA, incluindo validação estrita de conteúdo, implementação robusta de política de segurança de conteúdo e controles de acesso ao privilégio mínimo para sistemas movidos a IA.
À medida que as organizações implantam rapidamente as tecnologias de IA, essa descoberta serve como um lembrete crítico de que as medidas de segurança devem evoluir juntamente com a inovação para evitar violações potencialmente devastadoras.
Encontre esta notícia interessante! Siga -nosGoogle NewsAssim,LinkedIneXPara obter atualizações instantâneas!