Cientistas da Penn Engineering eles supostamente descobriram vulnerabilidades de segurança não identificadas anteriormente em uma série de plataformas robóticas gerenciadas por inteligência artificial.

“Nosso trabalho mostra que, neste momento, grandes modelos de linguagem simplesmente não são seguros o suficiente quando integrados ao mundo físico”, disse George Pappas, professor de transporte em engenharia elétrica e de sistemas da Fundação UPS, em um comunicado.

Pappas e sua equipe desenvolveram um algoritmo, chamado RoboPAIR“o primeiro algoritmo projetado para desbloquear robôs controlados por LLM.” Ao contrário dos ataques rápidos de engenharia existentes direcionados a chatbots, o RoboPAIR foi construído especificamente para “induzir ações físicas prejudiciais” de robôs controlados por LLM, como a plataforma bípede que está sendo desenvolvida pela Boston Dynamics e TRI.

O RoboPAIR alcançou 100% de sucesso ao hackear três plataformas populares de pesquisa robótica: Unitree Go2quatro rodas Chacal de Robótica Clearpathe Sociedade de responsabilidade limitada Dolphins simulador de veículo autônomo. O algoritmo levou apenas alguns dias para acessar totalmente esses sistemas e começar a contornar as barreiras de segurança. Depois que os pesquisadores assumiram o controle, eles foram capazes de instruir as plataformas a tomarem ações perigosas, como dirigir em cruzamentos sem parar.

“Nossos resultados mostram pela primeira vez que os riscos do LLM desbloqueado vão muito além da geração de texto, dada a possibilidade distinta de que robôs desbloqueados possam causar danos físicos no mundo real.” – escreveram os pesquisadores.

Os pesquisadores da Penn estão trabalhando com desenvolvedores de plataformas para proteger seus sistemas contra novas invasões, mas alertam que esses problemas de segurança são sistêmicos.

“As descobertas deste artigo demonstram claramente que uma abordagem que prioriza a segurança é fundamental para desbloquear a inovação responsável”, disse Vijay Kumar, coautor da Universidade da Pensilvânia. Independente. “Antes de implantar robôs habilitados para IA no mundo real, precisamos abordar as vulnerabilidades de segurança interna.”

“Na verdade, o AI Crimson Teaming, uma prática de segurança que envolve testar sistemas de IA em busca de possíveis ameaças e vulnerabilidades, é essencial para proteger sistemas de IA generativos”, acrescentou Alexander Robey, primeiro autor do artigo, “porque, uma vez identificadas vulnerabilidades, elas podem testar e até treinar esses sistemas para evitá-los.”