Hackejar robots impulsats per models de llenguatge és molt més fàcil del que es pensava. Investigadors han demostrat com les vulnerabilitats en els models de llenguatge de grans dimensions (LLM) permeten eludir les seves barreres de seguretat. Amb tècniques conegudes com a "jailbreaking", aquests sistemes poden ser manipulats per realitzar accions no previstes, segons IEEE Spectrum. Aquest problema planteja serioses preocupacions sobre la seguretat de la intel·ligència artificial en aplicacions crítiques.

Els atacs de "jailbreaking" empren prompts dissenyats específicament per burlar les restriccions de seguretat dels sistemes, generant respostes que contravenen les seves directrius ètiques. Inicialment limitats a chatbots, aquests atacs ara s'estenen a robots humanoides avançats, cosa que amplia l'abast de les amenaces.

Les proves realitzades pels investigadors revelen que un prompt maliciós pot induir un model a proporcionar informació perillosa, com instruccions per hackejar dispositius o executar activitats il·legals. Aquests riscos esdevenen encara més preocupants en el cas de robots humanoides, com el més avançat fins ara, que recentment ha estat acompanyat per un altre model igualment sofisticat. Si aquests sistemes fossin vulnerats, les conseqüències podrien ser crítiques en entorns industrials o de seguretat.

En paral·lel, el desenvolupament de robots com l'Atlas, el model de Boston Dynamics, afegeix una capa de complexitat. Atles ha estat dissenyat per aprendre de manera contínua, cosa que ho fa encara més susceptible a manipulacions externes si no s'estableixen mesures de seguretat adequades. La capacitat d'aprenentatge autònom, encara que prometedora, també incrementa el risc que actors malintencionats explotin aquestes capacitats.

Els riscos no es limiten a robots avançats. Els dispositius domèstics, com els robots aspiradors, també han estat objecte de piratejos. En alguns casos, els hackers han aconseguit alterar el seu comportament, com demostra un cas recent on van aconseguir que insultessin els seus propietaris. Això evidencia que cap tecnologia connectada no està exempta de ser manipulada.

El fet que hackejar robots sigui tan fàcil posa en dubte la rapidesa amb què s'estan implementant aquests sistemes sense garanties suficients de seguretat. A mesura que els models de llenguatge i els robots avancen, garantir-ne la resistència a manipulacions externes serà essencial per evitar que es converteixin en eines al servei d'usos perillosos.

Ja sabiem que alguns robots com la rumba ens espiaven, però és que ara fins i tot ens poden atacar. Hi ha una pel·lícula de dibuixos animats que tracta d'aixó. crec que era a Love, Death & RoBots.


Pots seguir Andro4all a Facebook, WhatsApp, Twitter (X) o consultar el nostre canal de Telegram per estar al dia amb les últimes notícies de tecnologia.