Robots colaborativos podrían manipularse para atacar personas
A través de los ficheros de seguridad, sería posible alterar el normal funcionamiento de estas máquinas con el objetivo de dañar físicamente a los seres humanos.
Investigadores de la compañía estadounidense IOActive publicaron un estudio en el que aseguraron haber encontardo al menos 50 vulnerabilidades en diversos modelos de robots colaborativos, que si llegaran a ser explotados por cibercriminales, podrían utilizarse para atacar a personas.
Los robots colaborativos forman parte de una nueva generación de androides que realizan más de una función, destacando las de asistir de forma autónoma a seres humanos. Sin embargo, el estudio reveló deficiencias preocupantes en estos sistemas de protección.
IOActive considera que las deficiencias de seguridad son de nivel crítico, ya que mediante la utilización de un malware de tipo exploit, es posible conseguir que los robots no respeten los protocolos de resguardo y realicen movimientos violentos que podrían agredir a los seres humanos.
>> Ejército indio usa robots para combatir violencia en Cachemira
El estudio analiza varios tipos de robots, como los de la empresa Baxter/Sawyer y Universal Robots, en especial los modelos UR3, UR5 y UR10, fabricados por esta última, y que son factibles de ser hackeados mediante la modificación de sus ficheros de seguridad, de manera que funcionen de forma anormal y puedan dañar físicamente a las personas.
>> Robot capta imágenes internas del reactor 3 de Fukushima
Más de cien científicos y expertos en inteligencia artificial enviaron una carta a la Organización de las Naciones Unidas (ONU) para advertir el peligro que supone el uso de estas máquinas como armas autónomas.
La misiva alerta que los robots armados podrían ser hackeados para realizar actos indeseables, como ser usados por déspotas y/o terroristas contra la población civil.