Año 1984: se estrena en cines la película Terminator. El villano de la película era un autómata humanoide con la cara de Arnold Schwarzenegger que, sin embargo, no pasaba de ser un títere de un peligroso ente informático llamado Skynet. Este programa de toma de decisiones desarrollado por la defensa norteamericana evolucionaba independientemente de manera que, en un distópico 1997, tomaba consciencia de sí mismo y decidía que la humanidad era una amenaza para su propia existencia, desencandenando el exterminio de humanos y una guerra que enfrentaba a las máquinas con sus creadores.
Años después, lejos de haberse diluído esta fantasía, como ocurre con muchas obras de ciencia ficción que no dejan de ser una visión muy imaginativa de lo que aguarda en el futuro, la idea de los autómatas con capacidad para tomar sus propias decisiones está cercana a cumplirse, y genera muchas suspicacias dentro comunidad científica. Si bien es cierto que muchas empresas de robótica desarrollan sus programas tecnológicos hacia misiones como el salvamento de vidas humanas, como el robot Atlas de Boston Dynamics, pensado para sustituir a los bomberos, otras muchas tienen puesta su mirada en la aplicación que los robots pueden tener en las guerras. Conociéndose ya el hecho de que dentro de muy poco tiempo la ciencia dispondrá de la tecnología para desarrollar armas autónomas, hay colectivos que llevan un tiempo anticipándose al posible uso bélico de este tipo de máquinas.
En 2013 en Londres se desarrolló una activa campaña contra lo que dieron en llamar “robots asesinos”, y este mismo año en el mes de abril la ONU convocó un encuentro internacional en el que se abrió el debate sobre la conveniencia de usar robots en vez de personas en programas bélicos. En él, muchos investigadores expresaron su desaprovación y hablaron en favor de la prohibición de crear este tipo de máquinas. Esta semana está teniendo lugar en Buenos Aires la Conferencia Internacional de Inteligencia Artificial, donde personalidades como Stepheh Hawking o el co-creador de Apple, Steve Wozniak, entre un millar de expertos han firmado una carta en contra del desarrollo de robots que no precisen de intervención humana para su funcionamiento.
A favor de este tipo de tecnología está el hecho de que la utilización de máquinas reduciría las bajas humanas. Sin embargo, la toma de decisiones de los robots carece, según los expertos, de filtros éticos, y en caso de programarlos es muy difícil cambiarlos. A la vez habría que preguntarse, en caso de que una baja fuese causada por un autómata, de quién es la responsabilidad última: de la máquina o de su creador.
Y aunque todavía no existen robots que puedan desarrollar una consciencia propia, como Skynet, ya hay máquinas que se están acercando a resolver este dilema: en un estudio llevado a cabo en un laboratorio de robótica de Nueva York, un robot Nao superó la semana pasada una prueba en la que consiguió emular una consciencia humana. El debate, como en tantas otras cosas, consiste en decidir dónde debemos marcar el límite.
Fuente: Toigo Radio (blog)