El departamento de Defensa de EEUU está comenzando a tomarse en serio el tema de los robots futuristas que ya no son tan futuristas porque los tienes aquí al lado, ya casi conviviendo con el ser humano. Según parece ha comenzado a desarrollar un proyecto ideado para asegurarse de que los robots autónomos sean capaces de seguir unas normas básicas de moral y de ética, ya sabes, no hacer daño a seres humanos inocentes y todas aquellas conductas que hemos leído en libros de ciencia-ficción y en docenas de películas.
La idea es dotar de algún tipo de sistema que permita dividir las acciones de la máquina entre buenas y malas de forma automática sin que sea necesaria la actuación de un ser humano. De esta manera se podría delegar en sistemas informatizados la toma de decisiones críticas que producirían en milésimas de segundo, el tiempo mínimo imprescindible que necesitaría una computadora para procesar una serie de instrucciones y datos.
Por ejemplo, un robot del tipo BigDog podría detenerse en el campo de batalla y decidir si debe o no ayudar a un soldado herido en función de la situación global en la que se encuentre. En lugar de eso podría seguir adelante para continuar con su misión primaria, quizás lanzar unos misiles contra el enemigo o llevar algunas municiones a las tropas en primera línea.
Por otro lado, el robot podría decidir si debe o no eliminar a una persona en concreta. La decisión en teoría pasaría por el filtro de moralidad y ética pero esto podría entrar en conflicto con su misión principal. Podría encontrar niños cerca o incluso detectar que el ser humano al que debe matar es, de hecho, un menor ¿debe hacerlo o no? los terroristas o ‘el enemigo’ en general del futuro ¿podrían utilizar esta moralidad-robotizada a su favor para conseguir controlar a las máquinas de alguna manera? ¿Podrían las máquinas llegar a responder preguntas éticas que ni siquiera un ser humano tendría claras?
Lo más inquietante es que parece ser un tema más complejo todavía y que, alguna vez, tendrán que testear si el sistema funciona o no, sin saber de antemano cuál será la respuesta de la máquina en la práctica.
Como ya sabrás, esta cuestión ya la planteó Asimov hace décadas en su obra Yo Robot (tristemente versionada en el cine) que venía a poner sobre la mesa las Tres Leyes de la Robótica, donde la principal era:
La idea es dotar de algún tipo de sistema que permita dividir las acciones de la máquina entre buenas y malas de forma automática sin que sea necesaria la actuación de un ser humano. De esta manera se podría delegar en sistemas informatizados la toma de decisiones críticas que producirían en milésimas de segundo, el tiempo mínimo imprescindible que necesitaría una computadora para procesar una serie de instrucciones y datos.
Por ejemplo, un robot del tipo BigDog podría detenerse en el campo de batalla y decidir si debe o no ayudar a un soldado herido en función de la situación global en la que se encuentre. En lugar de eso podría seguir adelante para continuar con su misión primaria, quizás lanzar unos misiles contra el enemigo o llevar algunas municiones a las tropas en primera línea.
Por otro lado, el robot podría decidir si debe o no eliminar a una persona en concreta. La decisión en teoría pasaría por el filtro de moralidad y ética pero esto podría entrar en conflicto con su misión principal. Podría encontrar niños cerca o incluso detectar que el ser humano al que debe matar es, de hecho, un menor ¿debe hacerlo o no? los terroristas o ‘el enemigo’ en general del futuro ¿podrían utilizar esta moralidad-robotizada a su favor para conseguir controlar a las máquinas de alguna manera? ¿Podrían las máquinas llegar a responder preguntas éticas que ni siquiera un ser humano tendría claras?
Lo más inquietante es que parece ser un tema más complejo todavía y que, alguna vez, tendrán que testear si el sistema funciona o no, sin saber de antemano cuál será la respuesta de la máquina en la práctica.
Como ya sabrás, esta cuestión ya la planteó Asimov hace décadas en su obra Yo Robot (tristemente versionada en el cine) que venía a poner sobre la mesa las Tres Leyes de la Robótica, donde la principal era:
Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño
Comentarios
Publicar un comentario
Que estas pensando?