_
_
_
_
_

La tercera ley de Asimov

Una máquina que pueda interpretar las emociones humanas también podrá simularlas. ¿O la palabra es sentirlas? Según el test de Turing, tendremos que considerar inteligente a un ordenador cuando lo parezca. ¿No deberemos considerarle sensible cuando lo parezca?

"Es posible que los robots lleguen a aprobar una especie de test de Turing emocional, pero lo harán con trampas, no porque sientan emociones reales", afirma Cañamero. "La tendencia en el campo, de hecho, es a pensar que tampoco el otro test de Turing, el original, será una prueba válida de la inteligencia de un ordenador".

Isaac Asimov imaginó en sus novelas tres leyes que deberían estamparse en los circuitos de cualquier robot: no pegar a los humanos, obedecerles salvo conflicto con lo anterior y autoprotegerse salvo conflicto con todo lo anterior. ¿Hay algo de esto en la robótica de la vida real?

"Las dos primeras no tienen mucho sentido con los prototipos actuales", responde la científica. "Hay filósofos, sin embargo, que ya se plantean cuestiones de este tipo. Y sí que hay algo de la tercera ley; un robot debe autoprotegerse para funcionar de forma autónoma".

Feelix Growing significa "FEEL, Interact, eXpress: a Global appRoach to develOpment With INterdisciplinary Grounding" (sentir, interactuar, expresar: una estrategia integral para el desarrollo interdisciplinario de sistemas cotidianos).

El consorcio del proyecto está formado por la Universidad de Hertfordshire, el Centro de la Emoción del CNRS y el grupo de neurocibernética de la Ecole Nationale Superieure d'Electronique (ambos en Francia), el Learning Algorithms and Systems Laboratory del EPFL (Suiza), el Centro para el Estudio de la Emoción de la Universidad de Portsmouth (Reino Unido), el IVML de la Universidad Técnica de Atenas, Entertainment Robotics y Aldebaran Robotics.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_