Por Karim Sambá

Última hora: expertos coreanos están elaborando un código ético para robots inspirado en las reglas establecidas por Isaac Asimov en 1950: 1) Un robot no puede dañar a un ser humano. 2) Un robot obedecerá las órdenes humanas salvo conflicto con la regla 1. No obstante, la moral es algo tan voluble que cabría preguntarse si los robots de hoy día son tan sofisticados como para entender ciertas órdenes. Pongamos que un androide estuviera a las órdenes de Tzuriel Refael, Embajador de Israel en El Salvador (nota: hace dos semanas, Refael fue hallado junto a la Embajada maniatado, borracho, desnudo y rodeado de artilugios sadomasoquistas). Si Refael le dijera “péguele fuerte con esto a su papasito”, ¿qué debería hacer el androide? ¿Si le atizara no estaría saltándose la regla 1? Bueno, la opción correcta sería golpearle bien durito: parece que el embajador obtiene así más placer que dolor. Pero las cosas no son tan sencillas: Refael ha sido destituido por juguetón (luego el robot se hubiera quedado sin trabajo). Imaginemos ahora que Refael fuera un militar israelí y le dijera: “Papi chulo, lanza este misil de aspecto fálico contra Gaza”. ¿Qué debería hacer el androide? Negarse: podría dañar a un ser humano. Pero, ay, entonces acabaría entalegado…

Average Rating: 4.9 out of 5 based on 291 user reviews.

Deje un comentario