" />
ZOOM
GALERÍA
0 COMENTARIOS

Quieren investigar cómo aprovechar sus beneficios y evitar los peligros potenciales

Las leyes de la robótica que quieren los expertos en Inteligencia Artificial

Primera: Un robot no dañará a un ser humano o, por inacción, permitirá que un ser humano sufra daño.

Segunda: Un robot debe obedecer las órdenes de los seres humanos, salvo que esas órdenes entren el conflicto con la primera ley.

Tercera: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con al primera y la segunda ley.

Así rezan las tres leyes de la robótica. Asimov las introdujo por primera vez en una de sus novelas en 1942. A partir de ahí, todo el universo robot-ficción del científico se sirvió de estas tres leyes para establecer el marco de las relaciones entre los humanos y las máquinas. El ser humano crea las máquinas, las dota de lo que cree el hombre que a él le falta: una capacidad de análisis sin precedentes y sin interferencia emocional. Pero esa falta de sentimientos puede llevar a los robots a plantearse la innecesaria intervención de los seres humanos en la vida que ellos controlan. El factor humano es un factor de fallo, es el eslabón débil de la cadena. No es un padre creador, sino un error que alcanza su redención en las máquinas. El ser humano lo sabe. Le ha otorgado a su diseño mecánico el control de todo, incluso la capacidad última de decidir… incluso la capacidad de autoreplicarse, ¿para qué es necesario entonces el producto de un azar biológico? Como todo buen dictador que desea perpetuarse en el poder, las tres leyes de la robótica garantizan la sumisión, la no rebelión de la máquina.

Con las tres leyes grabadas en lo más profundo de su cerebro cableado, el robot, ese Gólem moderno, no puede llegar jamás a convertirse en Skynet, HAL 9000, replicantes rebeldes o Matrix. Las máquinas así creadas avanzan en su pensamiento hasta concluir, como explica Asimov, en la Ley Cero: «Un robot no dañará a la Humanidad o, por inacción, permitirá que la Humanidad sufra daño», que amplía la idea singular del ser humano a la global de la humanidad. ¿Qué pasaría entonces si un ser humano amenazara la supervivencia de la humanidad? ¿Lo matarían, entrando en conflicto con la primera ley?

Una ética para los robots que vienen y los humanos que los crean

En 1942 puede que todo esto pareciera ciencia-ficción, pero hoy ya no lo es. El desarrollo tecnológico, unido al mayor conocimiento de la mente y el cerebro humanos, están permitiendo una convivencia de lo «bio» con lo «tecno» que ya avanza la posibilidad de máquinas capaces de sentir, aprender y pensar por sí mismas. La neurociencia es la nueva revolución. En ese punto es donde comienzan habitualmente los argumentos apocalípticos de la ficción literaria y televisiva, pero la ciencia no quiere llega a un punto en que que la humanidad deba esconderse del eficaz exterminio del robot.

Hace unos años, en 2011, la comunidad científica establecía una serie de principios éticos por los que debían regirse, no las máquinas, sino los humanos que intervienen actualmente en el diseño y creación de robots. Y es que por mucho poder que se le otorgue a una máquina, el último y primer responsable de la misma es, siempre, el ser humano que lo crea y programa. Sin embargo ya existen cosas que rozan el límite de esos cinco principios: No diseñar robots exclusiva o fundamentalmente para matar o dañar humanos; los humanos y no los robots son los responsables de lo que hagan los robots; los robots deben diseñarse para garantizar su protección y seguridad; los robots son objetos, y como tales no se deben diseñar para aprovecharse de usuarios vulnerables generando dependencia o respuestas emocionales, además de que sea posible siempre distinguir a un ser humano de un robot (aunque no tengan apariencia de robot, las redes sociales pueden causar ese efecto en las personas); por último, que sea siempre posible identificar al responsable legal de la máquina.

La preocupación no ha cesado. Al contrario. Expertos de todo el mundo en Inteligencia Artificial acaban de sellar, en forma de carta abierta publicada por Future of Life Institute (FLI), un pacto para garantizar la seguridad de los humanos frente a próxima y generalizada convivencia con creaciones robóticas de todo tipo. Aunque parezca que estamos lejos de que un gran cerebro electrónico tome conciencia de sí mismo y, como consecuencia idee un plan para esclavizar y/o exterminar a la humanidad, no está de más ir sentando las bases para evitarlo.

El cambio fundamental, señalan, se ha producido en los últimos 20 años, con el avance en la creación de sistemas inteligentes e interconectados que, además, se han ido asentando como elemento clave en la toma de decisiones en diversos centros de poder, desde el gubernamental al empresarial, pasando por el económico, el energético o el mismo algoritmo que determina qué cosas ves y cuáles no ves en tus paseos por la gran red de redes. Y aquí vienen también el big data, el internet de las cosas, las armas autónomas, el reconocimiento de voz, los patrones biométricos, los buscadores y los coches autónomos.

Por un lado la ciencia investiga para saber, pero por el otro, las empresas lo hacen para tener. Los objetivos difieren, y en esa diferencia es donde se puede generar el conflicto que dé lugar a la ruptura. Si el valor de la vida se establece en moneda de cambio, si se puede cosificar en masas humanas que se mueven, compran y generan beneficio, ¿qué impide que se usen las máquinas para aumentar esos beneficios a costa de la vida? ¿Aparecerá una ley sub cero que determine que por encima de las vidas humanas particulares  y de la humanidad en general, hay unas vidas más valiosas que otras? Ante una disyuntiva no puede valer lo mismo la vida de un gran empresario que la de una prostituta, ni la de un ministro en comparación con el inmigrante de turno. Mientras el dinero sea el que manda, esto puede pasar. Por eso se hace necesario, frente a esta tecnología

investigar cómo aprovechar sus beneficios y evitar los peligros potenciales.

El beneficio primero, antes que el monetario, debe ser el social, tal y como marcan los científicos en su carta y recomiendan que se amplíen las investigaciones destinadas a garantizar que la Inteligencia Artificial sea cada vez más sólida y beneficiosa, asegurándose de que las máquinas hacen única y exclusivamente lo que se programa que hagan, siempre para el bien de la sociedad, eludiendo la singularidad que originaría un ente consciente. Para eso insisten en que la investigación debe ser multidisciplinar, implicando a los actores necesarios, expertos en economía, derecho, filosofía, seguridad informática, métodos formales y la propia Inteligencia Artificial.

En Future of Life Institute trabajan investigadores voluntarios como el cofundador de Skype Jaan Tallinn, el profesor del MIT Max Tegmark o el CEO de Tesla Elon Musk, que participa en el Consejo Científico Asesor del Instituto. El mismo Stephen Hawking declaraba públicamente en un artículo para The Independent su desconfianza en las máquinas de Inteligencia Artificial sin control de ningún tipo junto a otros miembros de FLI. En cierto modo es cierta la idea humanista de que el hombre es el centro del Universo, porque siempre volvemos a ese mismo centro: el impacto futuro de la Inteligencia Artificial depende de quienes ahora controlan (personas de carne y hueso con nombre y apellidos) el desarrollo de la Inteligencia Artificial.

No comments yet.

Deja un comentario