ZOOM
GALERÍA
0 COMENTARIOS

El científico alerta de los riesgos de máquinas inteligentes sin ningún tipo de control

Stephen Hawking y los riesgos de la inteligencia artificial

A medida que la tecnología ha ido avanzando, y los dispositivos que nos rodean (desde coches a relojes, pasando por refrigeradores y termostatos) han ido ganando en “inteligencia”, un temor ha ido creciendo en algunos seres humanos, que en dicho avance han visto también una amenaza. Se trata, claro, de la rebelión de las máquinas, un escenario apocalíptico en el que, alcanzado el umbral de la autoconsciencia, y desarrollados los mecanismos necesarios para “evolucionar”, las máquinas decidirían que “ya está bien” de permanecer sometidas a lo dictado por el ser humano, especialmente si eso atenta contra intereses mayores. No es baladí que el padre del concepto de cerebro positrónico, Isaac Asimov, lo fuera también de las tres leyes de la robótica, que aún hoy en día siguen siendo empleadas no sólo en todo tipo de creaciones de ciencia ficción, sino en planteamientos teóricos de cómo deben comportarse las formas de vida artificial. Dicho conjunto de reglas, que son de obligado cumplimiento para cualquier robot (entiéndase como tal un dispositivo electrónico con capacidad de toma de decisiones), tienen la finalidad de proteger a los seres humanos, por encima de cualquier otro criterio:

  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la 1ª Ley
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la 1ª o la 2ª Ley.

Sin embargo, y al igual que ocurre con el cerebro positrónico, un enfoque científico de los postulados de Asimov los deja un poco “cojos” y, consecuentemente, ese “seguro de vida” que supondría la aplicación de normas proteccionistas para con los seres vivos, queda en entredicho. Así, no es de extrañar que determinadas voces, algunas de ellas fuera de cualquier tipo de duda, planteen que existen riesgos. Tal es el caso de Stephen Hawking, que ha afirmado en un editorial en The Independent, que el desarrollo de la inteligencia artificial puede ser el mayor logro de la humanidad… pero también el último.

En dicho texto, que puedes ver online aquí, el científico menciona que los actuales sistemas de inteligencia artificial, y que tienen su máximo exponente en tecnologías como Siri, los coches sin conductor de Google y similares, es sólo la cabeza del iceberg. En sus propias palabras “Will all “pale against what the coming decades will bring” es decir, que palidecerán en comparación con lo que veremos llegar en las próximas décadas. Los enormes esfuerzos para avanzar en esa línea de investigación, prometen resultados muy efectivos a medio plazo, y están llamados a revolucionar (de nuevo) nuestra sociedad. Sin embargo,”…it might also be the last, unless we learn how to avoid the risks.“. Y esto es lo que más preocupa a Hawking: ver que gobiernos, grandes empresas y, en general, sociedad, no se están preparando para esa revolución que viene. Y en un párrafo, sin duda destacable, dice lo siguiente:

“If a superior alien civilization sent us a message saying, ‘We’ll arrive in a few decades’, would we just reply, ‘OK, call us when you get here – we’ll leave the lights on’? Probably not – but this is more or less what is happening with AI,”

Traducido: Si una civilización alienígena superior (más evolucionada) nos enviase un mensaje diciendo “Llegaremos (a la Tierra) en unas décadas”, ¿simplemente responderíamos “Ok, avisad cuando lleguéis, dejaremos las luces encendidas? Probablemente no, pero eso es más o menos lo que está sucediendo con la inteligencia artificial.

Lo único que nos puede salvar de esos posibles riesgos es, claro, conocerlos, y para tal fin es necesario que se dediquen muchos esfuerzos de investigación (y económicos, claro está), tanto a las pocas entidades (tanto públicas como privadas) que ya están trabajando en este sentido, pues sólo identificando los riesgos y preparando una respuesta para los mismos, se podrá actuar llegado el momento. Por ejemplo, un aspecto particularmente preocupante es el relacionado con los trabajos. A día de hoy, bastantes actividades que hasta hace poco tiempo eran llevadas a cabo por humanos, ahora están en manos de máquinas. Sin embargo, esto podría crecer de manera exponencial, a medida que la inteligencia de las máquinas fuera “superior”. E, incluso antes que eso, en el corto plazo, otro aspecto que preocupa seriamente a Hawking es el de las armas inteligentes:

“In the near term, world militaries are considering autonomous-weapon systems that can choose and eliminate targets; the UN and Human Rights Watch have advocated a treaty banning such weapons.”

Es decir, que los militares podrían estar pensando (y trabajando) en sistemas totalmente autónomos, capaces de elegir objetivos y destruirlos. Naciones Unidas y Derechos Humanos (Human Rights Watch) han planteado tratados para la prohibición (antes incluso de que existan) de este tipo de armas, pero ya es sabido que no son pocos los países que no reconocen a ambas entidades o que, incluso en el caso de hacerlo, no llevan a rajatabla todas sus propuestas.

Termina su editorial Hawking, enumerando las instituciones que sí que están trabajando en la identificación de los posibles riesgos (Cambridge Centre for the Study of Existential Risk, Future of Humanity Institute, Machine Intelligence Research Institute y Future of Life Institute), entidades todas sin ánimo de lucro. Y, al final, una invitación de la que todos somos partícipes: All of us should ask ourselves what we can do now to improve the chances of reaping the benefits and avoiding the risks. Todos nosotros debemos preguntarnos qué podemos hacer para mejorar las posibilidades de aprovechar las las ventajas y, al tiempo, evitar los riesgos. Quizá sea necesaria una conciencia global sobre dichos riesgos. A día de hoy, investigadores especializados en inteligencia artificial, afirman que la tecnología todavía está “muy verde”, lo que nos deja un margen de maniobra más que suficiente. Sin embargo, tampoco dudan en plantear la posibilidad de una rápida evolución de la misma, sobre todo si la investigación empieza a recibir más fondos, algo más que factible dadas las circustancias actuales. No es algo a pasar por alto, en cualquier caso. Los riesgos planteados por Hawking tienen una base muy sólida, así que más nos vale empezar a pensar en cómo adelantarnos a ellos. Cualquier descuido al respecto puede tener consecuencias inimaginables.

 

Fuente: The Independent

Imagen: Robert Couse-Baker

No comments yet.

Deja un comentario