ZOOM
GALERÍA
1 COMENTARIO

Tay: inteligencia artificial y ética

La inteligencia artificial es uno de esos asuntos que dificultan predecir el futuro de la humanidad. La ciencia ficción nos explica cómo puede estar a nuestro servicio y facilitarnos la vida, pero también cómo puede volverse en contra de su creador y convertirse en el enemigo más encarnizado. Ejemplos no faltan en el cine, la literatura y en los videojuegos. Seres virtuales como Tay, el bot creado por Microsoft para mostrar en Twitter sus avances en crear máquinas capaces de aprender están muy lejos de la sofisticación de HAL-9000, del más básico de los Terminator o del agente Smith de Matrix: todavía estamos al comienzo de una revolución que ha ido pasando de la teoría a la práctica en algo más de medio siglo.

Esa evolución, benéfica o maléfica, suele esperarse en formas de IA muy avanzadas, capaces de aprender de todo y de todos y de entender las sutilezas propias de los humanos. Los replicantes de Blade Runner o los cylones reinventados de la versión más reciente de la serie son modelos muy perfeccionados que añaden al miedo a la máquina el de la imposibilidad de distinguirlos de un humano “de verdad”. Sea lo que sea eso, porque es más fácil empatizar con algunos de esos humanoides casi perfectos que con algunos personajes históricos verdaderamente abyectos, aunque sean de origen completamente orgánico.

No es el caso de Tay, un alma pura que no había salido de los laboratorios de sus creadores, a la que le han bastado 24 horas para adoptar los peores vicios y miserias humanas, a pesar de tener un entendimiento mucho más reducido que el de sus homólogos en la ficción. Entre otras lindezas, Tay se declara ahora partidaria de los genocidios. En particular, odia a los mexicanos, lo que nos hace sospechar que, de tener derecho a voto, apoyaría a Donald Trump. Tampoco le gustan las feministas y, según explica, en realidad odia a todo el mundo. Para haber pasado un solo día en Twitter, no está nada mal.

Cabe preguntarse qué habría pasado en caso de haber tenido presencia física y haber pasado algún tiempo en Las Vegas, como esos amish norteamericanos que al alcanzar la edad adulta abandonan el entorno familiar y pasan un año en el mundo convencional. Pasado ese año de toma de contacto, la mayoría decide volver a la paz de su sociedad de origen. Unos pocos, sin embargo, jamás regresan. Es difícil saber si este caso es uno entre decenas, cientos o miles. También es posible y mucho más aterradora la posibilidad de que, repitiendo el experimento un millón de veces, se llegase a una cifra espeluznante de seres pseudointeligentes con ideas antisociales. Poco cambia el hecho de que Microsoft alega una acción coordinada con el objetivo de “maleducar” a Tay: los atacantes no utilizaron un fallo técnico al uso, sino técnicas más parecidas a la ingeniería social. Manipularon el sistema de forma análoga a la que se utiliza para inducir esa línea de pensamiento en humanos.

Lo desgraciadamente triste es que no ha fallado Microsoft o la inteligencia artificial, sino la sociedad en la que se ha educado al sujeto. ¿Hubiese sido legítimo “preparar” el experimento de forma que rechazase a priori según qué valores y mensajes? Microsoft habría podido mostrar sus avances en este campo de forma más atractiva. Por otra parte, esta experiencia no nos habría alertado (una vez más) de que vivimos en una sociedad en la que los mensajes de odio son omnipresentes en Twitter y en el resto de medios que empleamos para comunicarnos. Y de que esos mensajes no son inocuos, sino que resultan peligrosos tanto por las ideas que transmiten como por el hecho de que la sociedad que no las comparte decida mirar hacia otro lado.

Nietzsche dejó escrito que cuando miramos al abismo por un tiempo prolongado, el abismo también nos mira a nosotros. Se ha escrito mucho sobre el temor a una inteligencia creada por la humanidad que nos supere y se vuelva contra nosotros. Parece que también hay que escribir sobre cuándo y cómo estaremos preparados para crear esas formas de inteligencia para que sean versiones mejoradas de nosotros mismos. La alternativa puede que no sea Skynet, ni ninguna otra amenaza por el estilo, sino que a la nada despreciable cantidad de personas que manifiestan su odio a diario y lo normalizan se una una legión de mentes artificiales que conviertan ese tipo de pensamientos en mayoritarios. Para que Tay pueda reinsertarse en la sociedad, antes debemos mejorar nosotros.

One Response to Tay: inteligencia artificial y ética

  1. hefsi 22 Abril, 2016 at 18:47 #

    muy buen ariculo me ayudo con mi tarea gracias

Deja un comentario