cornerstone
0 COMENTARIOS

José A. Rodríguez, Cornerstone

Los algoritmos pueden eliminar la discriminación en los procesos de selección

Hablamos con José Alberto Rodríguez, delegado de protección de datos de Cornerstone, para saber hasta qué punto los algoritmos que se usan en la toma de decisiones son capaces de reducir el sesgo de discriminación en los procesos de selección laboral.

No podemos ser ingenuos. La discriminación existe, y el mundo laboral no es ajeno a ella. Sin embargo los últimos tiempos han visto nacer cambios inusitados dentro de las empresas, especialmente dentro de las grandes corporaciones. Se dieron cuenta de que discriminar por cuestiones tan circunstanciales como el género, el color de la piel, la edad, la nacionalidad o la zona de residencia, levantaba frente a ellos un muro que no les permitiría avanzar. La frase “Lo que importa son las personas” ha dejado de ser un slogan de marketing para convertirse en una realidad corporativa: no necesitan CEOs, ni CIOs, necesitan personas con determinadas habilidades organizativas, capaces de gestionar un equipo humano y de sobrellevar emocional y humanamente todo lo que supone un puesto de responsabilidad. Los conocimientos se adquieren, pero el carácter se desarrolla.

José Alberto Rodríguez es el delegado de protección de datos de Cornerstone, un puesto de ámbito internacional que ocupa desde hace relativamente poco tiempo, y que se adecua bien a las necesidades de la nueva LOPD, que empezará a aplicarse en marzo de 2018. En ella se recomienda que las empresas cuenten con un responsable de protección de datos que verifique el cumplimento de la normativa. Con él estuvimos hablando para conocer mejor cómo se están aplicando los algoritmos de big data dentro de las empresas, y qué podemos esperar a futuro de la integración de esta tecnología en nuestras vidas.

¿Qué es un algoritmo?

En general es cualquier programa informático. Se trata simplemente de una sucesión de pasos; desde cómo hacer una división a cómo hacer una suma. En la práctica usamos el nombre de algoritmos para procesos de cálculo o análisis, en particular cuando se habla de big data, por ejemplo para hacer el perfil de un consumidor o intentar predecir qué productos le interesan. Los motores de recomendación de Amazon, de Netflix intentan deducir, en función de una serie de parámetros, cuáles son los productos que pueden interesarle a una persona para recomendar más productos de ese tipo. El caso más clásico y simple es que yo me compro tres libros y el sistema me va a decir, ¿por qué no te compras también este otro?

Hay algoritmos que se utilizan para calcular esas recomendaciones. Por poner un ejemplo, en el caso de Amazon van a mirar el histórico de compras, qué ha comprado otra gente que ya ha comprado esos mismos libros y van a tener lo que se llama “un cálculo por pesos” para dar más o menos importancia a eso actos pasados para generar una recomendación. Si yo compro un libro, pero lo compré hace un año y medio, es menos importante que un libro que he comprado hace seis meses. El cálculo por pesos se refiere a que el algoritmo va a buscar, cotejar y utilizar una serie de hechos, pero esos hechos no tienen el mismo valor, no tienen la misma importancia en el cálculo que hace el algoritmo.

El tiempo es un ejemplo de cálculo por peso, pero hay otros. Por ejemplo, si he comprado tres libros y el primer libro lo compraron otras 100 personas y pero el segundo libro lo compraron 500, el sistema va a tener más en cuenta lo que han hecho esas 500 personas que lo que hayan hecho las 100 primeras. Eso es un ejemplo de algoritmo que vemos todos los días cuando nos conectamos a Amazon o a Google, con la publicidad que nos presenta Facebook, etc. Lo que hay que entender, simplemente, es que hay clases de algoritmos que realizan ese tipo de cálculos fijándose en cosas distintas. Y ahí está el problema, porque en función de aquello en lo que nos fijemos los resultados van a ser más o menos precisos, más o menos adecuados y más o menos sesgados.

¿Pueden tener sesgo los algoritmos?

Hubo un ejemplo desafortunado hace relativamente poco. Google puso a disposición de Internet un sistema informático de los que se llaman inteligencia artificial, sin entrar en detalles de si es de verdad o no inteligencia. El programa permitía conversar y se adaptaba a la conversación de los usuarios, es decir, aprendía de las interacciones con los usuarios y, para simplificar, replicaba el tipo de conversación que aprendía de los usuarios. A las 24 horas tuvieron que apagarlo porque “gente amable” se dedicó a insultarle y a utilizar todo tipo de expresiones que no repetiré aquí. El sistema aprendió y, al poco tiempo, lo que hacía era repetir eso con cualquiera que hablara con él.

Cuando hablamos de algoritmos y de sesgo de algoritmos, luego daré algunos ejemplos de Cornerstone en la parte de gestión de recursos humanos, está el cómo está diseñado el algoritmo y los parámetros a los que ese algoritmo es sensible. También están los algoritmos que se llaman “de aprendizaje”, que son los datos que se han utilizado para hacer que el algoritmo aprenda. Todos esos aspectos pueden dar lugar a un sesgo dentro del propio algoritmo.

Los algoritmos van a ir poco a poco reemplazando procesos humanos que ya existen, pero no necesariamente vamos a hacer cosas nuevas o dar respuesta a preguntas nuevas, sino que lo que se busca habitualmente es optimizar un proceso existente a través del algoritmo. Lo más probable es que ese proceso humano pre existente, ya tenga un sesgo que puede ser más o menos fuerte. Sin embargo un algoritmo, aunque tenga sesgo, no necesariamente es peor que el proceso actual, y aún siendo sesgado puede que sea menos sesgado que los procesos actuales.

Sesgo en los procesos de selección

Ahora pondré un ejemplo sobre la selección de personal. En el sistema de Cornerstone una de las cosas que se pueden hacer es publicar ofertas de empleo, recibir información de candidatos y, a continuación, organizar y pre seleccionar candidatos en función de una serie de criterios. En el proceso clásico manual yo recibía 100 currículum vitae de los cuales me leía la mitad, porque no me puedo leer todos. De los 50 miraba la extensión. Los había de tres páginas si el candidato era amable y de diez páginas si quería hacerme la vida difícil. Yo me leía la primera por encima y, si me interesaba, me leía la segunda por encima. Hay un estudio que decía que el tiempo medio por CV es de siete segundos. Al final me quedo con diez, esos ya me los leo más despacio, se los doy a otras personas para que me digan lo que piensan y, a partir de ahí, decidimos llamar a tres, cuatro o cinco personas por teléfono. De esas citamos a dos o tres para una entrevista personal y, de ahí, se elige a la persona.

El proceso manual clásico está sujeto a muchos sesgos. El primero es que los CV no llegan todos de golpe, van llegando poco a poco, y una vez que yo he cogido los 3-4 que más me interesan, los que lleguen después ni siquiera los miro. Entonces, automáticamente hay gente que ni siquiera va a ver su candidatura evaluada dentro del proceso, porque el CV ha llegado en el momento erróneo. No necesariamente demasiado tarde, pero si un CV llega a las 10 de la noche o a las 6 de la mañana, y otro me llega justo cuando me estoy tomando un café y estoy mirando el correo, ese último tiene más posibilidades de que lo mire.

Todos tenemos una tendencia natural a evaluar más favorablemente a los que nos caen bien y minimizar sus problemas potenciales”.

Hay un componente de aleatoriedad en el proceso humano, que ya elimina un montón de candidatos por motivos no estrictamente profesionales.Cuando me los miro unos me caen mejor y otros peor y, además, se lo enseño a más gente que lo va a mirar y va a dar su propia opinión. Aunque se utilicen formularios y matrices para intentar tener una valoración objetiva siempre hay un componente subjetivo. Cuando llame a la persona y tenga la entrevista cara a cara, esa persona me puede caer muy bien o muy mal, simplemente porque los seres humanos somos así. No es una crítica particular, eso pasa, pero todos tenemos una tendencia natural a evaluar más favorablemente a los que nos caen bien y minimizar sus problemas potenciales, y evaluar más negativamente al que nos caen mal. Por poner un ejemplo, el mismo chiste en una persona que nos cae mal es machista, y en otra que nos cae mal es humor. Eso es una tendencia psicológica natural.

El problema de la fuga de empleados

Ese proceso humano tiene un sesgo, si bien es cierto que se están haciendo muchas cosas para evitarlo. Se trabaja con CV anónimos, sin foto o sin la edad, para intentar ver las capacidades de la persona y la experiencia. En Cornerstone, cuando pasamos eso a un algoritmo yo, como seleccionador natural, lo que tengo es una pantalla en la que elijo unos criterios, por ejemplo los años de experiencia, y eso me da a mi una lista ordenada de candidatos, y eso es casi como si yo lo hiciera a mano con una hoja de papel. Lo único que hace el algoritmo es ordenar a los candidatos por años de experiencia, si tienen las cuatro cosas que me interesan, y a lo mejor podríamos indicarle la distancia desde donde viven hasta la oficina, y se pone así un orden de criterios de clasificación de candidatos.

Con el sistema tradicional tendré una lista con los diez primeros candidatos, que serán los que más se correspondan a esos criterios. De esos diez yo llamo a los cinco primeros y, a partir de ahí, vamos a la entrevista. Lo que ocurre con los nuevos algoritmos de big data es que esa lista de diez personas va a seguir siendo la misma, pero el orden será diferente. Los algoritmos de big data lo que van a intentar hacer es utilizar más datos de la persona, de su histórico en la empresa y la evolución de su carrera, para descubrir correlaciones que no son evidentes, intuitivas, que no las podemos deducir simplemente leyendo un CV y hablando con la persona.

Los algoritmos van a intentar deducir el riesgo de que una persona se vaya de la empresa al poco de entrar”.

Un ejemplo típico que estamos trabajando en Cornerstone para solucionar es que las empresas tienen un problema muy gordo cuando contratan a alguien, y esa persona se les va al poco tiempo. Para la empresa es un riesgo contratar a alguien y que a los seis meses se vaya porque, finalmente, no es la persona adecuada o no sea la empresa adecuada para esa persona. No es cuestión de juzgar, es algo que tiene que funcionar para las dos partes. Hay un porcentaje de empleados que se van y eso cuesta mucho dinero, pero sobre todo mucho tiempo a la empresa. Si una persona se va a los seis meses después de que yo he pasado seis meses para contratarla, he perdido un año y tengo que empezar otra vez. Eso es un coste muy importante en recursos y tiempo, pero es que además significa que si me quedo sin una persona en mi equipo, tengo que trabajar más por las noches. Son cosas muy simples, pero importantes.

Los algoritmos van a intentar deducir el riesgo de que una persona se vaya de la empresa al poco de entrar. Entonces tendré una lista de candidatos ordenada por una serie de criterios, donde se ha aplicado otro tipo de algoritmos de big data que indique qué candidato tiene un 10% de riesgo de irse, cuál un 20% y cuál un 30%. Sin duda es un dato que va a influenciar mi decisión de una manera muy importante. Ahora bien, ¿qué hago si el candidato que tiene una mejor evaluación y cumple mejor otros criterios es el que tiene un riesgo más alto de irse?

Un algoritmo para cada necesidad

Los algoritmos de big data están buscando datos para la selección de personal como la evolución de carrera o el impacto de la formación… es decir, cómo de útil ha sido esa formación en la vida real de esa persona. Se busca optimizar los recursos de la mejor manera, pero esto no es ningún problema nuevo, lo que pasa es que ahora hay un acceso a un volumen de datos mucho más importante, a criterios nuevos y a criterios que no son ni evidentes ni intuitivos.

Existe una serie de algoritmos estándar, pero simplificando mucho podemos decir que uno de ellos son los modelos estadísticos. Estos miran cuántas veces ocurre algo y dicen: “Bueno, si estas circunstancias se dan juntas un número suficientemente alto de veces, tiene una significación estadísticamente, y aunque no sepamos si esas circunstancias que van juntas son la causa las unas de las otras, lo que sabemos es que suele ocurrir”, entonces podemos usar eso como método de predicción.

Otra de las grandes familias, simplificando mucho, son los algoritmos que aprenden de datos, que es lo que se suele llamar IA. Estos algoritmos se van a alimentar con un conjunto de datos de entrada y otro conjunto de datos de salida, así es como el algoritmo aprende y se adapta para replicar ese proceso. Es algo, que por ejemplo, se utiliza mucho el reconocimiento de imágenes. Al algoritmo se le dan fotos de entrada, y fotos de salida y así se le entrena hasta que es capaz de reconocer a las personas y diferenciarlas unas de otras.

Cuando el sesgo viene de atrás

Cuando estamos hablando de un modelo estadístico se van a considerar una serie de parámetros: edad del empleado, años de experiencia, formación que ha hecho… Según sean los parámetros que vayan a formar parte del algoritmo, así será como se construya. Los algoritmos que usamos ahora en Cornerstone para la gestión de carreras, por ejemplo, no miran edad, ni género, ni el número de años de experiencia, lo que miran es cuáles han sido los caminos que han llevado a diferentes personas dentro de la empresa a evolucionar a través de sus puestos. Y cuáles son, por ejemplo, los cursos que han hecho, e intentamos descubrir si hay una relación entre esos cursos y los puestos que han tenido antes para prever una evolución de carrera a futuro.

Al no incluir en los algoritmos parámetros de edad o género se pueden eliminar automáticamente los sesgos por edad y los sesgos por género”.

La idea es que la empresa pueda planificar y decir: “Yo no voy a necesitar gente para este tipo de puestos, es mejor que invierta en este tipo de perfiles, en estas acciones de formación o en este tipo de coaching” y, al mismo tiempo, que un empleado decida qué carrera le gustaría seguir y ver las acciones que necesitaría emprendes para avanzar mejor por esa carrera.

Al no incluir en los algoritmos parámetros de edad o género se pueden eliminar automáticamente los sesgos por edad y los sesgos por género. Sin embargo hay que tener en cuenta que los algoritmos no dejan de estar basados en los datos históricos de la empresa que pueden estar previamente sesgados.

Desgraciadamente todavía hay casos clásicos de discriminación porque con la incorporación tardía de la mujer al mercado de trabajo las condiciones han sido peores y, hoy en día seguimos con que a trabajo igual, en los países occidentales, las mujeres cobran un 20% menos aproximadamente y, además, sobre todo en empresas tecnológicas, el 80% de los empleados son hombres, y sólo el 20% de los empleados son mujeres. Van mejorando poco a poco, pero todavía cuesta.

Si estuviésemos en una empresa que tradicionalmente sólo contratara a gente que hubiera hecho ciertas carreras profesionales o que hubiera hecho ciertos cursos o, de una manera un poco más sibilina, una empresa de cultura muy masculina en la que no contrataran a gente demasiado mayor o a mujeres, lo que nos vamos a encontrar el el histórico de datos es que las personas de más edad o las mujeres han accedido menos a la formación, limitando sus carreras profesionales.

El algoritmo, a la hora de mirar el potencial de cada uno y valorar los puestos que se han ocupado o las formaciones que se han hecho dice: “Esta persona ha estado en puestos adecuados y ha hecho una formación importante, por lo tanto su potencial es bueno. Esta otra persona ha tenido una carrera menos buena, y las formaciones que han hecho no han sido muy útiles, con lo cual el potencial es menos bueno”. En este caso ni siquiera es un sesgo del propio algoritmo, se limita a reflejar una realidad, y es esa realidad la que tiene un sesgo.

Hay que preguntarse por qué y para qué

La pregunta que hay que hacerse entonces es, ¿por qué alguien tiene más o menos potencial y por qué está más o menos preparada? Eso es algo que no puede decir el algoritmo, y ahí es donde entran los departamentos de recursos humanos. Con las herramientas que usamos en Cornerstone intentamos, a partir de esos datos, sacar una serie de informes para ver por qué hay ciertas personas que tienen menos potencial y menos preparación, y descubrir si hay categorías específicas de empleados que se pudieran traducir en una discriminación dentro de la empresa. Un algoritmo que está alimentado con esos datos tenderá inicialmente a reproducir los criterios usados anteriormente por la empresa.

Para selección de personal no usamos edad o sexo, pero hay áreas como el marketing que busca definir perfiles de consumidores, por lo que mira cosas como los segmentos de edad, el nivel social, el género, dónde viven las personas… lo que se intenta es conocer lo máximo posible de la persona para asignarle un perfil determinado. En Francia hay un ejemplo de los años 60 o 70, en el que alguien debió publicar por primera vez un análisis de perfiles de consumidores que, desde entonces, se quedó en el imaginario popular: uno de ellos era el de la mujer ama de casa de 40 años, porque es un perfil de consumidor muy específico. Las empresas buscaban saber qué perfil sesgaban para ofrecerle los productos adecuados. Eso sigue existiendo, sólo que antes había departamentos en los que las personas hacían ese tipo de análisis manualmente y ahora lo están traspasando cada vez más a algoritmos.

Las empresas, lo que buscan a través de los algoritmos es más potencia de cálculo, es decir, cálculos más precisos y tener acceso a más datos. Las dos cosas van juntas, porque el aumento en la potencia permite recopilar más datos y almacenarlos, y hacer más cálculos con esos datos, pero también al revés, el aumento de la potencia hace que cada vez haya más aplicaciones tecnológicas en nuestra vida diaria que, a su vez, generan más datos.

¿Realmente necesitamos tantos datos?

Cada vez habrá más objetos que cada vez serán más potentes. Seguimos llamando teléfono al móvil, pero eso ya no es un teléfono, es un ordenador de bolsillo mucho más potente que cualquiera que tuviera cuando era niño que, además, permite llamar por teléfono. Estos ordenadores de bolsillo y todos los aparatos conectados al IoT generan muchos más datos. Es un círculo vicioso en el que la tecnología genera más datos, como tiene más potencia se pueden analizar esos datos más rápidamente; antes ciertos tipos de análisis tardaban una semana, ahora llevan un día o, incluso, son casi en tiempo real. Por eso cuando navegamos por Internet, en función de lo que busquemos las páginas que se nos muestran serán distintas para nosotros que para otras personas.

En países en vías de desarrollo no tienen acceso ni a tantos datos ni a tanta tecnología, y han sido capaces de crear algoritmos muy eficientes que funcionan bien con un número mínimo de datos, lo que nos lleva a preguntarnos, ¿es imprescindible usar muchos datos? La respuesta es que depende.

 La mayoría de los científicos de datos trabaja en descubrir cuál es el mínimo volumen de datos que permite hacer una predicción fiable según el entorno”.

Ciertamente va a haber un volumen mínimo de datos necesario, pero todavía no se sabe muy bien cuál, porque eso forma parte de la investigación y el desarrollo que se está haciendo ahora mismo. La mayoría de los científicos de datos trabaja en descubrir cuál es el mínimo volumen de datos que permite hacer una predicción fiable según el entorno, así que lo que imagino es que habrá cierto tipo de predicciones que necesitarán muchos datos como en el caso de las previsiones meteorológicas, que son extremadamente complejas pero, en otras cosas no.

Los seres humanos somos muy gregarios, si al ir a comprarme un libro voy y me compro otros dos, es muy probable que haya un montón de gente que haya hecho lo mismo. Bastará saber que 50 personas han comprado esos tres libros para que la predicción sea fiable. Por eso el volumen de datos va a depender del tipo de aplicación y del tipo de datos de que estemos hablando.

Algoritmos para países en desarrollo

En los países en vías de desarrollo no han pasado por las mismas fases que nosotros, por eso la tecnología nueva les va a permitir saltar etapas. En los países europeos durante décadas se han instalado millones y millones de kilómetros de cable; eso ha costado mucho dinero y ha llevado muchísimo tiempo, pero había dinero y recursos. Estos otros países no tienen esos recursos, pero instalar antenas para tener telefonía móvil es mucho más fácil y barato, y hay mucha gente de estos países con un acceso a la tecnología que les va a ayudar mucho en sus vidas.

En India, por ejemplo, aunque no está hecho con algoritmos ni big data, están proporcionando medicina oftalmológica a pueblos y aldeas muy alejadas mediante un sistema de voluntarios formados con unidades móviles que van visitando los pueblos, porque los doctores están lejos y no pueden ir. Estos voluntarios van con teléfonos móviles, hacen fotos de los ojos de las personas, los envían a un hospital central donde los médicos miran esas fotos, hacen un diagnóstico y lo envían a la persona, y eso es ya un gran cambio. Porque en la mayoría de los casos se tratará de problemas menos graves, pero cuando se trate de algo que requiera cirugía, ya está diagnosticado.

El paso siguiente sería conseguir que el teléfono fuese lo suficientemente potente para albergar en sí los algoritmos para hacer esos diagnósticos, eso daría todavía más desarrollo, libertad y tecnología a estas poblaciones de estos países. El famoso iPhone X que salió recientemente parece ser que tiene un sistema de seguridad de reconocimiento facial y que el sistema es lo bastante potente como para que no se le pueda engañar con una foto, y parece ser que todos los cálculos se hacen en el propio teléfono. Es decir, que el teléfono no te hace una foto, la manda al servidor central, el servidor central hace una serie de cálculos y te los devuelve.

¿Qué es lo que hace Siri? Como otros sistemas de voz, tú les haces una pregunta, la graba, la envía a un servidor central, el servidor central analiza tu voz, calcula la respuesta y la envía al teléfono. O sea, que la potencia de cálculo no está en el teléfono sino en un servidor central. Según dice Apple para este nuevo teléfono han conseguido que toda la potencia de cálculo del teléfono sea suficiente para que esos algoritmos y esos cálculos se hagan en el propio teléfono.

Lo importante es la capacidad de cálculo que está en el teléfono, y si pensáramos en él como un ordenador, lo veríamos de una forma muy diferente. La potencia de cálculo es más potente de lo que pensamos, evoluciona muy rápidamente. En países en vías de desarrollo la gente no puede tener ordenadores. Primero no hay mucha electricidad, segundo tampoco hay donde conectarse, pero un teléfono puede cargarse con paneles solares y eso, en lugares como África, es mucho más accesible.

Madagascar es uno de los países más pobres del mundo, hay pueblos en medio de la nada en los que las casas son chozas de madera que sólo son para dormir, no es una casa en el sentido nuestro, sólo es una choza para dormir, pero todas tienen paneles solares. Eso lo que está dando a esta gente es poder tener una linterna por la noche, el no estar obligados a acostarse cuando de hace de noche, a poder tener un teléfono. Es cierto que no pueden utilizarlo mucho,  ya es una diferencia enorme poder llamar 30 segundos si hay una emergencia.

Son sistemas que van a permitir consolidar los recursos que se tengan de una forma mucho más eficaz y aquí, en el mundo occidental, acabaremos haciendo lo mismo. Acabaremos recuperando ese tipo de métodos de trabajo que se están desarrollando en sitios donde son la única opción. En España o Francia con la despoblación de las zonas rurales, lo que está pasando es que cada vez hay menos médicos, porque se trabaja con un ratio de tantos médicos por persona y antes había un médico para un radio de 50 km y ahora es para 150 km. Entonces, cada vez, incluso en nuestros países, va a haber zonas que se puedan beneficiar de este tipo de tecnologías.

Algoritmos para una vida más fácil

Si vemos los algoritmos simplemente como una optimización de un proceso, cualquier proceso que mejore, que sea más rápido, más sencillo y más barato, nos facilita la vida. Un ejemplo extremo, casi de ciencia ficción, y que da un poco de miedo, es llegar a un restaurante y que ya esté en mi mesa el plato que quiero comer, no he tenido ni que pedir, porque el algoritmo ya sabe lo que quiero.

Es hacia lo que vamos. Si yo necesito un libro y voy a Amazon, podré encontrar el libro que me hace falta en un minuto en lugar de pasar una hora buscando. En sitios donde no hay medios humanos o estos sean muy limitados, este tipo de algoritmos van a permitir, a pesar de esos medios humanos limitados, alcanzar y dar servicio a mucha más gente.

En los países en desarrollo puede ser la diferencia entre la vida y la muerte de una persona.

Hablando de tecnología y de cambios en la manera de pensar, hay un cirujano en India que ha conseguido montar un quirófano como si fuera una cadena de montaje con distintos médicos, y donde antes operaban a tres personas al día ahora operan a 20. Prácticamente son los mismos medios humanos, pero organizando la tecnología de manera diferente se consigue dar un servicio mucho mayor. En los países occidentales a lo mejor la diferencia es que tienes que esperar dos semanas menos para la operación, pero en los países en desarrollo puede ser la diferencia entre la vida y la muerte de una persona.

Grandes oportunidades y grandes riesgos

Me oiréis mucho repetir esto, pero la tecnología y los algoritmos nos van a dar grandes oportunidades y grandes riesgos. Va a haber que mirar las dos cuidadosamente, porque no va a valer decir que esto es demasiado arriesgado, y que es mejor no mirarlo o no hacer nada, y tampoco va a valer decir que esto es genial y que vamos a hacer todo lo que se nos ocurra. Va a haber que encontrar un equilibrio adecuado. Ahí es donde entra la protección de datos, que lo que busca es el equilibrio entre los algoritmos de gestión de datos personales y el uso de esos datos.

Preguntémonos dónde están realmente los riesgos de los datos. Si tuviera una especie de bola de cristal como en Minority Report, podría decir dónde nos estamos metiendo. Con los algoritmos se busca predecir, y vamos hacia algoritmos predictivos, lo cual permite que haya una recomendación prescriptiva en función de la previsión.

Hay dos cuestiones que aparecen en la película de Minority Report y que hay que contemplar. Por un lado está la precisión de la predicción, porque las predicciones no son 100% o 0%, siempre va a ser un porcentaje. Si imaginamos el área del crimen eso es lo que la predicción puede hacer, y da igual cómo la hagas, da igual que sea un algoritmo o una persona con poderes especiales como en la película, o que sea un grupo de psicólogos y estadísticos que se ponen alrededor de una mesa y piensan qué es lo que podría ocurrir.

¿Podemos arrestar a alguien por un crimen que todavía no se ha cometido, sabiendo que a lo mejor no se comete?”

La predicción va a tener un porcentaje de fiabilidad y realización. Digamos que hay un 80% de probabilidades de que tal cosa pase. En el caso de un crimen, hay un tanto por ciento de probabilidad de que alguno de nosotros lo cometa… y de que no lo cometa. La segunda cuestión, que se ve también en la película es, ¿podemos arrestar a alguien por un crimen que todavía no se ha cometido, sabiendo que a lo mejor no se comete?

Este dilema tampoco es nuevo. En la historia de la humanidad, con el desarrollo de los temas judiciales y legales, con un código de justicia y con un proceso de recopilar pruebas y tratar de deducir si alguien es culpable o no, el dilema está en decidir qué preferimos: ¿que algunos culpables queden libres pero que ningún inocente vaya a prisión?, ¿o que algunos inocentes terminen en la cárcel pero todos los culpables estén detenidos? Muchos de estos problemas no son nuevos, lo que cambia es la tecnología, la potencia de análisis y, a lo mejor, la precisión de las predicciones, pero siguen sin ser absolutas.

Hoy en día, en el mundo real, sin ir a las películas, ¿qué hace la policía cuando tiene sospechas firmes de que se va a cometer un delito? Pues ponen una vigilancia, pero no se arresta a las personas. A las personas se las arresta cuando se tienen indicios o pruebas de que están trabajando en la preparación de un crimen, porque preparar un delito también es delito. Todo esto ya existe en nuestro ordenamiento jurídico. El problema es que vamos a tener un sistema que nos va a decir, sin pruebas tangibles, simplemente por cálculos estadísticos, que hay tal probabilidad de que en tal área se cometa un crimen y, además, que probablemente sean esta, esta o esta persona los que lo cometan. ¿Cómo vamos a gestionar eso?

La importancia del factor humano

Si pasamos todo esto al mundo de los RRHH, con el tipo de análisis que hacemos en Cornerstone vamos a decir que hay un riesgo de que una persona se vaya de la empresa al cabo de seis meses de contratarla, pero eso no significa que la persona se vaya a ir. Además, la solución no es necesariamente no contratar a esa persona. A lo mejor, lo bonito de la herramienta es decir: “Esta es la persona que me interesa, hay un riesgo sí pero, ¿por qué hay este riesgo?, ¿cómo puedo minimizar el riesgo y trabajar con esta persona para que este riesgo no se convierta en realidad?

Las predicciones no tienen por qué convertirse en: “Vale, tú tienes un riesgo equis y ya no te contrato”. Esto puede traducirse en: “Oye, tu perfil me interesa, pero hay algo que no encaja, hay un riesgo de que te vayas. Vamos a trabajar juntos para que eso no ocurra”.

No se pueden tomar decisiones automáticas sobre las personas cuando la decisión tiene un impacto legal o un impacto importante sobre la persona”.

Ahí entra en juego el factor humano de la comodidad, porque hacer mi trabajo me cuesta trabajo. Si una  persona me interesa puedo trabajar para que se quede y no se vaya, pero eso implica que tienes que formar a las personas de recursos humanos para que se tomen la molestia de hacer esas cosas. Ese es un riesgo dentro de las empresas, porque la nueva ley de protección de datos lo que dice, resumiendo mucho, es que no se pueden tomar decisiones automáticas sobre las personas cuando la decisión tiene un impacto legal o un impacto importante sobre la persona.

Existen excepciones, de hecho probablemente estamos analizando un texto nutrido y la selección de personal sea la excepción a la regla, pero va a haber muchos casos en los que la comodidad y la tentación sean: “Bueno, si la máquina me ha dicho que esto es lo mejor que se puede hacer, teniendo en cuenta todos los datos de big data a los que tiene acceso que yo no conozco, ¿por qué me voy a molestar en intentar verificar lo que dice la máquina? La máquina tiene que tener razón, conoce los datos mejor que yo, ¿para qué voy a molestarme?”

Eso sería caer en un mundo orweliano en el que la máquina decide y nosotros dejamos que lo haga. Puede ser una solución muy buena, hasta que deja de funcionar. Si intentamos ser un poco más humanos tendremos una herramienta de análisis extraordinariamente útil y muy potente, que nos va a dar mucha información con la cual, si la utilizamos bien, podremos mejorar mucho las cosas.

Tener gente que se tome la molestia de pensar y dejarlo todo en manos de la máquina tiene que ver con la cultura de empresa y la marca de empleador. ¿Qué tipo de empresa soy? Una que no corre ningún riesgo y que en cuanto la máquina me diga que tú ya no funcionas muy bien te echo?, ¿o una que pone el énfasis en el factor humano? ¿Dónde queremos estar?

Todo depende

Vamos a ser positivos, hay mucho margen para convertir la herramienta. La tecnología en una herramienta positiva y útil, pero depende de cómo la utilicemos. Al final es como un cuchillo. Con un cuchillo se pueden hacer unos platos de cocina riquísimos o matar a alguien, ¿cómo la vamos a utilizar? Depende de nosotros, de la sociedad en conjunto. Las leyes de protección de datos buscan equilibrar la situación.  Es bastante clásico dentro de la mentalidad europea continental prever lo que puede ir mal y poner límites. Mientras que la mentalidad anglosajona es más de probar muchas cosas y dejar de hacer lo que vaya mal. Al final el resultado no es tan diferente, pero el ángulo de ataque es distinto.

La tecnología en una herramienta positiva y útil, pero depende de cómo la utilicemos”.

Respecto a la nueva LOPD, es cierto que hay empresas americanas que se han quejado de que resulta muy restrictiva, y traba sus posibilidades de hacer negocio. Sin embargo nosotros no nos quejamos, al contrario. Las empresas en general se quejan de cualquier cosa que perciban como que les va a costar más dinero, les va a llevar más tiempo o les va a dar más trabajo. Yo he escuchado a empresas europeas quejarse también y decir que esto les va a costar dinero, les va a llevar más trabajo y les va a hacer la vida más complicada.

La libertad sin límites no es libertad. Es cierto que hay empresas en EEUU y Europa que dicen: “Yo había previsto hacer una serie de proyectos de investigación con datos y ahora ya no puedo hacerlos”. Mi respuesta sigue siendo que la ley no busca que se haga o que no se haga tal cosa. Si se aplica la LOPD, esta dice que no están aquí para prohibir o no prohibir, están para evaluar si eso que se quiere hacer es razonable o no. Los responsables de protección de datos tenemos que asegurarnos de que se haga de manera correcta y que no haya abusos. A veces los que más se quejan de la policía son los ladrones.

A medida que la tecnología avance habrá más cosas que habrá que decidir si queremos o no que la tecnología las haga o que las hagan de una cierta manera”.

Ciertamente a muchas empresas esto les va a obligar a pensar, a no hacer ciertas cosas que tenían previstas, pero a lo mejor es bueno no hacerlas. Habrá grandes oportunidades y grandes riesgos, hay cosas que vamos a poder hacer, pero no porque se puedan hacer va a estar bien hacerlas. Y a medida que la tecnología avance habrá más cosas que habrá que decidir si queremos o no que la tecnología las haga o que las hagan de una cierta manera, y eso será a nivel social.

Crímenes viejos con medios nuevos

El ransomware, aunque sea una actividad criminal reciente, no deja de ser otra cosa que el viejo método del secuestro contra dinero, no hay nada nuevo en ese aspecto, está todo inventado. Es sólo que para esto se utilizan sistemas informáticos, con un alcance a nivel mundial y, en particular, con capacidad para parar hospitales enteros, como ocurrió en Inglaterra, debido a la pérdida de una parte de los sistemas informáticos; el miedo a contagiar al resto hacía necesario que se desconectara todo, pero en este caso si desconectas todo tienes que enviar a los pacientes a otro sitio. Eso es una actividad criminal clásica con medios modernos.

Con este tipo de ataques se pueden modificar datos para su propio beneficio. Sin duda podrían hacerlo, atacar sistemas bancarios y transferir dinero. La filosofía del crimen no es nueva, sólo cambian los medios. Hay varias películas que hablan de cambios de identidad o falsificación de datos. El riesgo existe realmente, no es un riesgo nuevo. El miedo vende, se venden los miedos de siempre con tecnología nueva, pero eso se ha hecho siempre. Con la tecnología van a seguir robando como siempre.

Blockchain puede ser un freno para todo eso, y podría impedir muchas de esas cosas, pero no podrá impedir un mercado negro que use blockchain. Como digo no es nuevo, es una carrera del gato y el ratón que no se acabará nunca. Nuevas tecnologías, nuevos ataques. Antes te ponían una pistola por la calle o te apuñalaban, y en el futuro pasará que sólo te robarán; quizá haya menos violencia, ciertamente seguirán siendo crímenes, aunque no tendrán tanto impacto sobre las personas. No es una lucha de igual a igual, pero es una lucha.

El miedo vende, se venden los miedos de siempre con tecnología nueva, pero eso se ha hecho siempre”.

Estos criminales, ¿podría tener la capacidad para cambiar los datos de una persona? Si, podrían, y si se consiguiera un ataque lo suficientemente preciso se podrían falsificar datos de personas. Pero lo que puede buscar una mafia criminal no es tanto modificar los datos de una persona para atacar a esa persona en concreto, pero sí modificar esos datos para su propio beneficio. Por ejemplo, imaginemos, creo que es muy difícil, pero imaginemos que consiguieran cambiar los datos de acceso a tu cuenta bancaria, conectarse a tu cuenta y hacerse una transferencia. Sigue sin ser nada nuevo, muchos de los grupos criminales atacan sistemas bancarios y lo que intentan es, de una manera u otra, transferir dinero. Antes se falsificaban papeles, ahora lo que se falsifican son sistemas informáticos.

Hay varias películas que hablan del tema, pero había una en particular de los años 80-90, con Eddie Murphy, una americana de una persona que descubre un complot y para neutralizar a esa persona le cambian la identidad, la convierten en criminal, la persigue el FBI, las cuentas bancarias se quedan a cero, su tarjeta no funciona, etc. Y no puede pedir ayuda a la policía porque las huellas dactilares las han asociado con un criminal. El riesgo es real, y si esas cosas pasaran a lo mejor no lo sabríamos porque no saldría en los periódicos, pero yo creo que los cambios de identidad y demás no son tan comunes, aunque sin duda el riesgo está ahí. Pero no es un riesgo nuevo, en eso me gustaría insistir.

La misma predicción que se usa para saber tus hábitos de compra permite también detectar cuándo algo no va bien”.

La tecnología puede aportar muy buenas herramientas para prevenir estafas, fraudes, blanqueo de capitales. Es algo que los algoritmos pueden ayudar a detectar. La misma predicción que se usa para saber tus hábitos de compra permite también detectar cuándo algo no va bien. Como decía antes, somos muy gregarios y tendemos a repetir los mismos comportamientos. Por eso los algoritmos se usan para detectar patrones, ya sea para venderte algo o para evitar una estafa.

Nosotros como empresa y como proveedores de sistemas de big data proporcionamos una herramienta que se puede utilizar de muchas maneras. Algunas empresas lo utilizarán a medias y no le sacarán todo el potencial, es una pena; otras empresas sacarán mucho potencial pero sólo por una parte, y otras empresas lo utilizarán a tope para las empresas y para los empleados. Bien utilizado todo el mundo gana, y estoy convencido de que cuando todo el mundo gana, todo el mundo gana más. Bien utilizadas permiten un avance importante y una mejora de las funciones laborales, la eficiencia de las empresas, etc.

Hacia el fin del sesgo

Para terminar, efectivamente puede haber un sesgo en los algoritmos. Depende mucho de cómo se construyan. Estoy preparando una tesis que consiste precisamente en estudiar cómo se construyen los algoritmos y qué es lo que hace que tengan más o menos sesgo. También cómo actuar en conformidad con las leyes de protección de datos, que de manera implícita lo que quieren es que no haya ningún sesgo.

En el caso de los algoritmos, aunque haya un sesgo este puede ser menor que el de los procesos manuales actuales, con lo cual puede ser una mejora aunque haya un sesgo. Conforme se vayan aplicando irán reduciendo el sesgo y, con el tiempo, podrían eliminarlo. Podría ser una herramienta extremadamente útil y potente para eliminar la discriminación por sexo, por edad, por origen… Todos somos conscientes de estos problemas, y se están haciendo cosas, pero todavía no hemos conseguido arreglarlos del todo.

No comments yet.

Deja un comentario