Sesgos e inteligencia artificial: ojo al dato
“Error sistemático en el que se puede incurrir cuando, al hacer muestreos o ensayos se seleccionan o favorecen unas respuestas frente a otras”. Así define la RAE el concepto de ‘sesgo’. Pero, ¿cómo influyen estos sesgos en la Inteligencia Artificial? Cuando hablamos de sesgo en IA, lo hacemos de la misma forma que en cualquier otra actividad o área de conocimiento. Hablamos de prejuicios, de concepciones de la realidad por las cuales tomamos decisiones de forma inconsciente.
Si nos paramos a pensar, los sesgos que afectan a la Inteligencia Artificial están en los datos y los propios algoritmos. Pero cuando hablamos de datos no solo tenemos en cuenta sexo, edad o raza, que podrían ser los primeros que se nos vienen a la cabeza, sino cualquier dato referido a una persona. Y no solo eso, sino que vamos un paso más allá, refiriéndonos también a la importancia que se le da a cada uno de estos datos, así como su utilidad a la hora de estructurarlos o al propio algoritmo que escojo para operar con ellos. Otorgar una hipoteca, contratar en una empresa… el algoritmo creado para cada una de estas tareas toma decisiones, decisiones en la que en muchas ocasiones no se han hackeado esos sesgos.
Por lo tanto, es necesario que destaquemos el gran papel que poseen todas aquellas personas que trabajan con estos algoritmos, personas que tienen el poder de trabajar con esa “materia prima” que son los datos. De la misma forma que cuando vamos a construir un edificio tenemos en cuenta qué materiales utilizamos (para seguir la línea correcta en términos de sostenibilidad ambiental y seguridad y salud de los que van a habitarlo), en este caso nuestros materiales son los datos y, por lo tanto, es responsabilidad de estas personas tener un gran conocimiento acerca de la materia prima con la que trabajan: de dónde proceden, qué tipo de datos son, la calidad de los datos… Y deben conocer bajo qué parámetros un algoritmo toma la decisión. Ya que según la RGPD cualquier decisión basada en un proceso automatizado debe ser explicado en caso de que el usuario lo solicite e, incluso, en el artículo 22 del RGPD se reconoce el derecho de oposición a decisiones automatizadas o el derecho a no verse sometido a este tipo de decisiones.
“Es necesario que destaquemos el gran papel que poseen todas aquellas personas que trabajan con estos algoritmos, personas que tienen el poder de trabajar con esa ‘materia prima’ que son los datos”
Para entender a lo que nos referimos os pondré un ejemplo: si hacemos una búsqueda rápida en Google acerca de investigadores famosos de la Historia, saldrán muchos más nombres de hombres que de mujeres. Este es otro caso en el que también podemos culpar al algoritmo. De hecho, recientemente hemos visto cómo una niña le proponía a Google un algoritmo que hiciera posible que en todas las búsquedas de este tipo se incluyera al menos a una mujer científica y así entrenar también al algoritmo. Pero, volviendo al tema que aquí nos incumbe, el de los sesgos, existe una forma de solucionar este problema: hacer consciente de este asunto a las personas que trabajan directa o indirectamente con los datos. Que sean conocedoras, sobre todo, de que no existe una verdad única, sino que es necesario hacer balanceo y establecer todos los datos en una ecuación para que salga ecuánime la toma de decisión. Es decir, dentro del sesgo implícito que hay en una toma de decisión por parte de una persona, por ej. seleccionar qué parámetro tiene o no relevancia o qué algoritmo se va a emplear y que tenga el menor impacto negativo en la persona que va a recibir en esa toma de decisión.
Pero, ¿qué sucede con esas personas? Hasta ahora, en lo relativo a la IT, los ingenieros informáticos solían tener el “conocimiento absoluto”, sin tener en cuenta otras áreas de conocimiento vinculadas directamente con el usuario como sujeto, como persona. Con la Inteligencia Artificial hemos tomado un rumbo distinto: nos hemos dado cuenta de que las humanidades son relevantes. Pensemos, por ejemplo, en el papel de la lingüística para sistemas conversacionales o automatización de información, el de la ética para la regulación y el bien social, entre muchos otros campos. ¿Y a qué se debe este cambio repentino? Este cambio se debe a que nosotros podemos responder a una cuestión que las máquinas no pueden responder: la creatividad, la empatía, la intuición, los valores morales…
“Los retos que plantea la IA son tan dispares como apasionantes ya que el impacto de esta tecnología lo hace tanto en la esfera de lo personal como de lo económico-social”
Respecto a la ética o la responsabilidad de la producción de soluciones de IA pensemos por un momento en el coche autómata, por ejemplo. ¿De quién será la culpa en caso de que se produzca un accidente? ¿De quién ha desarrollado el hardware o el software? ¿A quién debe atropellar en caso de que haya varios peatones cruzando y mi coche haya sufrido una avería? Aquí nos topamos de bruces con la complejidad de la ética. Por ello, toda persona que trabaje con algoritmos, a la hora de tomar decisiones, tiene que tener en cuenta el gran impacto social que tiene su tecnología.
Hay un lugar donde los sesgos en los datos proliferan a cada segundo o milésima de segundo es en las redes sociales. Vivimos en el momento de la historia de la humanidad en el que más contenido se está produciendo y lo hacemos vía móvil, cada vez que publicamos contenidos en nuestras redes, hacemos comentarios a artículos, etc. La persona que publica en estos canales lo hace mostrando de forma consciente o inconsciente sus prejuicios, sus opiniones, su forma de ver el mundo, en definitiva, sus sesgos. Las empresas que operan con este tipo de datos para generar productos o tomar decisiones deben tener especial cuidado a la hora de tratar los datos no estructurados procedentes de las redes sociales o foros abiertos.
“Con la Inteligencia Artificial hemos tomado un rumbo distinto: nos hemos dado cuenta de que las humanidades son relevantes”
Con lo que respecta al impacto de la IA en el trabajo, otra de las cuestiones que escuchamos continuamente las personas que nos dedicamos a la IA y leemos en prensa o medios de comunicación es que esta va a destruir muchos puestos de trabajo, al automatizarse tareas y procesos repetitivos que ahora son realizados por una persona. Cierto es que van a desaparecer puestos de trabajo susceptibles de ser automatizados como ha sucedido a lo largo de la historia (por ej. repartidores de hielo, leche, sereno…) con el avance de la tecnología. Sin duda la IA es uno de los motores principales de la actual revolución industrial, cuyo gran detonante ha sido y es lo digital. Así pues esta situación nos conduce a la autorreflexión y preguntarnos: ¿qué valor diferencial con respecto a una máquina puedo aportar yo a mi trabajo o mi empresa? Por ejemplo, en un trabajo que consista en leer, entender y extraer información de documentos legales, algo que ya puede realizar con una máquina, como hacemos en Taiger. El hecho de usar una máquina para automatizar procesos va a permitir que esa persona se centre más en aportar más valor a dicho proceso, en especial, en lo relativo a su cliente puesto que va a tener más tiempo para la escucha, la estrategia, la empatía… En definitiva, al servicio personalizado y tareas de alto impacto en la esfera de lo personal y lo profesional como pueden ser la estrategia, la creatividad y la resolución de problemas, entre otros.
En definitiva, invito a cualquier persona relacionada o no con la tecnología o lo digital a conocer qué es la Inteligencia Artificial, saber cómo operan los algoritmos (de selección, de interpretación, de toma de decisiones…) que se emplean a la hora de automatizar procesos o tomar decisiones y, sobre todo, saber gestionar y conocer qué contienen los datos, la principal materia prima de la actual revolución industrial. Igual que como sociedad estamos reclamando el “no al plástico”, tenemos que empezar a hacer un alegato al “ojo al dato”.
Y por parte de las personas que trabajamos en este apasionante campo de la IA debemos ser conscientes de la naturaleza de los datos con que trabajamos o vamos a trabajar (fuente, calidad, sesgos, etc.) y qué vamos a hacer con ellos para observar su impacto socio-económico directo e indirecto. Por mi parte y, me consta que por otras personas referentes de la IA, estamos ya hablando con los responsables gubernamentales y regionales para conocer qué medidas se están tomando para hackear esos sesgos y en qué marco regulatorio se está trabajando.
Una vez que conozcamos el alcance actual de la IA, podremos estar tranquilos. Por ahora, las máquinas no tienen esa capacidad asociativa de conjugar o intuir cosas. Esas capacidades que tenemos en virtud de la experiencia. Esto tardará en llegar porque requiere un sistema cognitivo muy complejo, de entender primero y de desarrollar después, como es el caso de los chistes o las ironías, si en muchas ocasiones ya le cuesta a una persona entenderlos, imaginad a una máquina.
“Debemos ser conscientes de la naturaleza de los datos con que trabajamos o vamos a trabajar (…) y qué vamos a hacer con ellos para observar su impacto socio-económico directo e indirecto”
En definitiva, los retos que plantea la IA son tan dispares como apasionantes ya que el impacto de esta tecnología lo hace tanto en la esfera de lo personal como de lo económico-social. De ahí que cualquier perfil tengamos cabida dentro de esta tecnología. Nunca antes una tecnología había puesto tanto en valor a las humanidades, ya que si las empresas están orientadas al cliente y la personalización, qué mejor que trabajar en innovación emocional. Como decía Maya Angelou, “ la gente olvidará lo que dijiste, olvidará lo que hiciste, pero jamás olvidará cómo le hiciste sentir”.