Seleccionar página

En el futuro de la Inteligencia Artificial

En el futuro de la Inteligencia Artificial
No hay duda que la inteligencia artificial llegó hace rato y es para quedarse. Desde el norte de España, hablamos con Ujue Agudo y Karlos Gliberal, especialistas y observadores de estas tecnología, convencidos de la necesidad de aplicar IA a problemas concretos y no seguir amplificando viejos conceptos.
El mundo contemplado por la IA es muy limitado y sesgado, en un experimento de clasificación por imágenes y objetos, estos dos especialistas lo han demostrado.

 

¿Somos libres o no? ¿Cómo los algoritmos influyen en nuestras decisiones?

Es la gran pregunta y ese es uno de nuestros temas de interés. Saber cómo en esa relación que tenemos con la tecnología, que cada vez está más presente en nuestras vidas, cada vez nos hace más recomendaciones que no son tales, sino que son decisiones y el humano lo que hace es las valida o rechaza esa decisión.

La pregunta entonces es si estas propuestas de inteligencia artificial influyen o no en nuestras decisiones, hasta qué punto realmente somos libres de esa decisión.

Lo importante ya no es ser consciente, sino notar que esas decisiones están medidas.

Es verdad que muchas de nuestras decisiones ya están mediadas por toda nuestra cultura, la sociedad en la que vivimos, el sistema económico en el que estamos.

Hay muchas decisiones que nos vienen mediadas, pero sí que creo que con todo, al menos con esta tendencia que tenemos a la automatización de muchos procesos y muchas decisiones, cada vez vamos a decidir menos nosotros mismos y cada vez más la máquina va a decidir y que habrá situaciones en las que sintamos que la decisión final es nuestra, pero no lo es realmente.

O sea, mi sensación es que creeremos que la decisión final es nuestra, porque nosotros daremos al botón último de aceptar. Pero en realidad, el mero hecho de que nos esté recomendando algo ya habrá determinado lo que vamos a decir después.

Como observadores de la tecnología, ¿cuál es el límite entre lo útil de los algoritmos y la falta de razonamiento de la inteligencia artificial?

En términos quizás más políticos, hay más problemas. Estos debates, nosotros los expandimos y los concretamos, los expandimos hasta los límites de las periferias, y nos encontramos con grandes creaciones en el mundo artístico y cultural.

Entonces en las periferias siempre ves como esa contraposición, incluso a veces ese concepto, ese contrapoder de por qué, por qué tengo a veces una visión crítica del uso que se hace de la tecnología, en este caso los algoritmos.

Pero la realidad es que luego, cuando te pones en el plano de lo concreto, son inútiles. No se puede pensar que la tecnología nos liberará de todos los grandes problemas.

La tecnología nos llevará a una especie de sistema completamente mediado por la propia tecnología. Creo que lo que hay es complejidad y abstracción. Nosotros desde Biko, lo que intentamos es comprender eso.

Y sí que hemos descubierto que cuando la tecnología es concreta y tiene un propósito claro y una definición clara, cuando el algoritmo está explicitado, para qué se usa y cómo se usa; hay grandes beneficios. Nosotros estudiamos mucho el concepto de la responsabilidad de la predicción.

Ahí de repente te encuentras con que hay soluciones que sí que tienen sentido, pero para eso se tiene que dar la explicación de un contexto muy claro. Cuando no se da es cuando empiezan las fisuras.

Parte de nuestra actividad consiste en intentar comprenderlo y además desde miradas diferentes, no solamente de lo tecnológico.

Y ahí es donde hemos concluido que a veces el machine learning tiene usos concretos que realmente son muy potentes, incluso en tecnologías que nosotros luego hemos descubierto que tienen errores.

En términos de tecnología, ¿Qué les gustaría a ustedes que pasara?

Otra cosa que se está hablando mucho es de cómo va a ser esa interacción humano con la máquina y cuál va a ser el papel humano ahí. ¿Será nuestro papel de supervisión al final? ¿O será una decisión mediada?

Si vamos a decidir a medias con la máquina, se va a ver un sistema híbrido. A mí lo que me gustaría es un futuro en el que, como decía Karlos, esta tecnología se use para casos muy concretos, donde el problema o el tema que vas a abordar se entienda que tiene sentido que se aborde con tecnología. Porque hay muchas veces que se mete la tecnología y luego se evalúa si realmente tiene sentido. No es que se determine que tiene sentido meter una inteligencia artificial.

¿Cuál va a ser el papel del humano en ese en esa relación?

El mejor ejemplo es la discusión que hay con los autos autónomos. ¿Cual es el objetivo? Si es un híbrido, esta IA propone que el coche maneje solo – algo que el humano hace super bien – , y cuando el coche tiene un problema, le devuelve al humano el volante, que es cuando el humano realmente reacciona fatal. Entonces ¿cuál es el propósito aquí de esa tecnología?

La pregunta clave es cómo conseguir que en esa interacción realmente obtengamos algo mejor que lo que teníamos hasta ahora.

Porque para obtener lo que ya teníamos o hacerlo peor, pues mejor no lo implantamos.
Por eso apostamos a seguir encontrando esos espacios donde hay utilidad y mecanismos con un propósito.

¿Qué aspectos de este escenario son los que más los motivan?

Me ha tocado estar en muchos sectores, en muchos campos diferentes. El mundo del código, el mundo del software es el espacio creativo de los más prolíficos que hay y las posibilidades que tiene todavía en el mundo digital y especialmente del mundo de internet en la web, como plaza pública es muy potente.

Las posibilidades creativas que hay ahí de expandir y de imaginar mundos posibles, que eso es lo que hace la tecnología, todavía son muchos. Todo lo que permite esa expansión, desde ese respeto por lo básico.

No ha habido muchos momentos en la historia, sobre todo en la historia contemporánea, en la que vanguardias de distintos tipos, ya sea política, ya sea filosóficas o intelectuales, de repente abran sus posibilidades y fronteras.

Y la tecnología también lo ha hecho. Ahí es donde yo creo que en esa convivencia entre el querer usar para que ocurran cosas y que esas cosas nos puedan llevar a otros lugares, pero sin desequilibrios o incluso opresiones.

Me motiva mucha gente que utiliza la tecnología con un propósito muy humanista con la intención de que el mundo sea mejor y más vivible, eso pasa y mucho pero también pasa que muchas veces se construye para mantener o sostener procesos de desigualdad.

También molesta que a veces se crean debates innecesarios. Y eso no sirve para seguir construyendo.

Al final estamos en un entorno en el que es muy cambiante, pero la necesidad de experimentar y descubrir cosas está ahí.

Marcelo Rinesi, especialista en Inteligencia Artificial en Argentina, dice que lo que más lo enoja de este tipo de tecnologías es que aún existiendo, haya tantas personas muriéndose de hambre en el mundo. Teniendo todos estos conocimientos, ¿qué es lo que más los enoja?

A mí creo que lo que más me molesta es que en esa carrera por instalar tecnología, por demostrar la fuerza que tienen, no nos estamos haciendo el debate de realmente si los resultados que nos da esa tecnología son mejores.

Si esa tecnología lo que hace es perpetuar, por ejemplo, unos sesgos o unas discriminaciones o una situación empobrecida de gente que ya teníamos antes. Pues en realidad esa tecnología no está ayudando, no está contribuyendo y lo está perpetuando y amplificando. Entonces, en realidad no nos sirve. Sí que me parece interesante que al menos está provocando que tengamos ciertos debates.

Se suponía que esto iba a ayudarnos. Entonces que nos ayude, no discutamos cómo, pero que sea una ayuda para mantener el mundo igual de desigual que como lo tenemos hasta ahora no sirve.

¿En qué consistió el experimento con objetos e imágenes que desarrollaron?

Estábamos interesados en investigar sistemas de clasificación por imágenes y objetos. Empezamos a ver que cosas ya habían en el mercado. Nuestro interés era sobre todo descubrir cómo funcionaban los sistemas de inteligencia artificial que reconocían objetos. No era tanto detectar sexismo y eso fue lo que terminó pasando.

Lo que queríamos era entender cómo funciona la tecnología. Conseguimos una base de datos públicos en internet que tenía muchísimas imágenes, pero como no podíamos saber cuáles eran famosos o no, a menos que fueran muy conocidos. Pues lo que hicimos es utilizar el buscador de Google de imagen y echamos las fotos al buscador y veíamos si lo identificaba.

Cuando es alguien conocido te dice el nombre y esas las descartamos. Entonces, echando fotos de hombres cuando no reconocía a la persona porque no era famosa, sí que Google intentaba poner una etiqueta principal. Si era hombre la etiqueta era: “foto selfie”, “peinado que llevaba el chico”, “caballero”

Y cuando empezamos con fotos de mujeres, nos sorprendió que así como las de chicos eran bastante ricas y detalladas, las de chicas eran muy pobres. La mayoría sólo ponía “girl”.

Ni siquiera “woman”. Entonces cómo puede ser que Google que tiene el sistema de reconocimiento de imágenes y de objetos más avanzado pase esto. Empezamos a ver con más ejemplos los sesgos sexistas sobre los que estaba construido.

Pero sobre todo lo que pensamos es que funcionaba mal, pero también era como una conclusión rara por creer que era Google. Entonces al final llegamos a uno de Amazon Recognition y que también nos dio la sensación que pasaba un poco como con Google, que no etiqueta igual a las fotos de hombres y a las de mujeres. Entonces, para comprobar si era así, escogimos fotos de hombres y de mujeres que portasen objetos.

Elegimos objetos históricamente estereotipados de limpieza, martillos, taladros y lo que hacíamos era cogíamos la foto original de hombre o de mujer y la transformamos con una aplicación Faceapp que se hizo bastante famosa, que lo que hace es como cambiar el género aparente de la foto.

Teníamos una foto de una mujer portando un taladro, la pasamos por Facebook y entonces parecía que era un hombre portando un taladro y pasábamos las dos por Amazon Recognition a ver como la herramienta etiqueta la foto y si cambiaba el etiquetado en función de si era hombre o mujer.

Lo que encontramos es que el etiquetado era diferente. Por ejemplo una etiqueta para el taladro, pero la del hombre detectaba el taladro, pero a la de mujer le añadía la etiqueta de limpieza. Una foto de una mujer con martillo no le reconocía el martillo y le ponía que era un secador de pelo.

Entonces lo que vimos es que eso que el etiquetado cambiaba en función de qué género aparentemente portaban los objetos y que había algo más ahí con el malfuncionamiento, que también descubrimos que no eran muy finas funcionando, pero que además había una parte de sexismo en el etiquetado de esas fotos.

Amazon Recognition es el producto que tiene Amazon para la gente de desarrollo que quiera implementar una solución de reconocimiento de imágenes, el programador usa el producto y no tiene que crear el software.

Entonces como casi cualquier lo puede usar, era muy importante porque cualquier desarrollador puede coger este sistema y seguir replicando las mismas lógicas.

Entonces volvemos a lo que hablábamos al principio, de cómo este sesgo y en este caso el sexismo replica lo que ya socialmente estamos viviendo. Pero además, con el peligro de seguir amplificandolo.

¿Y las respuestas?

En Google trajo mucha polémica y decidieron sacar por completo el clasificado en personas. Y Amazon no lo borró completamente pero cambió la lógica y ahora es el usuario quien decide y se queda con la responsabilidad.

Nuestro objetivo como observadores es que si encontramos que algo falla pues que se mejore y si no que directamente no se use.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Suscribite

Videos

Cargando...