Seleccionar página

“Hay que abrazar la incertidumbre”

Oct 4, 2024 | Ciencia e investigación, Facultad de Ingeniería, Investigación

¿Qué tienen que ver los resultados de las recientes elecciones en Venezuela, la autonomía de los carros, enamorarse de un chatbot o que un crédito bancario sea autorizado? La respuesta, aparentemente, es sencilla: todas estas actividades están afectadas por los datos, ahora, lo que complica esa ecuación es que, cada una de ellas, tienen sesgos.

Ricardo Baeza-Yates (1961) es un investigador chileno con una amplia formación en ciencias de la computación, considerado autoridad mundial en este campo, quien en su trayectoria se ha desempeñado como vicepresidente de investigación de Yahoo Labs, es actualmente profesor de investigación en el Instituto de Inteligencia Artificial Experiencial de la Universidad Northeastern en Silicon Valley, además de ser catedrático en la Universidad Pompeu Fabra en Barcelona y en la Universidad de Chile.

Ricardo Baeza-Yates estuvo en Bucaramanga, el pasado mes de agosto, como conferencista invitado a la presentación del Smart Regions Center y la Maestría en Ciencia de Datos / Foto Pastor Virviescas

Baeza fue galardonado, en agosto pasado, con el Premio Nacional de Ciencias Aplicadas y Tecnológicas 2024, por el Ministerio de Educación en su país natal, Chile, debido a su contribución “al área de la computación, a la minería de datos, y en particular hemos valorado el trabajo que ha hecho sobre la ética en el uso de datos y también de la inteligencia artificial, lo cual es muy pertinente a los tiempos que hoy día vivimos”, se lee en los apartes del máximo reconocimiento.

Días antes de hacerse público el premio, este experto en sistemas algorítmicos responsables, fue uno de los invitados al lanzamiento del proyecto Smart Regions Center (SRC), liderado por la Universidad UNAB, y la Maestría en Ciencia de Datos, próxima a iniciar actividades. El profesor Baeza, que no pierde su acento a pesar de llevar un tercio de vida fuera de su país, habló sobre los imaginarios que se han construido alrededor de la inteligencia artificial así como el papel que cumplen los sesgos en la información que hoy circula por todas partes.     

Un analista internacional, Moisés Naim, escritor y columnista, advirtió en una entrevista que concedió recientemente, que “hay que seguirle la pista a la incertidumbre de la inteligencia artificial”, ¿así es de complicado este tema?

Es un tema que a los seres humanos no nos gusta, pero que tenemos que vivir con él. Yo creo que hay que abrazar la incertidumbre, en Latinoamérica tenemos la capacidad de improvisar, pero hay personas que no pueden manejar la incertidumbre y ese es un problema. Es un tema que vamos a tener que manejar más, porque no solamente la inteligencia artificial genera incertidumbre, sino el cambio climático, la política, la falta de energía, es decir, vamos a tener más cambios de los que estamos acostumbrados, es un tema que estaba ahí pero no habíamos tomado conciencia de lo importante que era.

Primero fue la aparición de internet, luego la revolución del Internet de las Cosas (IoT), las webs 2.0 y 3.0, y apareció de repente una cosa que se llamó inteligencia artificial y, en el último año, nos puso a todos hablar de eso, ¿en qué momento se nos volvió un tema de primer orden?

Fue el 30 de noviembre del año 2022 cuando salió la versión 3.5 de ChatGPT, y que permitió que la inteligencia artificial estuviera mucho más cerca de cualquier persona, que aunque tiene más de 70 años, no estaba tan cerca porque no era tan fácil usarla. Cuando tú puedes hacerlo para escribir una carta en cien idiomas, eso te cambia la vida porque te permite oportunidades que antes no tenías, sin saber nada de informática, y yo creo que eso es la diferencia principal. El problema es que mientras más se acerca a nuestro cerebro más humana la vemos, cuando solamente es una imitación de nosotros mismos, como un espejo que no distinguimos, pensamos que somos nosotros mismos, pues nos gusta jugar a ser dioses un poco, pero la lucidez humana tiene que ver con recordar que estas son tecnologías que no piensan, que no tienen conciencia, que no leen, que no escriben, pero nos imitan tan bien como si fuera un loro que dice ‘buenos días’, ahora, si el loro dice ‘buenos días’ solamente en la mañana, ya está entendiendo algo, si lo dice en la noche no entiende nada, y un poco la inteligencia artificial es así.

¿Eso quiere decir que, para tranquilidad de los seres humanos que no entendemos más allá del chatGPT, no es que de pronto las máquinas dentro de un mes, uno o cinco años, van a cobrar vida y van a eliminar a la civilización?

Terminator está lejos, no tienen autonomía, no tienen intenciones, de hecho cuando hacen daño ni siquiera supieron que hicieron daño, lo que pasa es que como imitan tan bien las acciones que toman, pueden tener un impacto parecido a lo que sería una persona. Una metáfora que yo uso es el ADN, porque yo creo que a la gente le cuesta entender que como escribe tan bien, y parece que entiende, es igual a nosotros, bueno, es parecido al ADN, por ejemplo, entre un ratón y un ser humano, hay como un 1 % de diferencia genética, pero piensen todas las diferencias que hay entre un ratón y un ser humano: hablar, pensar, tal vez hay animales de seguro que piensan y quizás que hablan, como las ballenas, pero ese 1 % hace mucha diferencia. La broma que hago es que tal vez las ballenas son tan inteligentes que se hacen las tontas para que no las extingamos, así que una pequeña diferencia puede hacer mucha desde el punto de vista, por ejemplo, de la comprensión y la confianza.

El profesor presentó la conferencia Inteligencia Artificial Responsable en su visita a la Universidad UNAB / Foto Pastor Virviescas

Hay otro aspecto que es el de los daños que pueda causar, y claramente está en el terreno de los seres humanos quienes somos los que manejamos este tipo de tecnologías, ¿de 1 a 100 en dónde estamos en la gobernanza de la inteligencia artificial?

Buena pregunta. Hay un famoso biólogo, Edward Wilson, que el año 2009 hablando de la humanidad, dijo “tenemos emociones paleolíticas”, todavía somos instintivos, como en nuestros comienzos, “instituciones medievales”, como los gobiernos, y por eso es que los datos son tan malos. Y “y tecnologías mágicas”, como la inteligencia artifical. Hay una brecha entre esta tecnología y como vemos el mundo, mientras no cerremos esas brechas, que no son tecnológicas, sino sociales, con problemas culturales, va a ser muy difícil. Por eso yo hablo del daño, porque hoy en día se usa para muchas cosas que no debería usarse, por ejemplo para contratar personal, hay muchos sistemas que analizan una entrevista, el video, emociones, estereotipos que tienes y, de repente, deciden que tú eres la mejor persona para el cargo de periodista de la universidad, y puede que eso no sea tan cierto, estamos haciendo muchas suposiciones pseudocientíficas y también faltas éticas, por ejemplo con aplicaciones que no son legítimas. A veces es mejor tener errores humanos que tener errores de las máquinas, es decir, que ningún ser humano los va a cometer, por ejemplo, la mayor parte de la gente que ya ha fallecido por carros autónomos, son errores que una persona habría evitado, como reconocer a una mujer cruzando de noche en bicicleta, no ver un camión blanco sobre un fondo nublado o no entender que soy una persona que se saca la chaqueta y la camiseta debajo dice alto, esos son los errores que cometen los modelos porque no tienen ese sentido común que tenemos las personas.

Y eso me lleva entonces a hacerle otra pregunta, que tiene que ver con los sesgos, una palabra que hemos utilizado mucho en los últimos años, especialmente sobre las redes sociales, que se crean ciertos grupos con afinidades que nos unen, ¿ese es uno de los grandes problemas?

El sesgo es mi especialidad, empecé a trabajar en esto hace más de 15 años, mucho antes de que fuera popular. El primer sesgo que tenemos es que siempre pensamos que es algo negativo, pero el sesgo es en un principio neutro, hay sesgos que son vitales, por ejemplo, mirar a ver si viene un carro antes de cruzar una calle. Podemos distinguir entre los sesgos estadísticos, que son los de medición y que sabemos tratarlos muy bien, pero tenemos los sesgos culturales donde cada país, por ejemplo, tiene sus propias creencias, y finalmente tenemos lo más peligrosos, que son los sesgos cognitivos de las personas, que hay más de 100, incluyendo el sesgo de confirmación: veo algo que es lo que yo creo, entonces lo refuerzo, y ese es el sesgo más importante que usan las noticias falsas, y hoy en día, con la tecnología actual de inteligencia artificial, se puede imitar cualquier cosa, como un vídeo perfecto de Petro diciendo lo que tú quieras, es decir, ya no podemos creer en nada digital porque el texto se puede inventar, la imagen se puede inventar, los vídeos se pueden inventar y las voces se pueden inventar, entonces es un mundo mucho más complicado y esto es parte de la incertidumbre, tal vez la más importante, y la otra tiene que ver con la salud mental, con que humanizamos tanto estas cosas, que nos convertimos en la película Her donde una persona se enamora de su celular, pero puede ser peor. Por ejemplo, en marzo del año pasado, una persona se suicidó conversando con un chatbot que le sugirió que se matara, la persona tenía problemas mentales y pensaba que en el más allá se iba a encontrar con el chatbot, que era una mujer, hizo algo que no debería haber hecho, pero que tal vez no habría ocurrido si hubiera hablado con un profesional, y esta persona tenía esposa y dos hijos, o sea, no es daño a sí mismo sino que es a una familia. El daño que no vemos es el que no tiene un grupo demográfico específico.

En la foto aparecen, junto al profesor Baeza-Yates, la directora del Centro de Desarrollo Tecnológico (Smart Regions Center), Liliana Calderón Benavides, y la investigadora de la Universidad de Antioquia, Gina Paola Maestre Góngora / Foto Pastor Virviescas

¿Los datos se pueden gobernar? se lo pregunto por dos situaciones, la primera, en noviembre en Medellín Colombia va a ser sede del V Encuentro Mundial de Gobierno de Datos de Naciones Unidas, pero en el país vecino se llevaron a cabo unas elecciones y allí los datos no aparecen, o corrijo, aparecieron unos pero no los oficiales ¿se pueden gobernar los datos?

Sí, por supuesto que se pueden gobernar, es un asunto de voluntad, pero, por supuesto, hay que tener resguardo para que no puedan corromperse, que sean muy seguros, todo el tema de ciberseguridad es muy importante, algunos tienen que ser privados también, que se mantenga la privacidad, pero todavía no hay estándares sobre eso en todo el mundo. Ahora, aunque gobernemos los datos no se nos acaban los problemas, porque es parte del tema de los sesgos, que están en los modelos mismos, aunque los datos sean los correctos, el sistema puede generar un sesgo que nunca pensamos que podría aprender, que hay ejemplos ya reales, sesgos de popularidad, sesgos de exposición, que hacen que todas las plataformas de comercio digital no sean muy justas, es decir, que hay personas o empresas discriminadas, pero nunca se dan cuenta, y las plataformas están contentas porque igual ganan suficiente dinero, así que es un círculo vicioso que a nadie le interesa resolver.

Por último, ¿cuál es el papel de las universidades, de los centros como este que usted vino a visitar, en temas como el desarrollo de la inteligencia artificial, pero también que asusta o preocupa, como la ética para el manejo de este tipo de herramientas?

Cualquier aplicación tiene que ser ética. Yo fui uno de los dos autores principales de los nuevos principios de Association for Computing Machinery (ACM), la sociedad de computación científica y educativa más grande del mundo. Los principios para los sistemas algorítmicos responsables, no solamente aplican a la inteligencia artificial, porque uno puede hacer daño con cualquier software. El primer principio que yo impulsé mucho es el que se llama legitimidad y competencia, es decir que tengas el permiso para hacerlo, la competencia administrativa y también competencia técnica, etcétera, todas las posibles competencias, pero la parte de legitimidad significa demostrar que, socialmente, la aplicación tiene más beneficios que daños, como si fuera una vacuna del Covid: sí, van a morir algunas personas mayores pero el 99 % de las personas se van a salvar. Por ejemplo, hoy en día para créditos bancarios, quién dijo que datos de otra persona pueden usarse para predecir el comportamiento de una persona joven que va al banco y le dicen “lo siento”, no le dan un préstamo, ¿por qué? Porque los jóvenes son muy riesgosos, pero tal vez ese joven era el mejor cliente que podían haber tenido en el futuro, pero no tuvo la oportunidad, entonces yo creo que este tipo de discriminaciones, invisibles, están ocurriendo todo el tiempo.

Ir al contenido