La inteligencia artificial es un invento maravilloso. No hay dudas sobre eso. Ofrece innumerables posibilidades de asistencia para todas las áreas de trabajo y desarrollo del ser humano. En el periodismo, por ejemplo, mejora de manera muy notable la capacidad de producción de cualquier periodista; porque ayuda a buscar información, a clasificarla, a resumirla, a escribirla, a ilustrarla y mucho más.

Las herramientas gratuitas o pagas de IA que hoy están disponibles son un verdadero paraíso para cualquier trabajador o profesional. En especial para aquellos que han pasado miles de horas de su vida sentados en una silla para concluir trabajos metódicos o repetitivos que hoy pueden ser automatizados con estas nuevas aplicaciones.

Y para los que nunca tuvimos la posibilidad de tener una secretaria o un asistente, los motores de inteligencia artificial son la revancha. El motor de IA está disponible a toda hora desde el celular o la computadora, para responder a nuestras solicitudes: resúmenes, traducciones, ideas, redacción de textos, punteo para reuniones y tantas otras cosas. Gracias a la IA, y al desarrollo de modelos de lenguaje natural (como el que usa ChatGPT) hoy todos los seres humanos podemos tener asistentes y secretarios siempre pendientes y dispuestos a nuestros pedidos. Basta pedir y ordenar de manera precisa, o facilitar la información a gestionar.

Pero claro, un avance semejante, que presenta beneficios tan notorios para todos, no podía no tener un lado oscuro. Era imposible pensar que una invención tan revolucionaria no tenga efectos secundarios con enormes riesgos para todos los que hacemos uso del invento, y por supuesto, también para toda la humanidad. Y no hace falta mirar hacia adelante, los problemas ya están entre nosotros, incluso desde hace varios años. Ya tenemos numerosas historias de conflictos que surgen por el uso de la inteligencia artificial, y que generan víctimas. Algunas más graves que otras, pero todas inquietantes y para estar alerta.

Máquinas superpoderosas

Antes de ir a las historias, vale recordar cuáles son las mayores preocupaciones de algunos de los científicos que tuvieron un rol protagónico en el desarrollo de la inteligencia artificial como la conocemos hoy. Por ejemplo, Geoffrey Hinton, informático muy destacado que es considerado el "padrino" de la IA, y que trabajó mucho tiempo para el gigante Google.

Hinton, en mayo de 2023, cuando avanzaba de manera veloz la generalización del uso del ChatGPT, expuso sus miedos a la prensa con relación a la Inteligencia Artificial. Son tres los puntos principales de su análisis.

El experto señaló que la IA será mucho más inteligente que los seres humanos muy pronto. 86 000 millones de neuronas tenemos en nuestro cerebro, y estas hacen posible 100 billones de conexiones neuronales. Pero los modelos tipo ChatGPT en poco tiempo tendrán 100 veces más capacidad de aprendizaje, por tener un algoritmo de formación mucho más efectivo que el nuestro.

"Es una nueva y mejor forma de inteligencia", sostiene Hinton. Y frente a esa realidad, historiadores como Yuval Noah Harari explican que los peligros que se abren son inciertos y muy preocupantes. Harari afirma que cuando la IA sea mucho más inteligente que nosotros, entonces podrá desarrollar lenguajes inentendibles para el ser humano.

Y en ese derrotero, será una posibilidad perder por completo el control sobre el invento. ¿Y después de eso? No hay respuesta. En la película Misión Imposible de 2023, el protagonista lucha contra una superpoderosa máquina con inteligencia artificial que no se puede apagar, y que pone a prueba a los seres humanos. En la ficción, Ethan Hunt (Tom Cruise) finalmente logra apagar al robot. Pero, ¿qué pasaría si eso ocurre en el realidad?

El otro gran temor señalado por Hinton es el posible avance de sistemas de IA cada vez más sofisticados para el desarrollo de estrategias de desinformación. Con motores dedicados a la producción de textos engañosos, según las preferencias de los usuarios, y con la posibilidad de crear falsas imágenes para fortalecer las mentiras.

Por supuesto, los autores intelectuales serán los seres humanos. Referentes del poder político o económico, con deseos de golpear a la democracia y a las instituciones. Según un informe reciente de la organización NewsGuard, que alerta sobre la desinformación en línea, ya existen decenas de sitios web de noticias falsas en varios idiomas, y que publican cientos de artículos generados por IA al día.

"Las máquinas aprenderán de nosotros. Leyendo todas las novelas habidas y por haber y todo lo que Maquiavelo escribió, sobre cómo manipular a la gente", reflexionaba preocupado Hinton.

El tercer y gran temor del informático se centra en el tema empleo. ¿Cuántos puestos de trabajo se perderán por la generalización de los motores de IA? Aún no se sabe de manera cierta. Sin embargo los pronósticos dicen que serán muchas las posiciones perdidas. Sobre este punto igualmente hay versiones opuestas entre los expertos. Están aquellos que dicen que la IA se llevará un porcentaje relevante del empleo humano. Mientras que otros señalan que no será así, y que como ocurrió con la llegada de muchas otras tecnologías, finalmente serán más los puestos creados en torno al avance, que los anteriores. Por ejemplo dicen que las tareas de gestión y control de las acciones de la IA tendrán que multiplicarse de manera vertiginosa.

Cajas negras y pesadillas fantásticas

Y ahora sí, las inquietantes historias que ya genera la Inteligencia Artificial, y en las que hay personas que son víctimas. Pesadillas fantásticas a las que tendremos que acostumbrarnos, y sobre las que los periodistas tendrán que investigar con pasión y compromiso.

Muchas tienen relación con los algoritmos que manejan los diferentes motores de IA. Es decir los sesgos que marcaron su proceso de construcción, y que luego determinaron decisiones equivocadas o con un marco discriminatorio.

Una problemática que tiene relación directa con los secretos de las tecnológicas. Porque por ahora prácticamente no hay información accesible sobre los mecanismos internos de los motores de inteligencia artificial.

Es la llamada "caja negra" de la IA. La opacidad con la que se mueven las empresas tecnológicas que los desarrollan. Las dos preguntas que siempre quedan sin responder son las siguientes: ¿De dónde surge la información que maneja la inteligencia artificial? ¿Cuáles son los algoritmos que utilizan para obtener conclusiones? Interrogantes que las compañías no responden por dos motivos: en primer lugar porque reflejan complicados recorridos de la IA (¿inentendibles también para los informáticos?), y a su vez porque exponerlos implicaría hacer públicos mecanismos que están patentados.

IA para la discriminación, la persecución o el acoso

2016:
Discriminación de género en Amazon. Una inteligencia artificial se ocupaba de analizar posibles candidatos a ocupar puestos. Pero por alguna razón el motor solo elegía hombres para las diferentes posiciones. La empresa decidió discontinuar el uso de la aplicación, porque descubrió que la máquina para decidir a los seleccionados, tomaba como modelo a los considerados mejores empleados de los últimos años por la empresa, y como eran todos hombres, evitaba en su evaluación a las mujeres. Link a la noticia:
Amazon abandona un proyecto de IA para la contratación por su sesgo sexista

2016:
Wisconsin, EEUU. Un tribunal utilizó un polémico "asistente" de Inteligencia Artificial para definir la duración de la pena de prisión que se imponía a los condenados por delitos. El motor se basaba en un algoritmo que utilizaba variables sobre el pasado de cada condenado. Y en base a eso estimaba las posibilidades que tenía de reincidir. En un caso puntual, un condenado recibió una pena de seis años de prisión, y el juez fundamentó la decisión en que el algoritmo había marcado al condenado como de "alto riesgo". Link a la noticia:
Este algoritmo sugiere a los jueces de EEUU qué condenas imponer pero su código es un secreto

2019
Francia. La organización Amnistía Internacional denunció que un juez de aquel país resolvió una condena penal por robo, fundamentada en los resultados de una sistema de IA de reconocimiento facial retrospectivo. En este caso, según Amnistía, el sistema de reconocimiento facial arrojó una lista de 200 posibles sospechosos, y en base a eso la policía determinó a la persona a la que acusó del robo, pese a carecer de pruebas físicas que lo relacionaran con el delito. Link a la noticia:
La vigilancia mediante reconocimiento facial retrospectivo encubre abusos contra los derechos humanos que pasan desapercibidos – Amnistía Internacional Argentina | Defendemos los derechos humanos

2021:
En Países Bajos, por el análisis de un motor de inteligencia artificial, familias de bajos ingresos y que reciben ayuda social estatal, fueron investigadas por ser consideradas potenciales culpables de fraude. El sistema algorítmico del gobierno holandés se utilizaba para predecir, a través del cruce masivo de datos personales, qué ciudadanos beneficiarios de una ayuda social podían estar incurriendo en un fraude. El hecho se convirtió en un escándalo político nacional en aquel país. Link a la noticia:
Tecnología contra los pobres: cómo Países Bajos señala a los barrios humildes

2023
Menores víctimas de Deep Fakes en Almendralejo, España. Niñas de 14 años descubrieron que falsas fotos de ellas desnudas jugando al volley circulaban por las redes sociales de sus compañeros de colegio. El hecho conmocionó a la sociedad de aquel pueblo y luego al país entero. Las niñas habían sido víctimas de deep fakes. Los responsables del hecho, se cree, fueron compañeros de clase que a través de una aplicación que desnuda a las personas (a través de IA generativa) construyeron las imágenes con las caras de las niñas. Sin saberlo, los adolescentes estaban incurriendo en un grave delito penal. Link a la noticia:
Spain under shock as schoolboys create fake nudes using generative models - AlgorithmWatch

2023
En Hamburgo, Alemania, se busca implementar un sistema de inteligencia artificial para evitar la violencia en los lugares públicos. Y en una plaza en particular ya se está utilizando: ante un hecho violento o sospechoso en tal sentido, la IA avisa y la policía debe actuar. Pero la experiencia demostró que la IA suele confundir los actos de los seres humanos. Y ya reportó hechos de violencia cuando en realidad se trataba de pasos de baile o afectuosos abrazos. Link a la noticia:
In Mannheim, an automated system reports hugs to the police - AlgorithmWatch

Hay muchas más. Pero las historias expuestas sirven para reflejar la magnitud de la problemática a la que nos acerca el uso de la la Inteligencia Artificial en área sensibles y con posibles víctimas vulnerables.

¿Hace falta una normativa que regule el nuevo escenario? Sí, no hay dudas. Por lo pronto la primera normativa (que debería ser un tratado internacional al que adhieran todos los países) debería obligar a las empresas tecnológicas a transparentar los algoritmos que determinan las decisiones de la IA. Y ese sería solo un punto inicial.

Atención al mundo que viene, que puede ser bastante más complicado, que el que refleja el servicial ChatGPT.

¿Hay lugar para el optimismo? Si, claro. La inteligencia artificial es maravillosa. Pero es muy claro que también puede ser muy peligrosa.

Escrito por Sebastián Di Domenica