Inteligencia artificial: «Qué adolescente está predestinada a quedar embarazada»

¿Qué será lo próximo? es la pregunta que nos hacemos frente al aluvión de noticias sobre inteligencia artificial que actualmente inundan los titulares. Sin embargo, en 2018 esta tecnología, que rompe esquemas, pasaba más inadvertida. Por entonces, el Ministerio de Primera Infancia de la provincia de Salta, en Argentina, y el gigante estadounidense Microsoft, presentaron un sistema algorítmico para predecir el embarazo adolescente. Una aplicación pionera en este campo, a nivel estatal, que llamaron «Plataforma Tecnológica de Intervención Social». Sin embargo, los medios desvelaron que sus implicaciones eran mucho más inquietantes.

Juan Manuel Urtubey, el que fuera era el gobernador de Salta, declaraba abiertamente en la televisión: «Con esta tecnología se puede prever con cinco o seis años de anticipación, con nombre, apellido y domicilio, qué chica está predestinada en un 86% a tener un embarazo adolescente». No obstante, una vez obtenidos los resultados, no detallaron qué pasaría después. Y además, las variables en las que se basaba el funcionamiento de esta IA eran poco transparentes.

Fue Wired quien destapó el caso y detallaba que la base de datos del sistema se construyó con 200.000 residentes de la ciudad de Salta, incluidas 12.000 mujeres y niñas de entre 10 y 19 años, accediendo a información personal y sensible como la edad, etnia, país de origen, discapacidad y si la vivienda disponía de agua caliente en el baño.

Además confirmaron que «agentes territoriales» hicieron visitas a las casas de las niñas, donde realizaron encuestas, tomaron fotos y registraron sus ubicaciones en el GPS. Y se indica que la idea de esta vigilancia de cerca era usarlo en los barrios pobres de la zona y monitorizar también a los inmigrantes y a los indígenas.

La ausencia de una regulación de la IA en Argentina ha impedido una revisión formal y exhaustiva de la IA usada. Así como examinar su impacto sobre las adolescentes que salieron etiquetadas por el sistema. Tampoco quedó claro si la utilización del programa se eliminó por completo.

Y el Laboratorio de Inteligencia Artificial Aplicada de la Universidad de Buenos Aires dejó en evidencia los errores de diseño de la plataforma y rechazó que el porcentaje de certeza de las predicciones fuera tan alta como se había declarado. Y uno de los investigadores matizaba que este tipo de problemas pueden llevar a los políticos a tomar decisiones erróneas.

Otro caso de inteligencia artificial usada a nivel estatal fue el del Gobierno holandés tuvo que dimitir al completo en febrero de 2021, por un fallo del sistema de IA que detectó erróneamente un fraude en los subsidios para cuidar niños acusando a 26.000 familias. Esto generó una bola de nieve e hizo que el gobierno dimitiera. Por eso, hay preguntas que son importante hacerse antes de decidir usar un sistema que puede equivocarse.

El sistema de IA usado en Argentina fue promocionado como ‘futurista’. Los expertos que analizaron este caso llegaron a mencionar que detrás de ello hay un persistente impulso eugenésico gestionada por unos pocos.

Versión extrema

China va todavía más allá en el uso de la tecnología, con vigilancia genética, para determinar qué ciudadanos estarán predispuestos a sufrir una enfermedad concreta. Y con el programa `exámenes médicos para todos´ Amnistía internacional y otros denunciaron que en Sinkiang se recogió de manera forzada muestras de sangre, escaneo de rostro y grabación de voz estando detrás de ello el uso de inteligencia artificial para hacer un mapa genético y una monitorización de la población.

Bajo la lupa

Sobre las implicaciones de noticias como las de Argentina, Rafael Amo, director de la Cátedra de bioética de la Universidad Pontificia Comillas, señala que la más evidente es la falta de respeto a la intimidad de las personas que se deriva del principio bioético de la autonomía.

Los Estados Unidos, y especialmente la Unión Europea están desarrollando planes para auditar los sistemas algorítmicos. Y Amo especifica muchos intentos por hacer una legislación de la inteligencia artificial que sea robusta y confiable, supone controlar los datos. Porque la inteligencia artificial se alimenta de ellos y se han convertido en el oro líquido de este momento. Y lo primero que debe hacer toda regulación de la IA es encargarse de proteger la intimidad.

Por ello Amo recalca que «por autonomía tenemos derecho a la confidencialidad de nuestros datos, especialmente los de salud. Y violentar esta cuestión supone quebrar ese acuerdo. Y si además esto se produce en el caso de menores y con la gente más vulnerable, eso supondría al final el control de los más débiles».

Enlace de origen : Inteligencia artificial: «Qué adolescente está predestinada a quedar embarazada»