El derecho a saber en la era de los algoritmos: La caja negra y desafíos de la regulación de la inteligencia artificial
Por Mariana Ortiz Maciel*
¿Qué sucede cuando una máquina toma decisiones sobre una persona en la vida pública, y cómo podemos proteger nuestro derecho de acceso a la información, sin entender cómo esa información fue producida?
Los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés) son sistemas de inteligencia artificial que producen lenguaje “humano” de manera automática y fluida. Estos modelos suelen entrenarse con cantidades masivas de información para realizar tareas automáticas. Piensa por ejemplo en GPT, que es un modelo de inteligencia artificial generativa, le pides “Realiza un ensayo sobre X” y en segundos, accede a una red casi infinita de información para generarlo.
La IA se alimenta de datos masivos, muchos de ellos personales, la cuestión es si lo hace con el consentimiento de los usuarios, titulares de dichos datos, u opera de manera completamente desregulada. Se ha planteado que estos modelos de lenguaje son tan complejos, que a veces ni siquiera sus creadores pueden explicar por qué toman ciertas decisiones, es decir, hay una barrera que constituye una falta de explicabilidad, lo que necesariamente constituye un impedimento para su regulación. Porque, ¿cómo el legislador puede empezar a regular algo que en sí mismo no se explica? Aunado a ello, si la autoridad estatal comenzara a usar modelos de lenguaje para tomar decisiones públicas, cómo podríamos, como ciudadanos, ejercer nuestro derecho a saber, cómo podríamos saber la razón detrás de ciertas decisiones, no podemos estar conformes con un simple “lo decidió la IA”.
Ahora bien, otro dilema recae en la inferencia del modelo de lenguaje y la Protección de Datos Personales; si la IA se alimenta de datos masivos, y muchos de ellos son personales, es capaz de generar datos sensibles a partir de datos no sensibles. Si aceptamos los términos y condiciones de una aplicación ¿damos permiso para que nuestros datos, en el futuro, entrenen modelos de lenguaje del estado o de algún particular?
Como parte de nuestro actual sistema legal de Protección de Datos Personales, surgen los derechos ARCO (Acceso, Rectificación, Cancelación y Oposición), derechos que se ven afectados por la opacidad de los actuales sistemas de IA, a simple vista, es casi imposible que el ciudadano sepa exactamente como su información fue procesada o utilizada en una decisión predictiva.
En el último lustro, se han venido discutiendo distintas iniciativas de ley y propuestas de reformas a la Constitución relacionadas con estos modelos de IA, y actualmente, siguen en discusión o han sido descartadas. Si bien lo anterior deja una preocupación latente, no hay que olvidar que como ciudadanos tenemos el deber de exigir a la autoridad la protección de nuestros datos, al legislador el cumplimiento de su deber de regular esa protección y nosotros mismos a estar siempre informados. No es viable pensar en una distopía sino trabajar por un país en el que podamos seguir teniendo la herramienta de la transparencia y la protección de datos.
Estudiante de noveno semestre de la Facultad de Derecho UdeC.*
Forma parte del “Semillero de Formación de Jóvenes en Investigación Jurídica” coordinado por el Dr. Amado Ceballos Valdovinos
Las opiniones expresadas en este texto periodístico de opinión, son responsabilidad exclusiva del autor y no son atribuibles a El Comentario.

