En la CDMX se busca poder convertirse en una de las primeras entidades del país en presentar una iniciativa para regular la inteligencia artificial (IA) mediante una ley específica.
La iniciativa fue presentada por el Instituto de Transparencia, Acceso a la Información Pública, Protección de Datos Personales y Rendición de Cuentas de la Ciudad de México, y tiene como objetivo establecer lineamientos para el uso de esta tecnología en el ámbito gubernamental.
La nueva ley propuesta contiene alrededor de 75 artículos, un número reducido en comparación con los estándares internacionales.
Emilio Carrillo, socio en Pérez Correa González, afirma que esto puede reflejar tanto una falta de comprensión profunda de la tecnología, como un intento de cubrir lo esencial sin extenderse en detalles.
La ley se centra en tres principios fundamentales: la seguridad de los datos, la prevención de la discriminación algorítmica y la protección de los derechos de los ciudadanos. Carrillo destaca que el primer principio, la seguridad de los datos, es especialmente relevante en una época donde la privacidad es un bien cada vez más escaso.
El segundo principio, la prevención de la discriminación algorítmica, plantea cómo los datos que alimentan a los modelos de IA suelen estar sesgados, replicando y amplificando prejuicios.
La ley busca evitar esto, no se tienen las herramientas ni los recursos para auditar los modelos y garantizar que no se discrimine por raza, género, nivel socioeconómico o cualquier otra característica.
Finalmente, el tercer principio, la transparencia y auditabilidad de los sistemas, es el que enfrenta mayores desafíos, pues los sistemas de IA actuales operan como cajas negras donde es complicado determinar el proceso exacto que lleva a una decisión.
Uno de los puntos que el experto considera más preocupantes es la rapidez con la que los sistemas de IA evolucionan, dejando obsoletas las regulaciones casi tan pronto como se implementan.
Las leyes actuales de protección de datos en México, aunque establecen ciertos parámetros de privacidad, no son lo suficientemente robustas como para abordar los riesgos que la IA implica para la seguridad de los datos personales.
Además, la falta de opciones de reclamación es otro aspecto preocupante. Si un ciudadano resulta afectado por una decisión tomada por un sistema de IA, la ley no ofrece una alternativa para solicitar la revisión humana de esa decisión.
El intento de regular la IA, aunque bienintencionado, puede resultar infructuoso.
Sin una capacitación adecuada, es poco probable que los funcionarios puedan manejar correctamente los sistemas de IA o explicar sus decisiones a los ciudadanos.