ALERTAS
Proyecto de Reglamento de la Ley de Inteligencia Artificial
El 19 de noviembre se publicó el proyecto de Reglamento de la Ley No. 31814, Ley de Inteligencia Artificial, a efectos de recibir comentarios del público. Estos se recibirán desde el 25 de noviembre hasta el 6 de diciembre de 2024.
Destacan las siguientes disposiciones:
- Se detallan los criterios para clasificar a los sistemas basados en inteligencia artificial en aquellos de riesgo inaceptable y riesgo alto:
- Riesgo inaceptable: aquel sistema que tiene como objetivo alterar de manera sustancial el comportamiento de una persona o un grupo poblacional específico y/o aquel sistema que clasifica la fiabilidad de una persona natural o colectivo a través de la cuantificación de su conducta social.
- Riesgo alto: aquel sistema que identifica biométricamente a personas naturales; evalúa y selecciona a usuarios para el acceso a centros educativos, puestos laborales, servicios de salud y otorgamiento de créditos; apoya en la toma de decisiones judiciales y en la evaluación de riesgo de delitos; entre otros.
Como se recuerda, la Ley de Inteligencia Artificial adoptó el enfoque basado en riesgos para la gestión de las tecnologías basadas en la inteligencia artificial, en virtud del cual estos son calificados en sistemas de riesgo inaceptable, riesgo alto, riesgo medio y riesgo bajo.
- Quienes usen sistemas de riesgo alto deberán cumplir una serie de obligaciones, que incluyen la identificación y evaluación de riesgos; la implementación de medidas de gestión de riesgo; el registro del uso de las aplicaciones; la elaboración de informes; entre otros.
- Quienes utilicen softwares de inteligencia artificial deberán implementar medidas de seguridad, incluyendo encriptación de datos, detección de anomalías, robustez de los modelos, privacidad por diseño, auditorías de seguridad, y educación y concienciación.
- La Presidencia del Consejo de Ministros, a través del Centro Nacional de Seguridad Digital de la Secretaría de Gobierno y Transformación Digital, podrá realizar acciones de supervisión, incluyendo controles internos de riesgo, pruebas de penetración, monitoreo continuo y coordinaciones con los equipos de respuestas ante incidentes de seguridad digital.
Conforme a la Ley de Inteligencia Artificial, dicha entidad es la autoridad técnico-normativa responsable de dirigir, evaluar y supervisar el uso y la promoción del desarrollo de la inteligencia artificial.
Se debe tener en cuenta que el uso de sistemas basados en la inteligencia artificial debe cumplir con la legislación en materia de protección de datos personales.
Para mayor información, por favor, contactar a José Govea (jgovea@estudiorodrigo.com) y/o Francisco Baldeón (fbaldeon@estudiorodrigo.com)