Perú | Reglamento de la Ley de Inteligencia Artificial, DS 115-2025-PCM Aprueban el reglamento de la Ley de Inteligencia Artificial (Ley No. 31814).

23 Sep, 2025 | CPB, Noticias

PRINCIPIOS RECTORES

Se establecen principios rectores que deben regir el desarrollo, implementación y uso de la Inteligencia Artificial (IA) en todo ámbito. Algunos ejemplos son los siguientes:

  • No discriminación
  • Privacidad de los datos personales
  • Protección de derechos fundamentales
  • Respecto al derecho de autor
  • Seguridad, proporcionalidad y fiabilidad
  • Sostenibilidad
  • Supervisión Humana
  • Transparencia

CLASIFICACION DE RIESGOS

El Reglamento clasifica los sistemas de IA en tres categorías de riesgo:

  • USO INDEBIDO: Sistemas de IA que se usen para impactar de manera irreversible, significativa y negativa en los derechos fundamentales y bienestar de las personas. Este uso está prohibido.
  • RIESGO ALTO: Sistemas de IA cuyo uso puede suponer un riesgo para la vida humana, la dignidad, la libertad, la seguridad física y demás derechos fundamentales de las personas. Su uso se encuentra permitido sólo si se cumplen con determinadas obligaciones y medidas.
  • RIESGO ACEPTABLE: Todos los sistemas de IA que no se encuentren comprendidos en las dos clasificaciones anteriores. Su uso se encuentra permitido en cumplimiento de la normativa respectiva.

OBLIGACIONES GENERALES APLICABLES AL SECTOR PRIVADO

Se contemplan las siguientes obligaciones que deben ser cumplidas por todo desarrollador o implementador de los sistemas basados en IA:

  • Establecer políticas y procedimientos que permitan preservar la seguridad, transparencia y privacidad.
  • Fomentar la educación y concientización interna de los colaboradores respecto a los riesgos asociados al uso de IA.

OBLIGACIONES APLICABLES AL SECTOR PRIVADO PARA SISTEMAS DE RIESGO ALTO

Asimismo, se establecen obligaciones que deben ser cumplidas específicamente en el desarrollo o implementación de sistemas basados en IA de riesgo alto:

Transparencia algorítmica: Implementar mecanismos que permitan informar al usuario, de forma previa, clara y sencilla, sobre la finalidad o uso del sistema basado en IA, sus funcionalidades y el tipo de decisiones que puede tomar (por ejemplo, mediante etiquetado).

Supervisión humana: Implementar mecanismos de supervisión humana en la toma de decisiones que pudiesen implicar un impacto significativo en sectores de salud, educación, justicia, finanzas y acceso a programas y servicios básicos.

Documentación: Mantener un registro actualizado sobre los principios del funcionamiento del sistema, las fuentes de datos utilizadas y la lógica del algoritmo, los impactos sociales y éticos esperados.

SUPERVISIÓN E IMPLEMENTACIÓN

La Secretaría de Gobierno y Transformación Digital (SGTD) tendrá a su cargo realizar acciones de monitoreo y supervisión sobre  el desarrollo e implementación de sistemas de IA de riesgo alto o uso indebido, así como la identificación y provisión de cursos, programas, talleres y otras modalidades formativas para crear capacidades en IA.

El Reglamento entra en vigencia el 22 de enero del 2026.

Sin embargo, se contempla un cronograma de implementación para las obligaciones mencionadas de acuerdo al rubro de uso del sistema de IA:

  • Sectores de salud, educación, justicia, seguridad, economía y finanzas: 10 de setiembre del 2026
  • Sectores de transporte, comercio y trabajo: 10 de setiembre del 2027
  • Sectores de producción, agricultura, energía y minería: 10 de setiembre del 2028
  • Usos no incluidos en sectores anteriores: 10 de setiembre del 2026.

Si necesitas más información y saber como impacta en tu organización, escríbenos a contacto@compliancelatam.legal

Te podría interesar