Hace tres años, la inteligencia artificial era vista como una promesa, reservada para grandes empresas tecnológicas. Hoy, más de 1.200 millones de personas utilizan herramientas de IA diariamente, superando la velocidad de adopción de tecnologías como internet o los teléfonos inteligentes. En el reciente Foro Compliance Latam, surgió la pregunta clave: ¿estamos preparados en Chile para gestionar el uso responsable de la IA en un escenario regulatorio cada vez más complejo?
Según el reciente estudio AI Diffusion Report de Microsoft, Chile presenta un porcentaje de adopción de IA del 19,6% entre adultos en edad laboral, por debajo de líderes como Singapur (58,6%) y Emiratos Árabes Unidos (59,4%), pero superior a otros países de la región como México (16,7%) y Brasil (15,6%). Este dato revela que las organizaciones chilenas se encuentran en una etapa temprana de madurez digital y gobernanza tecnológica, lo que plantea desafíos y oportunidades para el cumplimiento y la gestión ética del uso de IA.
Considerando que los programas de cumplimiento dentro de las organizaciones se generan para crear confianza al interior de éstas y de cara a clientes, socios y proveedores; la irrupción de herramientas de IA generativa en el día a día invita a superar limitaciones y aprovechar el potencial de transformación.
Las limitaciones que deben superarse tienen que ver con que las empresas se enfrentan a un panorama regulatorio sumamente estricto a partir de la nueva ley de protección de datos personales, de la ley marco de ciberseguridad y de otros cuerpos normativos y, por tanto, sus políticas de cumplimiento deben ser un reflejo de esas normas o, al menos, ajustarse a ellas. Teniendo presente que las tecnologías llegaron para quedarse, van cambiando vertiginosamente y su uso es cada vez más masivo, las empresas requerirán de programas de cumplimiento adecuados y que no queden obsoletos al corto andar.
El potencial de transformación para las organizaciones, por su parte, vendrá dado por el hecho de que podemos aprovechar la propia tecnología para gestionar los riesgos y crear una gobernanza no sólo en materia de manejo de los datos, sino que de medidas para prevenir o mitigar incidentes de seguridad, así como potenciales riesgos que puedan crearse por el uso de soluciones de inteligencia artificial generativa. Es la misma tecnología la que nos puede ayudar a manejar los riesgos a través de plataformas integrales de clasificación de datos, pues no todos los datos que trata una organización tienen el mismo nivel de sensibilidad o criticidad. Adicionalmente, dado el carácter predictivo de las tecnologías de IA, es factible poder predecir y detectar los incidentes de seguridad y mitigar los daños que ocurran, evitando la pérdida y filtración de los datos y preservando su integridad, confidencialidad y resiliencia. Asimismo, la tecnología nos puede ayudar a monitorear, supervisar y auditar el cumplimiento de las políticas y la comprensión cabal de sus alcances por parte de los miembros de una organización a través de soluciones que periódicamente fiscalicen y certifiquen que la normativa ha sido digerida y adoptada por los colaboradores de una institución.
En este contexto, no basta con adoptar soluciones tecnológicas de vanguardia; resulta imprescindible que no sólo los profesionales de cumplimiento y tecnología comprendan en profundidad los términos, condiciones y códigos de conducta que rigen la prestación de estas herramientas. Este conocimiento detallado es el pilar sobre el cual se construye una gobernanza sólida, capaz de responder a los desafíos regulatorios y a las demandas éticas propias del entorno digital.
En otras palabras, la adopción de herramientas tecnológicas que permitan mapear, proteger y monitorear los activos digitales debe estar acompañada por una revisión exhaustiva de los contratos asociados. Estos documentos deben contemplar mecanismos para la supervisión continua del cumplimiento normativo, así como procedimientos para la gestión de incidentes y la preservación de la integridad de la información. El compromiso con la ética tecnológica implica, además, que las empresas promuevan la revisión humana y la explicabilidad en las decisiones automatizadas. Involucrar a equipos legales, de Compliance y de diversas áreas de la empresa desde la primera etapa de diseño de las soluciones tecnológicas es fundamental para asegurar que las decisiones tomadas por sistemas de IA sean comprensibles, auditables y alineadas con los valores institucionales.
Gestionar los desafíos regulatorios y éticos de la IA requiere una combinación de herramientas tecnológicas robustas, políticas internas claras y una cultura organizacional orientada al uso responsable. Chile y Latinoamérica deben invertir en gobernanza algorítmica, capacitación y sistemas de auditoría para alinearse con las mejores prácticas internacionales y aprovechar el potencial transformador de la inteligencia artificial de manera ética y sostenible.
Sebastián Palacios, Senior Corporate Counsel en Microsoft para Chile y Argentina.





