Webinar “¿Cómo podría Trump 2.0 transformar los negocios en Latinoamérica?

Webinar “¿Cómo podría Trump 2.0 transformar los negocios en Latinoamérica?

El pasado 05 de marzo se llevó a cabo con éxito el webinar titulado “¿Cómo podría Trump 2.0 transformar los negocios en Latinoamérica?”, organizado por Albagli Zaliasnik (AZ), Miller & Chevalier en colaboración con Compliance Latam.

Participaron como expositores Rodrigo Albagli, socio de AZ, Yoab Bitran, director de Grupo Compliance, María Lapetina, socia de la firma estadounidense Miller & Chevalier, y Facundo Galeano, asociado de la misma firma. Juntos ofrecieron una visión experta sobre los desafíos que podrían surgir en materia de compliance, regulaciones internacionales, comercio y relaciones bilaterales, en el contexto de una nueva administración estadounidense liderada por Trump.

Durante la conversación, se abordaron temas clave como el endurecimiento de políticas regulatorias, eventuales cambios en tratados comerciales, y el fortalecimiento de los mecanismos de control en las operaciones internacionales, todo lo cual impacta directamente en las estrategias de cumplimiento y gestión de riesgos de las empresas chilenas y latinoamericanas.

El evento fue una instancia valiosa para que ejecutivos, abogados y profesionales del área pudieran anticiparse a posibles escenarios y ajustar sus estrategias frente a un contexto político internacional cambiante.

Compartir:
Ley de Fomento de la Inteligencia Artificial y Tecnologías

Ley de Fomento de la Inteligencia Artificial y Tecnologías

El 25 de febrero de 2025, la Asamblea Legislativa aprobó la Ley de Fomento de la Inteligencia Artificial y Tecnologías (en adelante, la «Ley IA«). Su objetivo es impulsar el desarrollo, la investigación y la aplicación de la inteligencia artificial (en adelante, «IA«) en El Salvador, fomentando la innovación y asegurando su uso responsable para contribuir al avance tecnológico y el crecimiento económico del país. La Ley IA aplica a todas las personas naturales o jurídicas involucradas en la investigación, desarrollo y aplicación de la inteligencia artificial, así como a quienes recopilen, almacenen y procesen datos para estas actividades. 

Principios fundamentales. Los principios claves que rigen la Ley IA son: transparencia y explicabilidad, equidad e inclusión, seguridad y privacidad, responsabilidad y rendición de cuentas, y sostenibilidad ambiental.  

Creación de la Agencia Nacional de Inteligencia Artificial (ANIA). Para garantizar la correcta implementación de la Ley IA, se crea la Agencia Nacional de Inteligencia Artificial (“ANIA”), una institución autónoma adscrita a la Presidencia de la República. Sus principales funciones incluyen: 

  • Supervisar el cumplimiento de la Ley IA y gestionar el Marco Integral de Evaluación de Riesgos para sistemas que manejen datos confidenciales o personales. 
  • Administrar el Registro Nacional de Desarrollo, Innovación y Aplicación de IA. 
  • Fomentar alianzas público-privadas para el desarrollo de IA. 
  • Colaborar con el Ministerio de Educación para integrar la IA en los programas educativos. 
  • Emitir normativas técnicas de seguridad junto con la Agencia de Ciberseguridad del Estado (ACE). 

Libre Participación. Las personas naturales y jurídicas, tanto nacionales como extranjeras, tendrán la libertad de realizar directamente o participar en el desarrollo, investigación, entrenamiento e implementación de la IA y tecnologías similares en El Salvador.   

Registro y Salvaguardas. Las personas o entidades que hagan uso exclusivo de datos de dominio abierto o de su propiedad en proyectos que no busquen fines comerciales o de uso público deberán inscribirse en el Registro Nacional de Desarrollo, Innovación y Aplicación de IA para poder acceder a las salvaguardas de la ley, tales como: 

  • Uso autorizado de datos de dominio abierto para fines de investigación, sin prejuicio de recibir imposición de medidas cautelares o judiciales como limitantes; siempre y cuando, dicho uso respete la legislación aplicable. 
  • Exoneración de responsabilidad en entornos experimentales, siempre que dichas actividades no sean desplegadas comercialmente ni afecten los derechos de los usuarios. 
  • No se establecerá responsabilidad por el mal uso de IA por terceros, siempre que se hayan seguido los estándares de seguridad, ética y operatividad establecidos. 
  • Los modelos de IA (ponderaciones, datos de entrenamiento, resultados, etc.) no estarán sujetos a condiciones de licencia restrictiva que limiten la competencia, innovación o investigación. Ninguna entidad privada podrá imponer condiciones, salvo que dichas restricciones se encuentren expresas en la legislación salvadoreña. 

Si las actividades se encuentran relacionadas con funciones públicas o áreas supervisadas, deberán cumplir también con las normativas técnicas de seguridad establecidas por ACE y otras entidades competentes. 

Evaluación de riesgo de la IA y tecnologías similares. La ANIA implementará un marco integral de evaluación de riesgos que equilibre la innovación tecnológica con la seguridad pública y el bienestar social. Su cumplimiento será obligatorio únicamente para sistemas que manejen datos confidenciales, reservados o personales según la legislación vigente. Este marco será flexible para adaptarse a nuevos estándares y clasificaciones internacionales de seguridad. 

Responsabilidad en el ciclo de vida de la IA o tecnologías similares. Las partes involucradas en el ciclo de vida de la IA, incluyendo desarrolladores, implementadores, proveedores de servicios y usuarios finales, deberán asumir la responsabilidad correspondiente a su rol para garantizar un uso ético y seguro de estos sistemas. Los desarrolladores deberán diseñar soluciones que cumplan con los estándares técnicos y éticos establecidos. Por su parte, los implementadores serán responsables de su correcta aplicación y del cumplimiento de las normas de seguridad. En el caso de los proveedores de servicios, deberán garantizar una infraestructura segura, y los usuarios finales deberán emplear los sistemas de IA de manera responsable, respetando su propósito y alcance. 

Decisiones Automatizadas y Derecho a Impugnación.  Cuando se utilice la IA comercialmente o para acceder a derechos o servicios dentro de la república, se estará en la obligación de informar al usuario de sí, la decisión fue adoptada directamente por la IA o fue impulsada por esta. Además, se establecerán mecanismos para que los ciudadanos puedan impugnar dichas decisiones ante una persona natural competente, quien podrá confirmar, modificar o revocar la resolución. 

Protección de Datos Personales y Seguridad. El uso de datos personales en el desarrollo de IA deberá cumplir con la Ley de Protección de Datos Personales y con las normativas de seguridad emitidas por la ANIA y ACE. 

Protección de la propiedad intelectual en el desarrollo de IA. La propiedad intelectual de la IA, incluidas patentes, derechos de autor y secretos industriales, pertenece exclusivamente a su creador. En proyectos colaborativos, los derechos deben definirse mediante acuerdos previos. Los algoritmos, bases de datos y sistemas de IA desarrollados en el país están protegidos por la ley, prohibiéndose su uso o divulgación sin autorización del propietario. 

Libre Competencia y Desarrollo de IA de Código Abierto. Se prohíbe la imposición de restricciones arbitrarias en el desarrollo de IA de código abierto; igualmente, se fomentará la participación internacional en proyectos de IA, garantizando la colaboración y el acceso a innovaciones tecnológicas. 

Este decreto está sujeto a posibles modificaciones antes de su publicación en el Diario Oficial. La Ley IA entrará en vigencia ocho días después de su publicación en el Diario Oficial. 

Compartir:
Compliance y Responsabilidad Corporativa en la Era Digital: La Necesidad de Ética en la Tecnología

Compliance y Responsabilidad Corporativa en la Era Digital: La Necesidad de Ética en la Tecnología

La transformación digital está avanzando a un ritmo sin precedentes, impulsada por innovaciones tecnológicas como el Big Data, BLockchain y la Inteligencia Artificial. Estas tecnologías tienen el potencial de cambiar radicalmente la forma en que las empresas operan, pero también traen consigo una serie de retos complejos, tanto desde el punto de vista legal como ético. En este contexto, las organizaciones deben prepararse para enfrentar estos desafíos garantizando no solo el cumplimiento de las regulaciones, sino también un compromiso genuino con principios éticos sólidos. Este enfoque integral es esencial para garantizar la sostenibilidad y la responsabilidad a medida que las empresas navegan en un entorno tecnológico que avanza rápidamente. 

El compliance o cumplimiento normativo asegura que las empresas operen dentro de los marcos legales establecidos por las autoridades regulatorias. Sin embargo, en el contexto digital, el cumplimiento de las leyes no se limita solo a la observancia de normas locales o internacionales. La rápida expansión de las tecnologías emergentes presenta desafíos nuevos y específicos, tales como la protección de la privacidad de los datos personales y la gestión de la ciberseguridad. Con el manejo de grandes volúmenes de datos, las empresas se enfrentan a un riesgo constante de violaciones que podrían afectar la confianza de los consumidores y la integridad de la información empresarial. 

En este sentido, normativas como el Reglamento General de Protección de Datos de la Unión Europea (GDPR), han marcado un hito en la protección de la privacidad. Este tipo de regulaciones exige que las empresas no solo cumplan con la ley, sino que también implementen estrategias proactivas para proteger los datos personales y garantizar la seguridad de las plataformas digitales.  

Un componente clave en la integración de compliance y responsabilidad corporativa es la transparencia. Las empresas deben ser abiertas con sus consumidores y otros grupos de interés sobre cómo utilizan las tecnologías, cómo protegen los datos personales y qué acciones están tomando para asegurar que sus productos y servicios sean seguros. La transparencia no es solo un requisito legal, sino un factor crucial para ganar la confianza de los consumidores. En un mundo donde la información es abundante y fácilmente accesible, los consumidores están cada vez más informados y exigentes, y prefieren hacer negocios con empresas que comparten sus valores y que operan de manera ética. 

El cumplimiento normativo no debe verse como una acción aislada o meramente reactiva ante posibles sanciones. En la actualidad, las empresas deben integrar los principios éticos en el corazón de sus operaciones. La inteligencia artificial, la automatización y la ciberseguridad, por ejemplo, son herramientas poderosas que pueden mejorar la eficiencia de las empresas, pero también presentan riesgos significativos, como sesgos algorítmicos o la toma de decisiones automatizada sin supervisión humana. Estos riesgos tienen implicaciones éticas y sociales importantes que deben ser gestionadas adecuadamente, por ello es un deber de las empresas garantizar que sus sistemas sean transparentes, auditables y libres de sesgos. 

Las empresas que integran la responsabilidad social y la ética en su modelo de negocio no solo fortalecen su imagen ante los consumidores, sino que también construyen una base sólida para su crecimiento a largo plazo. Al priorizar la sostenibilidad y el cumplimiento de normativas, estas organizaciones no solo contribuyen positivamente a la sociedad, sino que también se posicionan estratégicamente en un mercado global donde los valores y la integridad son cada vez más apreciados por consumidores e inversores. De este modo, la responsabilidad social se convierte en un activo intangible que no solo genera confianza, sino que también puede ser decisiva para el éxito y la permanencia en un entorno empresarial competitivo. 

Javier Haro Head of Legal & Compliance en Chile – Perú – Argentina en Innomotics.

Compartir:
Reflexiones para innovar en inteligencia artificial con responsabilidad

Reflexiones para innovar en inteligencia artificial con responsabilidad

El vínculo natural y necesario entre ética y tecnología, y específicamente entre ética e inteligencia artificial, no se revela a primera vista. Incluso, hasta parece una paradoja que, en el mundo actual, donde se habla de avances tecnológico y de lo artificial, se esté nuevamente refiriéndose a la ética, que se relaciona exclusivamente con los humanos. Sin embargo, cada vez con más frecuencia, las empresas y los emprendimientos tecnológicos se ocupan e invierten en cuestiones vinculadas a ética, privacidad y ESG. Pues, solamente con profesionales que gocen de un fuerte sentido ético se puede esperar que la tecnología sea verdaderamente instrumental de aquello que no puede dejar de ser el centro de cualquier desarrollo tecnológico; el ser humano y el bienestar común.  

Aquí, se realizan seis reflexiones para que toda innovación con IA involucre la mirada obligada, entonces, con ética, moral y también, derecho. 

  1. Para determinar los datos a coleccionar, se debe considerar la finalidad para la que se está solicitando dicho dato al titular. Si el dato no es necesario, la recomendación es no requerirlo, puesto que ello compromete la responsabilidad del encargado del tratamiento o titular de la base de datos en función de las normas de privacidad de datos, y no coadyuba al negocio. En esta materia, muchas veces, menos, es más. 
  2. Es necesario permitir a la parte con la que se interactúa o a quien se dirige un desarrollo de IA, conocer sobre su forma de funcionamiento, sus límites, sus usos recomendados, sus resultados no probados, sus riesgos conocidos y lo que se ha dado en llamar el “riesgo de desarrollo”. Esto apunta a que la parte que utilice un sistema de IA consienta su uso de manera informada. Cumpliendo con el deber de información y permitiendo a la otra parte ejercer su libertad de informarse, desde el punto de vista práctico se traslada, en alguna medida, el riesgo de su uso, la responsabilidad por eventuales daños y se limita la responsabilidad frente a usos indebidos. Adicionalmente, la información a revelar debe ser puesta a disposición del usuario o la parte con quien se relaciona el uso del desarrollo, de manera clara y lo más fácilmente comprensible, sin divulgar información estratégica del desarrollo. 
  3. Se debe incorporar la mirada desde la responsabilidad al momento de desarrollar sistemas basados en IA. Al involucrar éstos, derechos humanos, su uso supone, como contracara, un deber genérico o una obligación de no dañar que debe ser siempre atendida. En todo caso, cuanta más información se suministre sobre la forma de actuación de los sistemas con IA, más factible es que el fabricante o empresario resulte eximido de responsabilidad o que su responsabilidad se vea atemperada.  
  4. 4. Se debe incorporar la supervisión humana en todo desarrollo, como por ej. a través de mecanismos man in the loop o man on the loop, 
  5. Las empresas y emprendimientos deben abordar la alfabetización digital de manera integral proporcionando recursos y programas de educación. 
  6. 6. Se deben establecer claramente formas de autorregulación para evitar problemas jurisdiccionales y dar a los usuarios, soluciones rápidas que fácilmente se adapten a las cambiantes necesidades en este entorno.

 Estas reflexiones tienen como objetivo el respeto de la dignidad, autonomía y libertad humana y la consecución del bien común; principios orientadores para acertar el valor ético de toda acción profesional. 

 Como señala Núñez Zorrilla (2019, pág. 15) “La faceta emotiva, sentimental o moral del ser humano rige, en definitiva, la mayoría de las actuaciones humanas, así como las normas que las regulan, porque es inherente a la persona misma. El problema que se plantea entonces en torno a las decisiones autónomas de los robots inteligentes es que, necesitando el hombre este valor espiritual para sobrevivir, y desarrollarse adecuadamente, y careciendo las decisiones artificiales de este componente tan trascendental, las mismas puedan ser en ocasiones contraproducentes o no convenientes para las personas”. 

 Así, lo más importante para innovar con responsabilidad, es fortalecer las habilidades que nos hacen humanos, la creatividad, las emociones y la inteligencia humana. Ése es un compromiso de todos y no solo de los fabricantes de IA.   

Soledad García Fariña. – Corporate Secretarial, LatAm-Tata Consultancy Services 

Ana Cristina Peña- Ethics & Compliance Head, LatAm- Tata Consultancy Services 

  

Trabajos citados: Nuñez Zorrilla, M. (2019). Inteligencia artificial y responsabilidad civil. Régimen jurídico de los daños causados por robots autónomos con inteligencia artificial. Madrid: Reus. 

  

Compartir:
Consultas Absueltas por la SUPERINTENDENCIA DE PROTECCIÓN DE DATOS PERSONALES

Consultas Absueltas por la SUPERINTENDENCIA DE PROTECCIÓN DE DATOS PERSONALES

ASPECTOS RELEVANTES: 

La Superintendencia de Protección de Datos Personales (“SPDP”), ha dado un paso trascendental al publicar sus primeras cinco resoluciones en respuesta a las consultas del público. Esta iniciativa marca un hito importante en la evolución del sistema de protección de datos personales del país, ya que establece precedentes interpretativos que ayudarán, tanto a ciudadanos como a organizaciones, a comprender mejor sus derechos y obligaciones en esta materia. Los temas tratados en las consultas son los siguientes:

  • Reconocimiento de Buenas Prácticas en Protección de Datos.
  • Proceso de Verificación de la Designación del Delegado de Protección de Datos (“DPO”).
  • Aplicación del uso del Código Dactilar en Nombramientos de Representantes Legales.
  • Trazabilidad de Tarjetas de Implante y su tratamiento.
  • Documentos Notariales y Acceso a Terceros.

RESUMEN DE LAS CONSULTAS DE LA SUPERINTENDENCIA 

  1. Consulta 01: 2024- Reconocimiento de Buenas Prácticas en Protección de Datos: 

Consulta: Actualmente, la SPDP no ha establecido procedimientos ni normativa para el reconocimiento de buenas prácticas contemplado en la tercera disposición transitoria de la Ley Orgánica de Protección de Datos Personales (“LOPDP”). No existen criterios definidos, requisitos documentales, cronogramas o ventajas específicas para su obtención. ¿Cuál es el procedimiento aplicable para responsables y encargados del tratamiento que buscan obtener el reconocimiento por buenas prácticas?; ¿Qué consecuencias concretas o beneficios tangibles se derivan de la obtención del reconocimiento de buenas prácticas?

ronunciamiento: La Superintendencia no puede emitir un pronunciamiento sobre este tema hasta que se publique la regulación correspondiente. Se sugiere presentar una nueva consulta una vez que la normativa haya sido emitida.

  1. Consulta 02: 2024- Proceso de Verificación de la Designación del Delegado de Protección de Datos: 

Consulta: Actualmente, no se ha implementado un sistema formal para validar el nombramiento del DPO. La normativa vigente no especifica los procedimientos, requisitos documentales ni fechas límite para este proceso de verificación. ¿Existirá un procedimiento de verificación orientado al control de cumplimiento de dicha obligación?; ¿Cuáles son los documentos y evidencias que deberán presentarse para sustentar el cumplimiento de la obligación?

Pronunciamiento: Si bien aún no se ha emitido la normativa correspondiente, la obligación de designar un DPO según la LOPDP debe cumplirse, independientemente de que no exista aún una normativa específica sobre el proceso de verificación.

  1. Consulta 03: 2024- Aplicación del uso del Código Dactilar en Nombramientos de Representantes Legales: 

Consulta: ¿Se afecta el derecho a la protección de datos de carácter personal, previsto en el artículo 66, numeral 19 de la Constitución de la República, por la disposición reglamentaria del uso del código dactilar junto al número de cédula de ciudadanía para la emisión de nombramientos de representantes legales de las sociedades controladas por la Superintendencia de Compañías, Valores y Seguros?

Pronunciamiento: El código dactilar constituye un dato biométrico sensible según la LOPDP. Su requerimiento es excesivo dado que el número de cédula es suficiente para identificar al representante legal. Esta exigencia contradice los principios de necesidad, proporcionalidad y minimización de datos, por lo que se recomienda eliminar este requisito para proteger adecuadamente los datos personales.

  1. Consulta 04: 2024- Trazabilidad de Tarjetas de Implante y su tratamiento: 

Consulta: ¿Cuál es el proceso de tratamiento de datos personales que deben seguir los establecimientos de salud, fabricantes, y/o titulares de registros sanitarios en relación con la trazabilidad de las tarjetas de implante?

Pronunciamiento: El procesamiento de esta información exige el estricto cumplimiento de los principios establecidos en la LOPDP, junto con la obtención del consentimiento informado por parte del titular de los datos. La recopilación y manejo de información debe limitarse exclusivamente a aquellos datos que sean indispensables para asegurar la trazabilidad efectiva de los dispositivos médicos. Este seguimiento tiene como objetivo fundamental permitir la rápida identificación y ubicación de los dispositivos médicos implantados cuando se presenten situaciones adversas que puedan comprometer la salud del paciente.

  1. Consulta 05: 2024- Documentos Notariales y Acceso a Terceros: 

Consulta: ¿Debe un notario entregar copias, testimonios o compulsas de documentos a cualquier persona?

Pronunciamiento: Conforme al artículo 40 de la Ley Notarial, cualquier individuo tiene el derecho de solicitar copias de escrituras públicas. No obstante, para cumplir con lo establecido en la LOPDP, es aconsejable obtener el consentimiento de los titulares para el tratamiento de sus datos personales cuando se presten servicios notariales. Asimismo, las personas externas que deseen acceder a escrituras públicas no están obligadas a formalizar un contrato con el titular ni con el notario, quien, en este contexto, actúa como responsable del tratamiento de los datos.

Compartir: