

El vínculo natural y necesario entre ética y tecnología, y específicamente entre ética e inteligencia artificial, no se revela a primera vista. Incluso, hasta parece una paradoja que, en el mundo actual, donde se habla de avances tecnológico y de lo artificial, se esté nuevamente refiriéndose a la ética, que se relaciona exclusivamente con los humanos. Sin embargo, cada vez con más frecuencia, las empresas y los emprendimientos tecnológicos se ocupan e invierten en cuestiones vinculadas a ética, privacidad y ESG. Pues, solamente con profesionales que gocen de un fuerte sentido ético se puede esperar que la tecnología sea verdaderamente instrumental de aquello que no puede dejar de ser el centro de cualquier desarrollo tecnológico; el ser humano y el bienestar común.
Aquí, se realizan seis reflexiones para que toda innovación con IA involucre la mirada obligada, entonces, con ética, moral y también, derecho.
- Para determinar los datos a coleccionar, se debe considerar la finalidad para la que se está solicitando dicho dato al titular. Si el dato no es necesario, la recomendación es no requerirlo, puesto que ello compromete la responsabilidad del encargado del tratamiento o titular de la base de datos en función de las normas de privacidad de datos, y no coadyuba al negocio. En esta materia, muchas veces, menos, es más.
- Es necesario permitir a la parte con la que se interactúa o a quien se dirige un desarrollo de IA, conocer sobre su forma de funcionamiento, sus límites, sus usos recomendados, sus resultados no probados, sus riesgos conocidos y lo que se ha dado en llamar el “riesgo de desarrollo”. Esto apunta a que la parte que utilice un sistema de IA consienta su uso de manera informada. Cumpliendo con el deber de información y permitiendo a la otra parte ejercer su libertad de informarse, desde el punto de vista práctico se traslada, en alguna medida, el riesgo de su uso, la responsabilidad por eventuales daños y se limita la responsabilidad frente a usos indebidos. Adicionalmente, la información a revelar debe ser puesta a disposición del usuario o la parte con quien se relaciona el uso del desarrollo, de manera clara y lo más fácilmente comprensible, sin divulgar información estratégica del desarrollo.
- Se debe incorporar la mirada desde la responsabilidad al momento de desarrollar sistemas basados en IA. Al involucrar éstos, derechos humanos, su uso supone, como contracara, un deber genérico o una obligación de no dañar que debe ser siempre atendida. En todo caso, cuanta más información se suministre sobre la forma de actuación de los sistemas con IA, más factible es que el fabricante o empresario resulte eximido de responsabilidad o que su responsabilidad se vea atemperada.
- 4. Se debe incorporar la supervisión humana en todo desarrollo, como por ej. a través de mecanismos man in the loop o man on the loop,
- Las empresas y emprendimientos deben abordar la alfabetización digital de manera integral proporcionando recursos y programas de educación.
- 6. Se deben establecer claramente formas de autorregulación para evitar problemas jurisdiccionales y dar a los usuarios, soluciones rápidas que fácilmente se adapten a las cambiantes necesidades en este entorno.
Estas reflexiones tienen como objetivo el respeto de la dignidad, autonomía y libertad humana y la consecución del bien común; principios orientadores para acertar el valor ético de toda acción profesional.
Como señala Núñez Zorrilla (2019, pág. 15) “La faceta emotiva, sentimental o moral del ser humano rige, en definitiva, la mayoría de las actuaciones humanas, así como las normas que las regulan, porque es inherente a la persona misma. El problema que se plantea entonces en torno a las decisiones autónomas de los robots inteligentes es que, necesitando el hombre este valor espiritual para sobrevivir, y desarrollarse adecuadamente, y careciendo las decisiones artificiales de este componente tan trascendental, las mismas puedan ser en ocasiones contraproducentes o no convenientes para las personas”.
Así, lo más importante para innovar con responsabilidad, es fortalecer las habilidades que nos hacen humanos, la creatividad, las emociones y la inteligencia humana. Ése es un compromiso de todos y no solo de los fabricantes de IA.
Soledad García Fariña. – Corporate Secretarial, LatAm-Tata Consultancy Services
Ana Cristina Peña- Ethics & Compliance Head, LatAm- Tata Consultancy Services
Trabajos citados: Nuñez Zorrilla, M. (2019). Inteligencia artificial y responsabilidad civil. Régimen jurídico de los daños causados por robots autónomos con inteligencia artificial. Madrid: Reus.