Política Corporativa de Desarrollo y Uso Responsable de la Inteligencia Artificial
Introducción
El Consejo de Administración de Human Affinity Platform S.L. (en adelante, “Kymatio” o la “Sociedad”) tiene atribuida la competencia de diseñar, evaluar y revisar con carácter permanente el Sistema de Políticas y estrategias generales de la Sociedad.
La presente Política Corporativa de Desarrollo y Uso Responsable de la Inteligencia Artificial tiene por objeto la asunción por parte de Kymatio del compromiso de desarrollo y uso de la Inteligencia Artificial (IA) de manera responsable, transparente, segura y fiable, alineando sus prácticas con la normativa vigente y los valores corporativos, así como con los más altos estándares de seguridad y privacidad.
El desarrollo e implementación de las herramientas de IA es un elemento esencial para la creación de valor sostenible, así como para la estrategia de innovación y transformación digital de Kymatio.
Por ello, Kymatio reconoce la importancia de promover su uso responsable de acuerdo con los valores y los principios perseguidos basados en una ética y compromiso con la sostenibilidad.
Definiciones
A los efectos de la presente Política se tendrán en cuenta las siguientes definiciones:
- Datos personales: Toda información que permite identificar o hacer identificable a una persona física, de manera directa o indirecta (nombre, identificación, correo, teléfono, IP, biometría, imágenes, voz, geolocalización, hábitos de navegación, etc.).
- Inteligencia Artificial (IA): Rama de la informática dedicada al diseño de sistemas capaces de realizar tareas que tradicionalmente requieren inteligencia humana (razonamiento, lenguaje natural, reconocimiento de patrones, aprendizaje de datos, toma de decisiones).
- Herramienta de IA: Software, plataforma o sistema que utiliza algoritmos de IA para cumplir funciones específicas (procesamiento de lenguaje, análisis de datos, predicciones, generación de contenido, etc.).
- Inputs: Datos, instrucciones o contenidos que el usuario proporciona a una herramienta de IA (texto, voz, imágenes, código, etc.).
- Outputs: Resultados generados por la herramienta de IA tras el procesamiento de los inputs (respuestas, resúmenes, predicciones, imágenes, decisiones). Deben ser evaluados críticamente por el usuario.
- Procedimientos de uso de herramientas IA: Conjunto de pasos, pautas o protocolos que deben seguir los usuarios para garantizar un uso responsable, seguro, transparente y ético de la IA.
- Reglamento de Inteligencia Artificial: Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, que establece normas armonizadas en materia de IA.
- Tratamiento de datos: Operaciones realizadas sobre datos personales (recolección, organización, almacenamiento, modificación, consulta, uso, difusión, eliminación, etc.), sujetas a una gestión responsable.
- Usuario: Persona que interactúa con una herramienta de IA, física o representante de una organización, responsable de un uso ético y conforme a procedimientos.
- Responsable del uso de herramientas IA: Persona o entidad designada para supervisar, coordinar y asegurar el uso correcto y conforme a la normativa de las herramientas de IA.
- Transparencia de IA: Principio de hacer comprensibles, accesibles y verificables tanto el funcionamiento como los resultados de un sistema de IA.
Objeto de la Política
El objetivo de esta Política es establecer un marco normativo y ético que guíe el desarrollo, implementación y utilización de herramientas y sistemas de IA en la empresa.
Se pretende:
- Garantizar que el uso de la IA respete los derechos fundamentales, promoviendo la equidad, la inclusión y la no discriminación.
- Cumplir con la normativa vigente en protección de datos, privacidad y regulaciones específicas sobre IA.
- Promover transparencia, trazabilidad y explicabilidad en los sistemas de IA.
- Definir roles y responsabilidades claras para el uso y supervisión de IA.
- Impulsar capacitación y sensibilización sobre riesgos, limitaciones y buenas prácticas.
- Prevenir impactos negativos por usos indebidos o no éticos.
- Fomentar la IA como herramienta estratégica para mejorar procesos, productos y servicios, dentro de un marco ético y sostenible.
Esta Política se aplica a todos los colaboradores, departamentos y unidades de negocio que utilicen, desarrollen o integren herramientas de IA, ya sea de forma directa o mediante terceros.
Ámbito de aplicación y marco normativo
La presente Política resulta de aplicación a todas las entidades y personas trabajadoras que integran Kymatio, vinculando a todo el personal, interno o externo, involucrado en proyectos relacionados con IA.
Se ha elaborado con base en la normativa europea sobre IA, concretamente el Reglamento de Inteligencia Artificial (UE 2024/1689), que establece un marco regulador completo centrado en riesgos asociados al uso de algoritmos, promoviendo su desarrollo responsable y protegiendo derechos fundamentales, privacidad y seguridad.
Principios generales de Inteligencia Artificial responsable
Kymatio se compromete a mantener el más alto estándar ético en la contratación, uso y desarrollo de IA, garantizando que todas las IA empleadas cumplan con los principios éticos de la Sociedad.
Los principios que rigen esta Política son:
Principio de respeto a la autonomía humana
Garantizar la libertad y autonomía individual en los desarrollos de IA, potenciando capacidades humanas y asegurando supervisión y control humano en todo proceso.
Principio de prevención del daño
Los sistemas de IA no deben causar daño ni afectar negativamente a las personas, garantizando dignidad y bienestar físico y mental, además de ser técnicamente seguros y no maliciosos.
Principio de equidad
El desarrollo y uso de la IA debe ser justo, con distribución equitativa de beneficios e impactos, evitando sesgos y discriminación. Se permitirá cuestionar decisiones de IA y dirigir objeciones a responsables humanos.
Principio de explicabilidad
Los procesos de IA deben ser transparentes, comunicando de forma clara objetivos y capacidades de los sistemas.
Principio de formación y sensibilización
Los desarrolladores deben recibir formación en aspectos legales, éticos, conductuales y de seguridad, asegurando un uso seguro para el usuario final.
Herramientas de Inteligencia Artificial
Herramientas de IA corporativas
- Deben ser aprobadas por el Comité Interno de Seguridad de la Información e Inteligencia Artificial.
- Se proporcionan para uso profesional.
- Su uso personal o privado está prohibido.
- Solo pueden utilizarse desde dispositivos previamente autorizados.
Procedimiento de identificación y aprobación
La selección y validación corresponde al Comité, basado en criterios de seguridad, legalidad, transparencia y alineación con valores de Kymatio.
Registro y divulgación
El Comité mantiene un inventario actualizado de herramientas autorizadas e informa periódicamente a los profesionales.
Riesgos asociados
Los usuarios deben conocer los riesgos (propiedad intelectual, privacidad, ciberseguridad, secreto empresarial, competencia). Cualquier duda ética o legal sobre outputs debe comunicarse al Comité.
Herramientas de IA de uso personal
El uso profesional de herramientas personales requiere aprobación previa del Comité. Kymatio no asume responsabilidad por herramientas o resultados no validados.
Modelo de gobierno
Kymatio cuenta con un modelo de gobierno en materia de IA, con el Comité Interno de Seguridad de la Información e Inteligencia Artificial como órgano colegiado dependiente del Consejo de Administración.
Funciones del Comité:
- Velar por el cumplimiento de la Política y normativa aplicable.
- Supervisar el ciclo de vida de todas las soluciones de IA.
- Mantener inventario de iniciativas relacionadas.
- Asesorar legal y éticamente a las áreas implicadas.
- Informar sobre capacidades y limitaciones de los sistemas.
- Garantizar trazabilidad y auditoría, especialmente en aplicaciones críticas.
- Involucrar a las áreas en todas las fases del ciclo de vida.
- Fomentar la formación y sensibilización en IA responsable.
El Consejo de Administración establece la estrategia y directrices de gestión en materia de IA a través de esta Política y otras normas complementarias.
Seguimiento, interpretación y revisión de la Política
Seguimiento
El cumplimiento será supervisado por el Comité, mediante auditorías y revisiones periódicas. Incidentes deberán comunicarse de inmediato.
El incumplimiento puede conllevar consecuencias legales y acciones por parte de Kymatio.
Interpretación
El Comité es el órgano encargado de resolver dudas sobre interpretación o aplicación de la Política.
Revisión y actualización
La Política será revisada periódicamente para adaptarse a cambios tecnológicos, regulatorios, organizativos o procedimentales. Las modificaciones deberán ser aprobadas por el Consejo y comunicadas a los profesionales.
Difusión
La Política se publicará en la página web corporativa de Kymatio, para garantizar el acceso de todos los profesionales.
Se llevarán a cabo acciones de comunicación, formación y concienciación para facilitar su comprensión y correcta aplicación.
El desconocimiento de su contenido no exime a profesionales y usuarios de su obligatorio cumplimiento.