ACTUALIZADO EL 31 DE ENERO DE 2025

Política Corporativa de Desarrollo y Uso Responsable de la Inteligencia Artificial

política de ia

Introducción

El Consejo de Administración de Human Affinity Platform S.L. (en adelante, “Kymatio” o la “Sociedad”) tiene atribuida la competencia de diseñar, evaluar y revisar con carácter permanente el Sistema de Políticas y estrategias generales de la Sociedad.

La presente Política Corporativa de Desarrollo y Uso Responsable de la Inteligencia Artificial tiene por objeto la asunción por parte de Kymatio del compromiso de desarrollo y uso de la Inteligencia Artificial (IA) de manera responsable, transparente, segura y fiable, alineando sus prácticas con la normativa vigente y los valores corporativos, así como con los más altos estándares de seguridad y privacidad.

El desarrollo e implementación de las herramientas de IA es un elemento esencial para la creación de valor sostenible, así como para la estrategia de innovación y transformación digital de Kymatio.

Por ello, Kymatio reconoce la importancia de promover su uso responsable de acuerdo con los valores y los principios perseguidos basados en una ética y compromiso con la sostenibilidad.

Definiciones

A los efectos de la presente Política se tendrán en cuenta las siguientes definiciones:

  • Datos personales: Toda información que permite identificar o hacer identificable a una persona física, de manera directa o indirecta (nombre, identificación, correo, teléfono, IP, biometría, imágenes, voz, geolocalización, hábitos de navegación, etc.).
  • Inteligencia Artificial (IA): Rama de la informática dedicada al diseño de sistemas capaces de realizar tareas que tradicionalmente requieren inteligencia humana (razonamiento, lenguaje natural, reconocimiento de patrones, aprendizaje de datos, toma de decisiones).
  • Herramienta de IA: Software, plataforma o sistema que utiliza algoritmos de IA para cumplir funciones específicas (procesamiento de lenguaje, análisis de datos, predicciones, generación de contenido, etc.).
  • Inputs: Datos, instrucciones o contenidos que el usuario proporciona a una herramienta de IA (texto, voz, imágenes, código, etc.).
  • Outputs: Resultados generados por la herramienta de IA tras el procesamiento de los inputs (respuestas, resúmenes, predicciones, imágenes, decisiones). Deben ser evaluados críticamente por el usuario.
  • Procedimientos de uso de herramientas IA: Conjunto de pasos, pautas o protocolos que deben seguir los usuarios para garantizar un uso responsable, seguro, transparente y ético de la IA.
  • Reglamento de Inteligencia Artificial: Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, que establece normas armonizadas en materia de IA.
  • Tratamiento de datos: Operaciones realizadas sobre datos personales (recolección, organización, almacenamiento, modificación, consulta, uso, difusión, eliminación, etc.), sujetas a una gestión responsable.
  • Usuario: Persona que interactúa con una herramienta de IA, física o representante de una organización, responsable de un uso ético y conforme a procedimientos.
  • Responsable del uso de herramientas IA: Persona o entidad designada para supervisar, coordinar y asegurar el uso correcto y conforme a la normativa de las herramientas de IA.
  • Transparencia de IA: Principio de hacer comprensibles, accesibles y verificables tanto el funcionamiento como los resultados de un sistema de IA.

Objeto de la Política

El objetivo de esta Política es establecer un marco normativo y ético que guíe el desarrollo, implementación y utilización de herramientas y sistemas de IA en la empresa.

Se pretende:

  • Garantizar que el uso de la IA respete los derechos fundamentales, promoviendo la equidad, la inclusión y la no discriminación.
  • Cumplir con la normativa vigente en protección de datos, privacidad y regulaciones específicas sobre IA.
  • Promover transparencia, trazabilidad y explicabilidad en los sistemas de IA.
  • Definir roles y responsabilidades claras para el uso y supervisión de IA.
  • Impulsar capacitación y sensibilización sobre riesgos, limitaciones y buenas prácticas.
  • Prevenir impactos negativos por usos indebidos o no éticos.
  • Fomentar la IA como herramienta estratégica para mejorar procesos, productos y servicios, dentro de un marco ético y sostenible.

Esta Política se aplica a todos los colaboradores, departamentos y unidades de negocio que utilicen, desarrollen o integren herramientas de IA, ya sea de forma directa o mediante terceros.

Ámbito de aplicación y marco normativo

La presente Política resulta de aplicación a todas las entidades y personas trabajadoras que integran Kymatio, vinculando a todo el personal, interno o externo, involucrado en proyectos relacionados con IA.

Se ha elaborado con base en la normativa europea sobre IA, concretamente el Reglamento de Inteligencia Artificial (UE 2024/1689), que establece un marco regulador completo centrado en riesgos asociados al uso de algoritmos, promoviendo su desarrollo responsable y protegiendo derechos fundamentales, privacidad y seguridad.

Principios generales de Inteligencia Artificial responsable

Kymatio se compromete a mantener el más alto estándar ético en la contratación, uso y desarrollo de IA, garantizando que todas las IA empleadas cumplan con los principios éticos de la Sociedad.

Los principios que rigen esta Política son:

Principio de respeto a la autonomía humana

Garantizar la libertad y autonomía individual en los desarrollos de IA, potenciando capacidades humanas y asegurando supervisión y control humano en todo proceso.

Principio de prevención del daño

Los sistemas de IA no deben causar daño ni afectar negativamente a las personas, garantizando dignidad y bienestar físico y mental, además de ser técnicamente seguros y no maliciosos.

Principio de equidad

El desarrollo y uso de la IA debe ser justo, con distribución equitativa de beneficios e impactos, evitando sesgos y discriminación. Se permitirá cuestionar decisiones de IA y dirigir objeciones a responsables humanos.

Principio de explicabilidad

Los procesos de IA deben ser transparentes, comunicando de forma clara objetivos y capacidades de los sistemas.

Principio de formación y sensibilización

Los desarrolladores deben recibir formación en aspectos legales, éticos, conductuales y de seguridad, asegurando un uso seguro para el usuario final.

Herramientas de Inteligencia Artificial

Herramientas de IA corporativas

  • Deben ser aprobadas por el Comité Interno de Seguridad de la Información e Inteligencia Artificial.
  • Se proporcionan para uso profesional.
  • Su uso personal o privado está prohibido.
  • Solo pueden utilizarse desde dispositivos previamente autorizados.

Procedimiento de identificación y aprobación

La selección y validación corresponde al Comité, basado en criterios de seguridad, legalidad, transparencia y alineación con valores de Kymatio.

Registro y divulgación

El Comité mantiene un inventario actualizado de herramientas autorizadas e informa periódicamente a los profesionales.

Riesgos asociados

Los usuarios deben conocer los riesgos (propiedad intelectual, privacidad, ciberseguridad, secreto empresarial, competencia). Cualquier duda ética o legal sobre outputs debe comunicarse al Comité.

Herramientas de IA de uso personal

El uso profesional de herramientas personales requiere aprobación previa del Comité. Kymatio no asume responsabilidad por herramientas o resultados no validados.

Modelo de gobierno

Kymatio cuenta con un modelo de gobierno en materia de IA, con el Comité Interno de Seguridad de la Información e Inteligencia Artificial como órgano colegiado dependiente del Consejo de Administración.

Funciones del Comité:

  • Velar por el cumplimiento de la Política y normativa aplicable.
  • Supervisar el ciclo de vida de todas las soluciones de IA.
  • Mantener inventario de iniciativas relacionadas.
  • Asesorar legal y éticamente a las áreas implicadas.
  • Informar sobre capacidades y limitaciones de los sistemas.
  • Garantizar trazabilidad y auditoría, especialmente en aplicaciones críticas.
  • Involucrar a las áreas en todas las fases del ciclo de vida.
  • Fomentar la formación y sensibilización en IA responsable.

El Consejo de Administración establece la estrategia y directrices de gestión en materia de IA a través de esta Política y otras normas complementarias.

Seguimiento, interpretación y revisión de la Política

Seguimiento

El cumplimiento será supervisado por el Comité, mediante auditorías y revisiones periódicas. Incidentes deberán comunicarse de inmediato.

El incumplimiento puede conllevar consecuencias legales y acciones por parte de Kymatio.

Interpretación

El Comité es el órgano encargado de resolver dudas sobre interpretación o aplicación de la Política.

Revisión y actualización

La Política será revisada periódicamente para adaptarse a cambios tecnológicos, regulatorios, organizativos o procedimentales. Las modificaciones deberán ser aprobadas por el Consejo y comunicadas a los profesionales.

Difusión

La Política se publicará en la página web corporativa de Kymatio, para garantizar el acceso de todos los profesionales.

Se llevarán a cabo acciones de comunicación, formación y concienciación para facilitar su comprensión y correcta aplicación.

El desconocimiento de su contenido no exime a profesionales y usuarios de su obligatorio cumplimiento.