Los aspectos legales en la IA y la protección de datos

La incorporación de IA Generativa en la gestión del talento conlleva múltiples oportunidades, pero también una serie de retos que deben conocerse y abordarse desde el inicio. Estos desafíos pueden ser éticos, técnicos, organizativos o legales, y afectan tanto a las personas como a los procesos.

A continuación, se recogen los principales retos atemporales que se presentan al aplicar IA Generativa en RRHH, junto con ejemplos prácticos y buenas prácticas actualizadas para facilitar su comprensión.

Riesgo de sesgos y discriminación

Descripción: Los modelos de IA pueden aprender sesgos históricos si se entrenan con datos no representativos o desequilibrados, incluyendo sesgos interseccionales.

Ejemplo: Un sistema de IA que genera descripciones de puesto con un lenguaje sesgado hacia un género o que discrimina a candidatos por su origen étnico.

Buenas prácticas asociadas:

  • Revisar y auditar los datos utilizados, con especial atención a los sesgos interseccionales.
  • Aplicar lenguaje inclusivo y pruebas A/B para verificar sesgos.
  • Implementar algoritmos de mitigación de sesgos.

Falta de transparencia y trazabilidad

Descripción: Puede ser difícil explicar cómo la IA ha llegado a una recomendación o decisión, lo que complica su validación y genera desconfianza.

Ejemplo: Una IA que resume entrevistas y asigna puntuaciones sin explicar los criterios utilizados o que genera informes de desempeño sin revelar los datos considerados.

Buenas prácticas asociadas:

  • Implementar sistemas explicables (explainable AI) y documentar procesos.
  • Proporcionar información clara y accesible sobre el funcionamiento de la IA.
  • Generar informes con la trazabilidad de la información usada.

Uso inadecuado de datos personales

Descripción: Los datos utilizados para entrenar o alimentar modelos de IA pueden contener información sensible o no contar con el consentimiento adecuado, lo que puede tener consecuencias legales.

Ejemplo: Utilizar correos internos o chats para generar perfiles sin informar a la persona empleada o almacenar datos personales sensibles sin cifrado adecuado.

Buenas prácticas asociadas:

  • Minimizar los datos, aplicar principios del RGPD y garantizar consentimiento informado.
  • Implementar medidas de seguridad para proteger los datos personales.
  • Informar de las posibles consecuencias legales de un mal uso de los datos.

Dependencia excesiva de la automatización:

 

Descripción: Delegar decisiones críticas en IA sin intervención humana puede provocar errores, injusticias o generar falta de confianza.

Ejemplo: Automatizar completamente el proceso de criba de candidaturas sin revisión final humana o utilizar IA para tomar decisiones de despido sin supervisión.

Buenas prácticas asociadas:

  • Mantener siempre supervisión humana en decisiones estratégicas, con especial foco a las que afectan a personas.
  • Utilizar la IA como herramienta de apoyo, no como reemplazo del juicio humano.
  • Definir claramente quien asume la responsabilidad en caso de errores de la IA.

Impacto en el bienestar y clima laboral

Descripción: La percepción de ser evaluadas/os o vigiladas/os por IA puede generar desconfianza, ansiedad o estrés en la plantilla.

Ejemplo: IA que analiza tono de voz o expresiones durante entrevistas para generar recomendaciones o sistemas de vigilancia que monitorean la actividad de las personas que trabajan en una organización.

Buenas prácticas asociadas:

  • Comunicar con claridad cómo se usa la IA y proteger el bienestar emocional.
  • Fomentar la transparencia y la comunicación abierta.
  • Considerar el impacto psicológico de la IA en las personas.

Falta de formación del equipo de RRHH

Descripción: Sin conocimientos mínimos sobre IA, el equipo de Personas puede usar estas herramientas de forma poco crítica o insegura, lo que puede generar errores o riesgos.

Ejemplo: Uso de prompts sin control de fuentes, o compartir datos sensibles sin cifrado o no detectar sesgos en los resultados de la IA.

Buenas prácticas asociadas:

  • Invertir en formación continua en ética, protección de datos y uso responsable de IA.
  • Desarrollar guías y protocolos para el uso de la IA.
  • Fomentar la actualización continua, aspecto clave debido a los rápidos avances de la IA.

Desconexión con los valores de la organización

Descripción: Si no se alinea el uso de IA con la cultura y principios de la empresa, puede haber rechazo o contradicción interna.

    Ejemplo: Implementar IA sin consultar ni involucrar al comité de ética o al área de diversidad o utilizar IA que contradice los valores de inclusión y equidad de la empresa.

    Buenas prácticas asociadas:

    •  
    • Alinear el uso de IA con los valores corporativos y fomentar la participación.
    • Crear un comité ético para supervisar el uso de la IA.
    • Realizar evaluaciones de impacto ético y social.

    Aspectos legales

    Descripción: El incumplimiento de las normativas de protección de datos, discriminación o responsabilidad puede tener graves consecuencias legales para la organización.

    Ejemplo: Utilizar IA para tomar decisiones discriminatorias en la selección de personal, o no cumplir con los requisitos del RGPD en el tratamiento de datos personales.

    Buenas prácticas asociadas:

    • Conocer y cumplir la normativa aplicable (RGPD, LOPDGDD, AI Act, etc.).
    • Realizar auditorías legales periódicas.
    • Mantenerse actualizado sobre los cambios en la legislación.

    Brecha digital y accesibilidad

    Descripción: Desigualdad en el acceso y uso de tecnologías digitales, y falta de accesibilidad para personas con discapacidad.

    Ejemplos:

    • Candidatos/as que no pueden acceder a plataformas de selección online por falta de dispositivos o conectividad.
    • Personal que no puede utilizar herramientas de IA para el desarrollo profesional por falta de habilidades digitales.
    • Plataformas de selección online que no son compatibles con lectores de pantalla.
    • Herramientas de IA para la evaluación del desempeño que no son accesibles para personas con discapacidad visual o auditiva.

    Buenas prácticas asociadas:

    • Ofrecer alternativas accesibles a los procesos de Gestión del Talento basados en IA.
    • Proporcionar formación y apoyo en habilidades digitales a personal de plantilla y candidaturas.
    • Considerar el impacto de la brecha digital en el diseño e implementación de sistemas de IA.
    • Aplicar estándares de accesibilidad (como WCAG) en el diseño de sistemas de IA.
    • Realizar pruebas de accesibilidad con personas con discapacidad.
    • Proporcionar adaptaciones y apoyos individualizados a personas con discapacidad.

    Muchos de los riesgos descritos en este apartado pueden entenderse como la “otra cara” de los principios éticos fundamentales. Por ejemplo, cuando hablamos de sesgos o falta de transparencia, estamos viendo qué sucede cuando no se aplican adecuadamente los principios de justicia, explicabilidad o responsabilidad.

    Identificar estos riesgos y abordarlos de forma preventiva nos permite actuar con coherencia ética, proteger a las personas y fortalecer la confianza en el uso de la IA Generativa en la gestión del talento.