Los aspectos legales en la IA y la protección de datos
La incorporación de IA Generativa en la gestión del talento conlleva múltiples oportunidades, pero también una serie de retos que deben conocerse y abordarse desde el inicio. Estos desafíos pueden ser éticos, técnicos, organizativos o legales, y afectan tanto a las personas como a los procesos.
A continuación, se recogen los principales retos atemporales que se presentan al aplicar IA Generativa en RRHH, junto con ejemplos prácticos y buenas prácticas actualizadas para facilitar su comprensión.
Riesgo de sesgos y discriminación
Descripción: Los modelos de IA pueden aprender sesgos históricos si se entrenan con datos no representativos o desequilibrados, incluyendo sesgos interseccionales.
Ejemplo: Un sistema de IA que genera descripciones de puesto con un lenguaje sesgado hacia un género o que discrimina a candidatos por su origen étnico.
Buenas prácticas asociadas:
- Revisar y auditar los datos utilizados, con especial atención a los sesgos interseccionales.
- Aplicar lenguaje inclusivo y pruebas A/B para verificar sesgos.
- Implementar algoritmos de mitigación de sesgos.
Falta de transparencia y trazabilidad
Descripción: Puede ser difícil explicar cómo la IA ha llegado a una recomendación o decisión, lo que complica su validación y genera desconfianza.
Ejemplo: Una IA que resume entrevistas y asigna puntuaciones sin explicar los criterios utilizados o que genera informes de desempeño sin revelar los datos considerados.
Buenas prácticas asociadas:
- Implementar sistemas explicables (explainable AI) y documentar procesos.
- Proporcionar información clara y accesible sobre el funcionamiento de la IA.
- Generar informes con la trazabilidad de la información usada.
Uso inadecuado de datos personales
Descripción: Los datos utilizados para entrenar o alimentar modelos de IA pueden contener información sensible o no contar con el consentimiento adecuado, lo que puede tener consecuencias legales.
Ejemplo: Utilizar correos internos o chats para generar perfiles sin informar a la persona empleada o almacenar datos personales sensibles sin cifrado adecuado.
Buenas prácticas asociadas:
- Minimizar los datos, aplicar principios del RGPD y garantizar consentimiento informado.
- Implementar medidas de seguridad para proteger los datos personales.
- Informar de las posibles consecuencias legales de un mal uso de los datos.
Dependencia excesiva de la automatización:
Descripción: Delegar decisiones críticas en IA sin intervención humana puede provocar errores, injusticias o generar falta de confianza.
Ejemplo: Automatizar completamente el proceso de criba de candidaturas sin revisión final humana o utilizar IA para tomar decisiones de despido sin supervisión.
Buenas prácticas asociadas:
- Mantener siempre supervisión humana en decisiones estratégicas, con especial foco a las que afectan a personas.
- Utilizar la IA como herramienta de apoyo, no como reemplazo del juicio humano.
- Definir claramente quien asume la responsabilidad en caso de errores de la IA.
Impacto en el bienestar y clima laboral
Descripción: La percepción de ser evaluadas/os o vigiladas/os por IA puede generar desconfianza, ansiedad o estrés en la plantilla.
Ejemplo: IA que analiza tono de voz o expresiones durante entrevistas para generar recomendaciones o sistemas de vigilancia que monitorean la actividad de las personas que trabajan en una organización.
Buenas prácticas asociadas:
- Comunicar con claridad cómo se usa la IA y proteger el bienestar emocional.
- Fomentar la transparencia y la comunicación abierta.
- Considerar el impacto psicológico de la IA en las personas.
Falta de formación del equipo de RRHH
Ejemplo: Uso de prompts sin control de fuentes, o compartir datos sensibles sin cifrado o no detectar sesgos en los resultados de la IA.
Buenas prácticas asociadas:
- Invertir en formación continua en ética, protección de datos y uso responsable de IA.
- Desarrollar guías y protocolos para el uso de la IA.
- Fomentar la actualización continua, aspecto clave debido a los rápidos avances de la IA.
Desconexión con los valores de la organización
Descripción: Si no se alinea el uso de IA con la cultura y principios de la empresa, puede haber rechazo o contradicción interna.
Ejemplo: Implementar IA sin consultar ni involucrar al comité de ética o al área de diversidad o utilizar IA que contradice los valores de inclusión y equidad de la empresa.
Buenas prácticas asociadas:
- Alinear el uso de IA con los valores corporativos y fomentar la participación.
- Crear un comité ético para supervisar el uso de la IA.
- Realizar evaluaciones de impacto ético y social.
Aspectos legales
Descripción: El incumplimiento de las normativas de protección de datos, discriminación o responsabilidad puede tener graves consecuencias legales para la organización.
Ejemplo: Utilizar IA para tomar decisiones discriminatorias en la selección de personal, o no cumplir con los requisitos del RGPD en el tratamiento de datos personales.
Buenas prácticas asociadas:
- Conocer y cumplir la normativa aplicable (RGPD, LOPDGDD, AI Act, etc.).
- Realizar auditorías legales periódicas.
- Mantenerse actualizado sobre los cambios en la legislación.
Brecha digital y accesibilidad
Descripción: Desigualdad en el acceso y uso de tecnologías digitales, y falta de accesibilidad para personas con discapacidad.
Ejemplos:
- Candidatos/as que no pueden acceder a plataformas de selección online por falta de dispositivos o conectividad.
- Personal que no puede utilizar herramientas de IA para el desarrollo profesional por falta de habilidades digitales.
- Plataformas de selección online que no son compatibles con lectores de pantalla.
- Herramientas de IA para la evaluación del desempeño que no son accesibles para personas con discapacidad visual o auditiva.
Buenas prácticas asociadas:
- Ofrecer alternativas accesibles a los procesos de Gestión del Talento basados en IA.
- Proporcionar formación y apoyo en habilidades digitales a personal de plantilla y candidaturas.
- Considerar el impacto de la brecha digital en el diseño e implementación de sistemas de IA.
- Aplicar estándares de accesibilidad (como WCAG) en el diseño de sistemas de IA.
- Realizar pruebas de accesibilidad con personas con discapacidad.
- Proporcionar adaptaciones y apoyos individualizados a personas con discapacidad.
Muchos de los riesgos descritos en este apartado pueden entenderse como la “otra cara” de los principios éticos fundamentales. Por ejemplo, cuando hablamos de sesgos o falta de transparencia, estamos viendo qué sucede cuando no se aplican adecuadamente los principios de justicia, explicabilidad o responsabilidad.
Identificar estos riesgos y abordarlos de forma preventiva nos permite actuar con coherencia ética, proteger a las personas y fortalecer la confianza en el uso de la IA Generativa en la gestión del talento.