Actualmente, tres de cada cinco responsables de equipo recurren a la inteligencia artificial (IA) para tomar decisiones críticas sobre su personal directo, más allá de tareas administrativas básicas.
Según datos del servicio de creación de currículums Resume Builder, el 78 % de los managers usan IA para definir aumentos salariales, el 77 % para promociones, el 66 % para despidos y el 64 % para terminar contratos. Además, aproximadamente uno de cada cinco gerentes permite que la IA tome decisiones finales sin ninguna intervención humana.
Este rápido avance refleja un cambio fundamental en la forma en que se toman las decisiones en las organizaciones, pero también revela una falta de preparación. La encuesta de Resume Builder a 1,342 gerentes en EE. UU. mostró que dos tercios de quienes usan IA en la gestión de personal nunca recibieron formación formal en la herramienta, pese a que casi la mitad debe evaluar si la IA podría reemplazar a sus colaboradores.
“Es esencial no perder el ‘factor humano’ en la gestión de personas”, advierte Stacie Haller, asesora principal de carrera en Resume Builder. “La IA puede apoyar con datos, pero carece de contexto, empatía y juicio. Sus resultados dependen de los datos que recibe, los cuales pueden ser incompletos, sesgados o manipulados”.
Las empresas han fomentado el uso de IA para aumentar la eficiencia, acelerar decisiones, reducir costos y apoyar análisis basados en datos que potencien la productividad y escalabilidad. Sin embargo, esta adopción apresurada también genera riesgos que muchas organizaciones aún no han considerado.
Cleo Valeroso, vicepresidenta de talento en AI Squared, explica que cuando los managers usan IA sin comprender su funcionamiento ni sus posibles fallas, tienden a confiar ciegamente en los resultados. Un caso frecuente es la selección de candidatos: un sistema puede generar un “top 10” de aspirantes, y esa lista se convierte automáticamente en la preselección, sin cuestionarse cómo se produjo ni qué datos se priorizaron.
Esto puede perpetuar sesgos de manera sutil. Por ejemplo, Valeroso señala que algunos algoritmos favorecen constantemente a candidatos con ciertos cargos o empresas previas, dejando fuera trayectorias profesionales alternativas que no deberían ser un obstáculo. “Estas herramientas solo son tan buenas como los datos en los que se entrenan. Si los registros históricos indican ‘así luce un empleado destacado’, la IA replicará ese patrón, con todos sus errores incluidos”.
La solución no es abandonar la IA, sino abordarla con el mismo pensamiento crítico que se aplicaría a cualquier herramienta empresarial. “No entregarías un modelo financiero a alguien para aprobar un presupuesto sin entender sus supuestos”, explica Valeroso. “Lo mismo aplica con la IA: sin capacitación, simplemente estamos delegando el juicio, y eso rara vez termina bien”.
Asimismo, la falta de comunicación sobre cómo se usa la IA puede generar desconfianza. Valeroso subraya que el riesgo mayor es el silencio: los empleados llenan los vacíos con suposiciones, muchas veces pesimistas. La transparencia no requiere explicar todos los detalles técnicos, pero sí implica que los colaboradores comprendan que decisiones importantes siguen involucrando personas reales.
“Las organizaciones tienen la responsabilidad de implementar la IA de forma ética, protegiendo la cultura corporativa, la confianza del equipo y evitando riesgos legales”, concluye Haller.
