La IA está ahogando de trabajo a Recursos Humanos con currículums falsos

La IA está ahogando de trabajo a Recursos Humanos con currículums falsos

Foto: Freepik

El uso masivo de inteligencia artificial en la búsqueda de empleo está saturando los departamentos de Recursos Humanos con miles de currículums automatizados, reportó recientemente The New York TimesLinkedIn procesa actualmente 11,000 solicitudes laborales por minuto, lo que representa un aumento del 45% respecto al año anterior.

 

Desde la aparición de sistemas como ChatGPT en 2022, postulantes comenzaron a utilizar IA generativa para producir aplicaciones automatizadas. Esta tecnología permite insertar palabras clave en documentos con una simple instrucción, lo que facilita generar múltiples solicitudes sin gran esfuerzo. Según el Times, "la avalancha de currículums creados con ChatGPT y solicitudes enviadas por bots generó una competencia entre solicitantes de empleo y empleadores".

 

En un caso reportado, la consultora de recursos humanos Katie Tanner recibió más de 1,200 respuestas a una vacante remota. Debido al volumen, tuvo que retirar el anuncio y tres meses después aún no había terminado de revisar las postulaciones. Reclutadores también señalaron que muchos currículums presentan similitudes llamativas, lo cual impide distinguir a los candidatos realmente interesados o cualificados.

 

Algunos usuarios están contratando agentes de IA que buscan ofertas y postulan automáticamente. Esta dinámica obligó a empresas a implementar sus propias herramientas automáticas. Chipotle utiliza un chatbot denominado Ava Cado, que redujo el tiempo de contratación en 75%, según indicó la compañía.

 

Esta situación alcanzó tal punto que incluso empresas de tecnología como Anthropic recomiendan no utilizar modelos de lenguaje en las postulaciones. El fraude también se intensificó. En enero, el Departamento de Justicia de Estados Unidos presentó cargos en un caso de falsificación de identidades para colocar trabajadores norcoreanos en empleos remotos.

 

Gartner proyectó que para 2028, uno de cada cuatro solicitantes de empleo podría ser fraudulento. Además, investigadores en ciberseguridad identificaron que algunas aplicaciones de IA insertan texto invisible en los documentos, con el fin de manipular los filtros automatizados sin ser detectadas por humanos.

 

Las herramientas automatizadas también replican sesgos humanos. Se documentó que ciertos sistemas priorizan nombres masculinos o anglosajones, generando alertas sobre posibles discriminaciones. La Ley de IA de la Unión Europea clasifica la contratación como un ámbito de alto riesgo y la somete a regulaciones estrictas.

 

En LinkedIn sumaron más funciones basadas en inteligencia artificial, como agentes capaces de redactar mensajes o filtrar candidatos mediante lenguaje natural. No obstante, estas soluciones también contribuyen a una dinámica en donde las interacciones entre humanos se reducen significativamente. (Notipress)

Notas Relacionadas