Los chatbots están siendo cada vez más utilizados por las empresas para entrevistar y evaluar a los solicitantes de empleo, frecuentemente para trabajos de cuello azul. Sin embargo, al igual que otras herramientas algorítmicas de contratación que los preceden, los expertos y los solicitantes de empleo temen que estos sistemas puedan tener sesgos.

A principios de junio, Amanda Claypool estaba buscando trabajo en un restaurante de comida rápida en Asheville, Carolina del Norte. Pero se encontró con un obstáculo inesperado y molesto: reclutadores de chatbots defectuosos.

Algunos ejemplos: el chatbot reclutador de McDonald’s, “Olivia”, autorizó a Claypool para una entrevista en persona, pero luego no pudo programarla debido a problemas técnicos. Un bot de Wendy’s logró programar una entrevista en persona, pero era para un trabajo que ella no podía hacer. Luego, un chatbot de Hardees la envió a entrevistarse con un gerente de tienda que estaba de licencia, apenas una estrategia de reclutamiento sin problemas.

“Fui a Hardees y se sorprendieron un poco. El personal que operaba el restaurante no tenía idea de qué hacer conmigo ni cómo ayudarme”, dijo Claypool, quien finalmente encontró trabajo en otro lugar, a Forbes. “Parecía más complicado de lo que debería ser”, dijo. (McDonald’s y Hardees no respondieron a una solicitud de comentario. Un portavoz de Wendy’s dijo a Forbes que el bot crea “eficiencias de contratación” y agregó que “la innovación está en nuestro ADN”).

Los chatbots de recursos humanos, como los que encontró Claypool, se están utilizando cada vez más en industrias como la atención médica, el comercio minorista y los restaurantes para filtrar a los solicitantes no calificados y programar entrevistas con aquellos que podrían ser adecuados para el trabajo. McDonald’s, Wendy’s, CVS Health y Lowes utilizan a Olivia, un chatbot desarrollado por la startup de inteligencia artificial con sede en Arizona, Paradox, valorada en US$1.500 millones. Otras empresas, como L’Oreal, confían en Mya, un chatbot de IA desarrollado en San Francisco por una startup del mismo nombre. (Paradox no respondió a una solicitud de comentario sobre la experiencia de Claypool).

La mayoría de los chatbots de contratación no son tan avanzados o elaborados como los chatbots conversacionales contemporáneos como ChatGPT. Principalmente se han utilizado para filtrar trabajos que reciben una gran cantidad de solicitantes, como cajeros, asociados de almacén y asistentes de servicio al cliente. Son rudimentarios y hacen preguntas bastante directas: “¿Sabe cómo usar una carretilla elevadora?” o “¿Puede trabajar los fines de semana?” Pero, como descubrió Claypool, estos bots pueden tener fallas y no siempre hay una persona a la que acudir cuando algo sale mal. Y las respuestas claras que muchos de los bots requieren podrían significar un rechazo automático para algunos candidatos calificados que podrían no responder las preguntas de la manera que un modelo de lenguaje grande quisiera.

Esto podría ser un problema para las personas con discapacidades, aquellas que no dominan el inglés y los solicitantes de empleo mayores, según afirman los expertos. Aaron Konopasky, asesor legal principal de la Comisión para la Igualdad de Oportunidades en el Empleo (EEOC) de los Estados Unidos, teme que chatbots como Olivia y Mya no ofrezcan opciones alternativas de disponibilidad o roles laborales para personas con discapacidades o condiciones médicas. “Si estuviera hablando con un ser humano, habría una oportunidad natural para hablar sobre adaptaciones razonables”, dijo a Forbes. “Si el chatbot es demasiado rígido y la persona necesita solicitar algún tipo de excepción, es posible que el chatbot no les brinde la oportunidad de hacerlo”.


“Es algo similar a cómo Netflix recomienda películas basándose en otras películas que te gustan.”

Jeremy Schiff, CEO y fundador de RecruitBot.

La discriminación es otra preocupación. Los prejuicios subyacentes en los datos utilizados para entrenar a la IA pueden generar sesgos y discriminación en las herramientas en las que se implementa. “Si el chatbot está evaluando cosas como el tiempo que tardas en responder o si estás utilizando gramática correcta y oraciones complejas, ahí es donde comienzas a preocuparte por la aparición de sesgos”, dijo Pauline Kim, profesora de derecho laboral y empleo en la Universidad de Washington, cuya investigación se centra en el uso de la IA en herramientas de contratación. Pero este tipo de sesgos pueden ser difíciles de detectar cuando las empresas no son transparentes sobre las razones por las que rechazan a un candidato potencial.

Recientemente, las autoridades gubernamentales han introducido legislaciones para supervisar y regular el uso de la automatización en las herramientas de contratación. A principios de julio, la ciudad de Nueva York promulgó una nueva ley que exige a los empleadores que utilizan herramientas automatizadas como escáneres de currículum y entrevistas con chatbots que auditen sus herramientas en busca de sesgos de género y raza. En 2020, Illinois aprobó una ley que exige a los empleadores que aplican IA para analizar entrevistas en video que notifiquen a los solicitantes y obtengan su consentimiento.

Sin embargo, para las empresas que buscan reducir los costos de contratación, los agentes de selección de IA parecen ser una opción obvia. Los departamentos de recursos humanos suelen ser uno de los primeros lugares donde se producen reducciones de personal, según Matthew Scherer, asesor jurídico principal en políticas de derechos de los trabajadores y tecnología en el Center for Democracy and Technology. “Los recursos humanos siempre han sido un centro de costos para una empresa, nunca ha sido algo que genere ingresos”, explicó. “Los chatbots son un primer paso muy lógico para intentar aliviar parte de la carga de los reclutadores”.

Esa es parte de la lógica detrás de Sense HQ, que proporciona a empresas como Sears, Dell y Sony chatbots de IA basados en mensajes de texto que ayudan a sus reclutadores a evaluar a miles de solicitantes. La compañía afirma que ya ha sido utilizada por unos 10 millones de solicitantes de empleo, y Alex Rosen, uno de los fundadores, le dijo a Forbes que esos números significan un grupo mucho más grande de candidatos viables.

“La razón por la que construimos un chatbot en primer lugar fue para ayudar a los reclutadores a hablar con un grupo más amplio de candidatos de lo que podrían hacer por sí mismos”, dijo, añadiendo la advertencia obligatoria: “No creemos que la IA deba tomar la decisión de contratación por sí sola. Ahí es donde se vuelve peligroso. Simplemente no creemos que esté en ese punto todavía”.

RecruitBot está aplicando la IA a la contratación utilizando el aprendizaje automático para filtrar una base de datos de 600 millones de solicitantes de empleo extraídos de LinkedIn y otros mercados laborales, todo con el objetivo de ayudar a las empresas a encontrar candidatos similares a sus empleados actuales. “Es algo similar a cómo Netflix recomienda películas basándose en otras películas que te gustan”, dijo Jeremy Schiff, CEO y fundador, a Forbes. Pero aquí también la preocupación por el sesgo es evidente; contratar más personas similares tiene sus riesgos. En 2018, Amazon eliminó su sistema de seguimiento de currículums basado en aprendizaje automático que discriminaba a las mujeres debido a que sus datos de entrenamiento consistían principalmente en currículums de hombres.


“Los chatbots son un primer paso muy lógico para intentar aliviar parte de la carga de los reclutadores.”

Matthew Scherer, asesor jurídico principal en el Center for Democracy and Technology.

Urmila Janardan, analista de políticas en Upturn, una organización sin fines de lucro que investiga cómo las tecnologías impactan las oportunidades para las personas, señaló que algunas empresas también han recurrido a pruebas de personalidad para eliminar candidatos, y las preguntas para seleccionarlos pueden no estar relacionadas con el trabajo en absoluto. “Incluso podrías ser rechazado para el trabajo debido a preguntas sobre gratitud y personalidad”, dijo.

Para Rick Gned, un pintor y escritor a tiempo parcial, una prueba de personalidad formó parte de una entrevista con un chatbot para un trabajo de reponedor con salario por hora en el supermercado australiano Woolworths. El chatbot, desarrollado por la empresa de reclutamiento de IA Sapia AI (anteriormente conocida como PredictiveHire), le pidió que proporcionara respuestas de 50 a 150 palabras para cinco preguntas y luego analizó sus respuestas, buscando rasgos y habilidades que coincidieran con las preferencias de los reclutadores. Concluyendo que Gned “se adapta bien al cambio” y que está “más enfocado en la imagen general, lo que hace que pase por alto los detalles”, lo avanzó a la siguiente ronda de entrevistas. Aunque Sapia AI no requiere que los solicitantes respondan preguntas dentro de un límite de tiempo, el sistema mide la estructura de las oraciones, la legibilidad y la complejidad de las palabras utilizadas en las respuestas de texto, según dijo la CEO y cofundadora de Sapia AI, Barb Hyman, en un correo electrónico.

Gned encontró toda la experiencia deshumanizante y preocupante, según le dijo a Forbes. “Estoy en un grupo demográfico al que no le afecta tanto, pero me preocupo por las personas que pertenecen a minorías, que conforman predominantemente el mercado laboral de bajos ingresos”.

Para un solicitante de empleo, que prefirió mantenerse en el anonimato para hablar libremente, hablar con un bot al menos tuvo un aspecto positivo. Cuando envía cientos de solicitudes de trabajo, a menudo no recibe ninguna respuesta, pero el bot al menos le aseguró que su solicitud fue recibida. “De alguna manera, se sintió como un impulso de ánimo”, dijo. “Pero si tuviera que hacer esto (chatear con un chatbot) para cada trabajo al que apliqué, sería una molestia”.

Nota publicada originalmente en Forbes US