¿Será tu próxima entrevista de trabajo con un chatbot de inteligencia artificial?
Un proyecto de la Universidad Rice investiga cómo los chatbots de IA evalúan a candidatos en entrevistas laborales y propone herramientas para reducir sesgos en la contratación
4 min lectura

Lo que hasta hace poco parecía ciencia ficción se ha convertido en una realidad en expansión. Cada vez más empresas utilizan chatbots de inteligencia artificial para entrevistar candidatos, evaluar sus respuestas y hasta recomendar contrataciones. Este cambio plantea interrogantes sobre la equidad y la transparencia de los procesos de selección.
El profesor Tianjun Sun, de la Universidad Rice, lidera un estudio financiado por la Fundación Nacional de Ciencias de EE.UU. que busca desentrañar cómo funcionan estas entrevistas virtuales y cómo evitar que refuercen sesgos en el mercado laboral. El proyecto, en colaboración con la Universidad de Florida, tendrá dos años de duración.
La investigación aborda tres niveles de análisis. Primero, examina los predictores, es decir, qué características del lenguaje detecta la IA cuando escucha a un candidato. Segundo, los resultados: cómo se traducen esas señales en puntuaciones y recomendaciones. Y tercero, las percepciones, cómo sienten los candidatos el proceso y si lo consideran justo o discriminatorio.
“Dos personas pueden dar prácticamente la misma respuesta, pero el algoritmo podría interpretarlas de forma distinta”, advirtió Sun. Esa diferencia podría derivar en que un candidato sea descartado sin que exista un criterio sólido, algo especialmente problemático en un mercado cada vez más competitivo.
Los riesgos no son meramente teóricos. Diversos estudios han mostrado que los sistemas de IA pueden reproducir y amplificar prejuicios humanos, favoreciendo en ocasiones a ciertos géneros, edades o antecedentes culturales. Esto significa que un chatbot mal entrenado puede discriminar sin que los responsables de recursos humanos lo adviertan.
El equipo de Sun ya ha desarrollado un prototipo de chatbot que realiza entrevistas breves y genera perfiles de personalidad basados en el modelo de los “Cinco Grandes”. Esta herramienta permite a los investigadores probar cómo distintas formulaciones de preguntas y diferentes contextos pueden influir en la valoración automática de los candidatos.
El concepto clave que guía la investigación es lo que Sun denomina “IA psicométrica”, la aplicación de principios de la medición psicológica a sistemas de inteligencia artificial. La idea es evaluar no solo si un algoritmo predice bien, sino si realmente mide lo que dice medir y si lo hace de manera equitativa.
La profesora Patricia DeLucia, decana asociada en Rice, destacó que este tipo de trabajos son de vanguardia. “El estudio de Sun tendrá un impacto social significativo a medida que la IA se generalice en procesos clave como la contratación laboral”, aseguró.
Las implicaciones van más allá del mercado laboral estadounidense. Si la tendencia se extiende, millones de personas en todo el mundo podrían encontrarse frente a un chatbot en su próxima entrevista. El desafío será asegurar que la tecnología no solo mejore la eficiencia de las empresas, sino también que respete los derechos de los aspirantes.
Para los empleadores, el atractivo es evidente, uniformidad en las evaluaciones, reducción de costes y rapidez en los procesos. Pero para los candidatos, la sensación puede ser la de enfrentarse a un filtro opaco que no siempre explica por qué una respuesta es valorada de cierta manera.
El estudio de Rice pretende sentar las bases para que futuros desarrollos incorporen parámetros éticos desde el diseño. Estándares claros y pruebas independientes podrían convertirse en requisitos básicos, de modo que la contratación basada en IA no se convierta en una caja negra inaccesible.
En última instancia, la pregunta es si estos sistemas servirán para ampliar la equidad o para consolidar desigualdades. El tiempo y la investigación dirán si la IA será un aliado o un obstáculo en la búsqueda de trabajo en el siglo XXI.
❓ Preguntas frecuentes
Analiza cómo los chatbots de inteligencia artificial evalúan a los candidatos, qué sesgos pueden introducir y cómo hacer los procesos más justos.
Pueden amplificar prejuicios de género, edad o cultura y descartar candidatos de manera injusta debido a sesgos en los algoritmos.
Es la aplicación de principios de medición psicológica a los algoritmos para asegurar que realmente midan lo que dicen medir y lo hagan con equidad.
Podría establecer estándares para entrevistas automatizadas más transparentes y éticas, influyendo en la contratación laboral a nivel global.
Continúa informándote

Si desconfías del gobierno, buscas las noticias en redes sociales
Estudio en Turquía revela que la violencia no cambia dónde lees noticias, pero tu percepción de la eficacia gubernamental sí determina tus fuentes.

Un fósil de 430 millones de años cambia lo que sabíamos sobre las sanguijuelas
Fósil de 430 millones de años en Wisconsin revela que las sanguijuelas primitivas comían invertebrados enteros, no sangre.

Filipinas, terremoto de magnitud 6,9: más de 60 muertos y hospitales colapsados en Cebu
Un fuerte terremoto golpeó la región central de Filipinas dejando más de 60 muertos, centenares de heridos y graves daños en la isla de Cebu, donde los hospitales no dan abasto

Los géiseres de Encélado pierden entre un 20 y 40% menos masa de lo estimado
Nuevas simulaciones con supercomputadoras revelan que la luna de Saturno expulsa menos hielo al espacio, cambiando lo que sabíamos sobre su océano interior

El telescopio Gaia revela una onda gigante que atraviesa la Vía Láctea
Un estudio dirigido por la ESA descubre una ondulación estelar a gran escala que se extiende miles de años luz desde el centro galáctico