Lo que hasta hace poco parecía ciencia ficción se ha convertido en una realidad en expansión. Cada vez más empresas utilizan chatbots de inteligencia artificial para entrevistar candidatos, evaluar sus respuestas y hasta recomendar contrataciones. Este cambio plantea interrogantes sobre la equidad y la transparencia de los procesos de selección.
El profesor Tianjun Sun, de la Universidad Rice, lidera un estudio financiado por la Fundación Nacional de Ciencias de EE.UU. que busca desentrañar cómo funcionan estas entrevistas virtuales y cómo evitar que refuercen sesgos en el mercado laboral. El proyecto, en colaboración con la Universidad de Florida, tendrá dos años de duración.
La investigación aborda tres niveles de análisis. Primero, examina los predictores, es decir, qué características del lenguaje detecta la IA cuando escucha a un candidato. Segundo, los resultados: cómo se traducen esas señales en puntuaciones y recomendaciones. Y tercero, las percepciones, cómo sienten los candidatos el proceso y si lo consideran justo o discriminatorio.
“Dos personas pueden dar prácticamente la misma respuesta, pero el algoritmo podría interpretarlas de forma distinta”, advirtió Sun. Esa diferencia podría derivar en que un candidato sea descartado sin que exista un criterio sólido, algo especialmente problemático en un mercado cada vez más competitivo.
Los riesgos no son meramente teóricos. Diversos estudios han mostrado que los sistemas de IA pueden reproducir y amplificar prejuicios humanos, favoreciendo en ocasiones a ciertos géneros, edades o antecedentes culturales. Esto significa que un chatbot mal entrenado puede discriminar sin que los responsables de recursos humanos lo adviertan.
El equipo de Sun ya ha desarrollado un prototipo de chatbot que realiza entrevistas breves y genera perfiles de personalidad basados en el modelo de los “Cinco Grandes”. Esta herramienta permite a los investigadores probar cómo distintas formulaciones de preguntas y diferentes contextos pueden influir en la valoración automática de los candidatos.
El concepto clave que guía la investigación es lo que Sun denomina “IA psicométrica”, la aplicación de principios de la medición psicológica a sistemas de inteligencia artificial. La idea es evaluar no solo si un algoritmo predice bien, sino si realmente mide lo que dice medir y si lo hace de manera equitativa.
La profesora Patricia DeLucia, decana asociada en Rice, destacó que este tipo de trabajos son de vanguardia. “El estudio de Sun tendrá un impacto social significativo a medida que la IA se generalice en procesos clave como la contratación laboral”, aseguró.
Las implicaciones van más allá del mercado laboral estadounidense. Si la tendencia se extiende, millones de personas en todo el mundo podrían encontrarse frente a un chatbot en su próxima entrevista. El desafío será asegurar que la tecnología no solo mejore la eficiencia de las empresas, sino también que respete los derechos de los aspirantes.
Para los empleadores, el atractivo es evidente, uniformidad en las evaluaciones, reducción de costes y rapidez en los procesos. Pero para los candidatos, la sensación puede ser la de enfrentarse a un filtro opaco que no siempre explica por qué una respuesta es valorada de cierta manera.
El estudio de Rice pretende sentar las bases para que futuros desarrollos incorporen parámetros éticos desde el diseño. Estándares claros y pruebas independientes podrían convertirse en requisitos básicos, de modo que la contratación basada en IA no se convierta en una caja negra inaccesible.
En última instancia, la pregunta es si estos sistemas servirán para ampliar la equidad o para consolidar desigualdades. El tiempo y la investigación dirán si la IA será un aliado o un obstáculo en la búsqueda de trabajo en el siglo XXI.