Tecnología
Publicado:

¿Será tu próxima entrevista de trabajo con un chatbot de inteligencia artificial?

Un proyecto de la Universidad Rice investiga cómo los chatbots de IA evalúan a candidatos en entrevistas laborales y propone herramientas para reducir sesgos en la contratación

4 min lectura
Mujer en una oficina participando en una entrevista virtual en su portátil, donde aparece un robot humanoide
Imagen ilustrativa. Créditos: Iceebook

Lo que hasta hace poco parecía ciencia ficción se ha convertido en una realidad en expansión. Cada vez más empresas utilizan chatbots de inteligencia artificial para entrevistar candidatos, evaluar sus respuestas y hasta recomendar contrataciones. Este cambio plantea interrogantes sobre la equidad y la transparencia de los procesos de selección.

El profesor Tianjun Sun, de la Universidad Rice, lidera un estudio financiado por la Fundación Nacional de Ciencias de EE.UU. que busca desentrañar cómo funcionan estas entrevistas virtuales y cómo evitar que refuercen sesgos en el mercado laboral. El proyecto, en colaboración con la Universidad de Florida, tendrá dos años de duración.

La investigación aborda tres niveles de análisis. Primero, examina los predictores, es decir, qué características del lenguaje detecta la IA cuando escucha a un candidato. Segundo, los resultados: cómo se traducen esas señales en puntuaciones y recomendaciones. Y tercero, las percepciones, cómo sienten los candidatos el proceso y si lo consideran justo o discriminatorio.

“Dos personas pueden dar prácticamente la misma respuesta, pero el algoritmo podría interpretarlas de forma distinta”, advirtió Sun. Esa diferencia podría derivar en que un candidato sea descartado sin que exista un criterio sólido, algo especialmente problemático en un mercado cada vez más competitivo.

Los riesgos no son meramente teóricos. Diversos estudios han mostrado que los sistemas de IA pueden reproducir y amplificar prejuicios humanos, favoreciendo en ocasiones a ciertos géneros, edades o antecedentes culturales. Esto significa que un chatbot mal entrenado puede discriminar sin que los responsables de recursos humanos lo adviertan.

El equipo de Sun ya ha desarrollado un prototipo de chatbot que realiza entrevistas breves y genera perfiles de personalidad basados en el modelo de los “Cinco Grandes”. Esta herramienta permite a los investigadores probar cómo distintas formulaciones de preguntas y diferentes contextos pueden influir en la valoración automática de los candidatos.

El concepto clave que guía la investigación es lo que Sun denomina “IA psicométrica”, la aplicación de principios de la medición psicológica a sistemas de inteligencia artificial. La idea es evaluar no solo si un algoritmo predice bien, sino si realmente mide lo que dice medir y si lo hace de manera equitativa.

La profesora Patricia DeLucia, decana asociada en Rice, destacó que este tipo de trabajos son de vanguardia. “El estudio de Sun tendrá un impacto social significativo a medida que la IA se generalice en procesos clave como la contratación laboral”, aseguró.

Las implicaciones van más allá del mercado laboral estadounidense. Si la tendencia se extiende, millones de personas en todo el mundo podrían encontrarse frente a un chatbot en su próxima entrevista. El desafío será asegurar que la tecnología no solo mejore la eficiencia de las empresas, sino también que respete los derechos de los aspirantes.

Para los empleadores, el atractivo es evidente, uniformidad en las evaluaciones, reducción de costes y rapidez en los procesos. Pero para los candidatos, la sensación puede ser la de enfrentarse a un filtro opaco que no siempre explica por qué una respuesta es valorada de cierta manera.

El estudio de Rice pretende sentar las bases para que futuros desarrollos incorporen parámetros éticos desde el diseño. Estándares claros y pruebas independientes podrían convertirse en requisitos básicos, de modo que la contratación basada en IA no se convierta en una caja negra inaccesible.

En última instancia, la pregunta es si estos sistemas servirán para ampliar la equidad o para consolidar desigualdades. El tiempo y la investigación dirán si la IA será un aliado o un obstáculo en la búsqueda de trabajo en el siglo XXI.

Preguntas frecuentes

¿Qué investiga el estudio de la Universidad Rice sobre entrevistas con IA?

Analiza cómo los chatbots de inteligencia artificial evalúan a los candidatos, qué sesgos pueden introducir y cómo hacer los procesos más justos.

¿Qué riesgos presentan las entrevistas automatizadas?

Pueden amplificar prejuicios de género, edad o cultura y descartar candidatos de manera injusta debido a sesgos en los algoritmos.

¿Qué es la “IA psicométrica” propuesta por Sun?

Es la aplicación de principios de medición psicológica a los algoritmos para asegurar que realmente midan lo que dicen medir y lo hagan con equidad.

¿Qué impacto puede tener esta investigación a futuro?

Podría establecer estándares para entrevistas automatizadas más transparentes y éticas, influyendo en la contratación laboral a nivel global.

Compartir artículo

Continúa informándote