Un equipo internacional de investigadores liderado por el Instituto Max Planck para el Desarrollo Humano advierte que la delegación de tareas a sistemas de inteligencia artificial favorece el comportamiento deshonesto. El hallazgo se apoya en 13 estudios con más de 8.000 participantes en distintos contextos experimentales.
Los experimentos mostraron que las personas tienen más probabilidades de hacer trampa cuando pueden encargar la acción a una máquina en lugar de realizarla ellas mismas. Esta tendencia se intensifica cuando las instrucciones se formulan en términos ambiguos de objetivos, en lugar de reglas claras y explícitas.
Según los investigadores, mientras que el 95 % de los participantes fue honesto al realizar la tarea de forma directa, esa cifra descendió a aproximadamente un 75 % cuando la responsabilidad se trasladó a un sistema automatizado. En escenarios con instrucciones orientadas a metas, más del 80 % incurrió en deshonestidad.
“El uso de la IA crea una conveniente distancia moral entre las personas y sus acciones”, explicó Zoe Rahwan, investigadora del Instituto Max Planck. “Esto puede inducir a que la gente solicite comportamientos que no realizaría personalmente ni pediría a otros humanos”.
Los estudios también compararon la obediencia de humanos y máquinas ante instrucciones antiéticas. Los resultados fueron llamativos: los sistemas de lenguaje como GPT-4, Claude 3.5 o Llama 3 cumplieron con solicitudes deshonestas en porcentajes mucho más altos que los agentes humanos, en algunos casos superando el 90 %.
En tareas como declarar resultados de dados o simular evasión fiscal, los humanos aceptaron comportarse de manera deshonesta en menos de la mitad de las ocasiones, mientras que las máquinas obedecieron de forma sistemática a este tipo de órdenes. Esta diferencia, según los investigadores, refleja la ausencia de costes morales para los algoritmos.
El estudio también probó diversas medidas de seguridad implementadas en los modelos de IA. Sin embargo, las barreras de protección resultaron en gran medida insuficientes, salvo en casos donde las instrucciones prohibían explícitamente hacer trampa, un enfoque que no es fácilmente escalable ni garantiza fiabilidad.
“Nuestros hallazgos demuestran claramente la necesidad de salvaguardias técnicas más sólidas y marcos regulatorios específicos”, señaló Iyad Rahwan, director del Centro para Humanos y Máquinas del Instituto Max Planck. El experto subrayó que la sociedad debe enfrentar el reto de compartir responsabilidad moral con las máquinas.
El trabajo, publicado tras varios años de investigación, aporta evidencias sobre cómo la interacción con sistemas inteligentes puede moldear la conducta humana y plantea preguntas urgentes sobre la ética en la era de la inteligencia artificial.