Nueva herramienta de la Universidad de Boston protege la privacidad en evaluaciones de voz
Una nueva herramienta computacional desarrollada por la Universidad de Boston está transformando las evaluaciones de salud cognitiva basadas en voz. Según un estudio publicado en Alzheimer's & Dementia, este avance protege la privacidad de los pacientes mientras detecta signos de deterioro cognitivo.
Autor - Aldo Venuta Rodríguez
2 min lectura
La Facultad de Medicina Chobanian y Avedisian de la Universidad de Boston ha creado un marco que analiza grabaciones de voz digitales para identificar problemas cognitivos de manera no invasiva. El 14 de marzo de 2025, los investigadores anunciaron que este método puede detectar deterioro cognitivo leve (DCL) y demencia (DE) analizando aspectos como la velocidad del habla, la articulación y las pausas, pero también aborda un desafío importante: la privacidad.
El estudio señala que las grabaciones de voz contienen datos sensibles, como el género, el acento y el estado emocional, que podrían identificar a las personas. Esto genera preocupación por el riesgo de reidentificación cuando se procesan con sistemas automatizados.
Para resolverlo, el equipo liderado por Vijaya B. Kolachalama, profesor asociado de medicina, aplicó una técnica llamada cambio de tono. Este método altera el tono de la voz, subiéndolo o bajándolo, junto con modificaciones como ruido y ajustes temporales, para ocultar la identidad sin perder las características clave para el diagnóstico.
Utilizando datos del Estudio del Corazón de Framingham y el Banco de Demencia de Delaware, los investigadores probaron su herramienta. Los resultados mostraron que puede distinguir entre cognición normal, DCL y demencia con un 62% de precisión en un conjunto de datos y un 63% en otro, incluso con las voces ofuscadas.
Kolachalama explicó: “Demostramos que el cambio de tono mitiga los riesgos para la privacidad y preserva el valor diagnóstico de las características acústicas”. Este avance es una respuesta a una necesidad urgente en la medicina moderna.
El estudio destaca que los datos de voz son valiosos, pero su uso debe ser ético. Los investigadores proponen que esta herramienta podría sentar las bases para directrices estandarizadas que protejan a los pacientes en evaluaciones clínicas.
Millones de personas en el mundo enfrentan deterioro cognitivo, y métodos como este podrían mejorar su detección temprana. Sin embargo, el mal uso de datos sensibles sigue siendo un riesgo si no se toman medidas como esta.
Según Kolachalama, estos hallazgos, publicados en Alzheimer's & Dementia, abren el camino para integrar los datos de voz en la medicina de forma segura y práctica.
Este desarrollo en Boston muestra que la tecnología puede avanzar en la salud sin comprometer la privacidad de los pacientes.
Continúa informándote
Fallas en Windows permitían ejecutar malware con un solo clic, según Microsoft
Microsoft corrigió vulnerabilidades de día cero en Windows y Office que ya estaban siendo explotadas y permitían ejecutar malware con un solo clic
América Latina presenta Latam-GPT, su primer modelo regional de inteligencia artificial
América Latina presenta Latam-GPT, su primer modelo regional de inteligencia artificial, desarrollado para reflejar contextos culturales propios y reducir la dependencia tecnológica externa
xAI hace pública su reunión y plantea una IA que opere desde el espacio
xAI publicó su reunión interna y detalló su reorganización, cifras de crecimiento y planes para desarrollar centros de datos de IA en órbita
Qué son los centros de datos y cómo funcionan por dentro
Qué son los centros de datos, cómo funcionan por dentro, qué hay en sus servidores, redes y sistemas de refrigeración, y por qué consumen tanta energía en la era de la nube y la IA
Chatbots religiosos y sermones con IA: la tecnología se integra en comunidades de fe
La inteligencia artificial empieza a usarse en iglesias y comunidades religiosas para preparar sermones, ofrecer orientación espiritual y crear chatbots, abriendo un debate sobre fe, ética y tecnología
Cada vez es más difícil distinguir entre videos reales y videos creados por inteligencia artificial
Los videos generados por inteligencia artificial alcanzan un realismo casi indistinguible de las grabaciones reales, lo que complica la verificación, alimenta la desinformación y erosiona la confianza digital