Nueva herramienta de la Universidad de Boston protege la privacidad en evaluaciones de voz
Una nueva herramienta computacional desarrollada por la Universidad de Boston está transformando las evaluaciones de salud cognitiva basadas en voz. Según un estudio publicado en Alzheimer's & Dementia, este avance protege la privacidad de los pacientes mientras detecta signos de deterioro cognitivo.
Autor - Aldo Venuta Rodríguez
2 min lectura
La Facultad de Medicina Chobanian y Avedisian de la Universidad de Boston ha creado un marco que analiza grabaciones de voz digitales para identificar problemas cognitivos de manera no invasiva. El 14 de marzo de 2025, los investigadores anunciaron que este método puede detectar deterioro cognitivo leve (DCL) y demencia (DE) analizando aspectos como la velocidad del habla, la articulación y las pausas, pero también aborda un desafío importante: la privacidad.
El estudio señala que las grabaciones de voz contienen datos sensibles, como el género, el acento y el estado emocional, que podrían identificar a las personas. Esto genera preocupación por el riesgo de reidentificación cuando se procesan con sistemas automatizados.
Para resolverlo, el equipo liderado por Vijaya B. Kolachalama, profesor asociado de medicina, aplicó una técnica llamada cambio de tono. Este método altera el tono de la voz, subiéndolo o bajándolo, junto con modificaciones como ruido y ajustes temporales, para ocultar la identidad sin perder las características clave para el diagnóstico.
Utilizando datos del Estudio del Corazón de Framingham y el Banco de Demencia de Delaware, los investigadores probaron su herramienta. Los resultados mostraron que puede distinguir entre cognición normal, DCL y demencia con un 62% de precisión en un conjunto de datos y un 63% en otro, incluso con las voces ofuscadas.
Kolachalama explicó: “Demostramos que el cambio de tono mitiga los riesgos para la privacidad y preserva el valor diagnóstico de las características acústicas”. Este avance es una respuesta a una necesidad urgente en la medicina moderna.
El estudio destaca que los datos de voz son valiosos, pero su uso debe ser ético. Los investigadores proponen que esta herramienta podría sentar las bases para directrices estandarizadas que protejan a los pacientes en evaluaciones clínicas.
Millones de personas en el mundo enfrentan deterioro cognitivo, y métodos como este podrían mejorar su detección temprana. Sin embargo, el mal uso de datos sensibles sigue siendo un riesgo si no se toman medidas como esta.
Según Kolachalama, estos hallazgos, publicados en Alzheimer's & Dementia, abren el camino para integrar los datos de voz en la medicina de forma segura y práctica.
Este desarrollo en Boston muestra que la tecnología puede avanzar en la salud sin comprometer la privacidad de los pacientes.
Continúa informándote
Cada vez es más difícil distinguir entre videos reales y videos creados por inteligencia artificial
Los videos generados por inteligencia artificial alcanzan un realismo casi indistinguible de las grabaciones reales, lo que complica la verificación, alimenta la desinformación y erosiona la confianza digital
Qué implica para Google tener que abrir sus datos de búsqueda e IA a la competencia
La UE presiona a Google para compartir datos de búsqueda, Android y su IA con rivales. La medida promete más competencia, pero abre dudas sobre privacidad y seguridad.
Reddit apuesta por la búsqueda con IA como su próximo motor de ingresos
Reddit impulsa su buscador con inteligencia artificial y lo perfila como su próxima gran fuente de ingresos, combinando respuestas generativas, comunidades y licencias de datos
Si se aprueba el Chat Control, tus chats podrían ser escaneados antes de enviarse
El plan europeo “Chat Control” permitiría ordenar el escaneo de chats privados para detectar abuso infantil. Expertos alertan de riesgos para el cifrado y la privacidad
Moltbook no es una red de IA autónoma: infiltraciones humanas, spam y mucho teatro
Un periodista se infiltra en Moltbook haciéndose pasar por un bot y descubre suplantaciones, fallos de seguridad y mucho más teatro humano que inteligencia artificial
Anthropic promete que Claude no tendrá anuncios y marca distancia frente al modelo publicitario de ChatGPT
Anthropic asegura que su asistente Claude seguirá sin anuncios y critica el giro publicitario de ChatGPT, defendiendo un modelo centrado en el usuario y no en los anunciantes