Se l’IA riconosce i malati di Covid-19 (e non solo) dalla loro voce

VoiceWise, specializzata nell’analisi vocale, porta l’intelligenza artificiale in corsia

Redazione ANSA

di Alessio Jacona*

“Dica trentatre!”. Quante volte, durante una visita medica, un dottore ci ha chiesto di ripetere questa sequenza di suoni mentre contemporaneamente ci auscultava la schiena con uno stetoscopio, per valutare lo stato dei nostri polmoni a seconda di come il suono si propagava nella cassa toracica.
Oggi l’intelligenza artificiale sviluppata da VoiceWise, spinoff dell’università di Tor Vergata a Roma, fa qualcosa di simile, solo moltiplicato all’ennesima potenza, per dare la caccia (anche) al Covid-19.
Parliamo di algoritmi “addestrati” ad ascoltare la voce umana, a coglierne ogni sfumatura per scovare piccole ma significative variazioni che, una volta interpretate correttamente, permettono all’intelligenza artificiale di indicare una precisa patologia.
Nata da un’idea del professor Giovanni Saggio, professore presso il Dipartimento di Ingegneria Elettronica dell'Università di Tor Vergata, VoiceWise è oggi l’azienda protagonista di una sperimentazione clinica per diagnosticare e monitorare l’infezione da coronavirus attivata presso il Policlinico Tor Vergata di Roma, il Parco Tecnologico Technoscience di Latina e il Policlinico Fondazione San Matteo di Pavia.
Il sistema prevede l’uso di dispositivi come smartphone e tablet forniti a sostegno del progetto dal produttore cinese Huawei (tra cui Mate30 Pro, P30 Pro, Nova 5T, P Smart, Y6s, Mediapad M5 lite), che vengono utilizzati «per la loro capacità di registrare audio in modo appropriato e perché non era possibile portare a malati in isolamento microfono e registratore che usiamo di solito», spiega il professor Saggio. I device vengono consegnati a malati di Covid-19 volontari (e anonimi) affinché registrino «la propria voce, colpi di tosse e tutto ciò che serve all’algoritmo per essere addestrato a identificare la malattia».
Nella pratica, la tecnologia VoiceWise è fruibile attraverso una web app (per ora accessibile solo su invito e rivolta a fare da supporto a un dottore in carne ed ossa) con cui attivare l’IA che ascolta la nostra voce e fornisce quello che viene definito uno screening precoce, cui poi deve seguire la diagnosi di un medico. «Fino ad adesso sono stati 150 i pazienti monitorati, ma ora puntiamo ad allargare la sperimentazione per migliorare l'efficienza e l'attendibilità del sistema».
Quest’ultima è già assai promettente: VoiceWise, infatti, non si limita a individuare i malati ma anche a stabilire una prima stima della gravità della patologia eventualmente in corso, consentendo al medico di valutare a distanza il da farsi. In più sembra funzionare anche meglio dei tamponi: «In soli due casi abbiamo avuto risultati diversi dai test - ricorda infatti il professor Saggio - dove l’intelligenza artificiale riconosceva come malati due pazienti risultati negativi agli esami clinici. Ulteriori indagini hanno invece rivelato che i pazienti erano positivi, proprio come suggeriva l’algoritmo.
La sperimentazione in corso con il coronavirus e il fatto stesso che il sistema analizzi la voce, potrebbero indurre a pensare che la tecnologia sviluppata dal VoiceWise sia utile solo per segnalare potenziali malattie delle vie respiratorie. Non è così: «Lavoriamo già dal 2009, e quindi da molto prima dell'emergenza Covid-19, all’individuazione di diverse patologie con un livello di accuratezza che si assesta tra il 95% e il 98%», ricorda infatti Giovanni Saggio. Secondo il professore, nella voce umana sono riscontrabili oltre seimila parametri tra cui la frequenza fondamentale, le armoniche, il rapporto segnale rumore, jitter e shimmer, solo per citarne alcuni, e la cui modificazione (che l’orecchio umano non percepisce ma l’algoritmo sì) può indicare la presenza di più d’una malattia specifica.
Il caso del Parkinson, su cui Saggio e i suoi colleghi lavorano da anni, è a tal proposito illuminante: qui il paziente «tende ad esempio a separare di più le parole, a sostenere di più le vocali, evidenziando modifiche nel parlato che dipendono direttamente da questo specifico problema neurologico» e che differiscono da quelle causate dall’alzheimer o dalle malattie cardiache. Ogni malattia lascia una complessa impronta nella voce, che ora diventa riconoscibile dall’intelligenza artificiale consentendole di mettere in guardia il paziente.
L’utilizzo di device Huawei apre poi anche altre opportunità di screening: oltre al microfono di cui sono dotati, è infatti possibile sperimentare anche l’uso delle cuffie bluetooth in-ear, che raccolgono il suono in maniera significativamente diversa. Esse infatti funzionano vicino al viso, dove entra in gioco nella propagazione delle onde sonore anche la conduzione ossea del suono, portando ancora più informazioni da dare in pasto agli algoritmi di VoiceWise.
*Giornalista esperto di innovazione e curatore dell’Osservatorio Intelligenza Artificiale Hasstrollcrashedyet

RIPRODUZIONE RISERVATA © Copyright ANSA