Un nuovo evento GamesBeat è dietro l'angolo! Scopri di più su cosa verrà dopo.
In uno studio del 2012 pubblicato sulla rivista Biological Psychiatry, un team di scienziati del Center for Psychological Consultation (CPC) di Madison, Wisconsin, ha ipotizzato che le caratteristiche della voce di una persona depressa potrebbero rivelare molto sulla gravità del loro disturbo. I coautori hanno affermato che la ricerca, parzialmente finanziata dal gigante farmaceutico Pfizer, ha identificato diversi "biomarcatori vitali" – indicatori quantitativi di cambiamento nella salute – per misurare la gravità della depressione maggiore.
Basandosi sulla letteratura in questo senso, è emersa un'industria a domicilio, con startup che affermano di automatizzare il rilevamento della depressione utilizzando l'intelligenza artificiale addestrata su centinaia di registrazioni delle voci delle persone. Uno degli sforzi meglio finanziati, Ellipsis Health, che genera valutazioni della depressione da 90 secondi del discorso di una persona, è riuscito a raccogliere 26 milioni di dollari in finanziamenti di serie A. Gli investitori includono l'ex capo scienziato di Salesforce Richard Socher e il CEO di Salesforce Marc Benioff's Time Ventures.
Secondo il fondatore e CEO Mainul I Mondal, la tecnologia di Ellipsis è "basata sulla scienza" e convalidata da ricerche peer-reviewed. Ma gli esperti sono scettici sul fatto che il prodotto dell'azienda, e ad altri piace, funzioni bene come pubblicizzato.
Contents
Diagnosi di depressione
L'idea che i segni della depressione possano essere rilevati nella voce di una persona ha almeno 60 anni. Lo studio CPC del 2012 è stato il seguito di un lavoro del 2007 dello stesso gruppo di ricerca originariamente pubblicato sul Journal of Neurolinguistics. Secondo quanto riferito, quello studio, finanziato da una borsa di ricerca sull'innovazione per piccole imprese del National Institutes of Health degli Stati Uniti, ha rilevato che le caratteristiche "vocale-acustiche" sono correlate alla gravità di alcuni sintomi della depressione.
Secondo James Mundt, un ricercatore senior presso CPC che ha condotto sia gli studi del 2007 che del 2012, i pazienti depressi iniziano a parlare più velocemente e con pause più brevi mentre rispondono al trattamento – o con qualità monotone, "senza vita" e "metalliche", o "caratteristiche paraverbali", se non lo fanno. Il linguaggio richiede un controllo complesso nel sistema nervoso e i percorsi sottostanti nel cervello possono essere influenzati da disturbi psichiatrici, inclusa la depressione. La capacità di parlare, quindi, è strettamente correlata al pensiero e alla concentrazione, tutte cose che possono essere compromesse con la depressione. O almeno così va il ragionamento.
Ellipsis ha sfruttato questa connessione accademica tra linguaggio e pensiero disordinato per sviluppare un test di screening per la depressione grave. I pazienti parlano brevemente in un microfono per registrare un campione vocale, che gli algoritmi dell'azienda poi analizzano per misurare i livelli di depressione e ansia.
“Combinando le più attuali tecniche di deep learning e di transfer learning all'avanguardia, il nostro team ha sviluppato nuovi modelli che rilevano nella voce sia i pattern acustici che quelli basati sulle parole. I modelli apprendono le loro caratteristiche direttamente dai dati, senza fare affidamento su caratteristiche predeterminate", ha detto Mondal a VentureBeat via e-mail. “In tutto il mondo, la voce è la misura originale del benessere. Attraverso la parola, la voce di qualcuno trasmette lo stato interno di una persona, non solo attraverso parole e idee, ma anche attraverso il tono, il ritmo e l'emozione".
Secondo Grand View Research, il mercato delle startup di salute dell'intelligenza artificiale, in particolare quelle che si occupano di biomarcatori, dovrebbe valere $ 129,4 miliardi entro il 2027. Ellipsis è uno dei tanti nello spazio di analisi vocale per la diagnosi della depressione, che include Sonde Health; Vocalis Salute; Laboratori di luce invernale; e Kintsugi, con sede a Berkeley, in California, che ha chiuso un round di finanziamento di 8 milioni di dollari la scorsa settimana.
Alcune ricerche danno credito all'idea che l'intelligenza artificiale possa rilevare la depressione dai modelli di discorso. In un documento presentato alla conferenza Interspeech del 2018, i ricercatori del MIT hanno dettagliato un sistema in grado di leggere i dati audio delle interviste per scoprire i biomarcatori della depressione con una precisione del 77%. E nel 2020, utilizzando un sistema di intelligenza artificiale progettato per concentrarsi sulla scelta delle parole, gli scienziati dell'Università della California, a Los Angeles, hanno affermato di essere in grado di monitorare le persone in cura per gravi malattie mentali così come potrebbero farlo i medici.
"Non c'è dubbio che le caratteristiche paraverbali possano essere utili per fare diagnosi cliniche", ha detto a KQED Danielle Ramo, assistente professore di psichiatria presso l'Università della California, a San Francisco, in un'intervista del 2017. "Nella misura in cui le macchine sono in grado di sfruttare le funzionalità paraverbali nella comunicazione, questo è un passo avanti nell'uso delle macchine per informare le diagnosi cliniche o la pianificazione del trattamento".
In un altro studio dell'Università del Vermont, che prevedeva la formazione di un sistema per rilevare la depressione infantile, i ricercatori hanno notato che i test standard comportano lunghe interviste sia con i medici che con gli operatori sanitari primari. Poiché la depressione non può essere rilevata da un esame del sangue o da una scansione del cervello, i medici devono fare affidamento sulle autovalutazioni e sui risultati di queste interviste per arrivare a una diagnosi. La coautrice Ellen McGinnis ha presentato la ricerca come un modo per diagnosticare rapidamente e facilmente i disturbi mentali nei giovani.
La stessa Ellipsis prevede di destinare una parte del nuovo capitale all'espansione della propria piattaforma a bambini e adolescenti, con l'obiettivo dichiarato di migliorare l'accesso alla diagnosi e al trattamento. “Non si può gestire ciò che non si può misurare. L'accesso dipende dalla conoscenza di una condizione e dal livello di gravità di tale condizione", ha affermato Mondal. “L'accesso dipende anche dalla disponibilità di risorse in grado di trattare diversi livelli di accesso. Sebbene ci possa essere una carenza di specialisti, la comprensione del livello di gravità può aprire l'accesso a fornitori meno specializzati, che hanno un'offerta migliore. In altre parole, la misurazione esegue il triage per raccomandare la cura giusta al momento giusto per un paziente.
Potenziali difetti
In molti modi, la pandemia ha evidenziato le ramificazioni dell'epidemia di salute mentale. Il numero di persone che presentano sintomi di depressione e ansia da moderati a gravi rimane più elevato rispetto a prima dell'epidemia globale, con una stima del 28% delle persone negli Stati Uniti che soffrono di depressione, secondo Mental Health America. In questo contesto, la National Alliance on Mental Health stima che il 55% delle persone con malattie mentali non riceve cure, un divario che dovrebbe ampliarsi con l'incombere della carenza di psichiatri.
La tecnologia di Ellipsis, presentata come una soluzione parziale, è in fase di sperimentazione negli stati "più di nove" degli Stati Uniti e a livello internazionale attraverso la compagnia assicurativa Cigna. Cigna lo ha utilizzato per creare un test chiamato StressWaves che visualizza il livello di stress attuale di una persona e suggerisce esercizi per promuovere il benessere mentale. Secondo Mondal, la piattaforma di Ellipses è stata testata anche nei sistemi di salute comportamentale presso gli Alleviant Health Centers e i centri medici accademici non divulgati e le cliniche specializzate.
"Ora più che mai, il settore ha bisogno di soluzioni audaci e scalabili per affrontare questa crisi, a partire da strumenti come il nostro per quantificare la gravità, poiché i fornitori a corto di tempo da soli non hanno la larghezza di banda per risolvere questo problema", ha affermato.
Ma alcuni scienziati informatici hanno delle riserve sull'uso dell'intelligenza artificiale per monitorare i disturbi mentali, in particolare i disturbi gravi come la depressione. Mike Cook, un ricercatore di intelligenza artificiale presso la Queen Mary University di Londra, ha affermato che l'idea di rilevare la depressione attraverso il linguaggio "sembra molto improbabile" per fornire risultati altamente precisi. Sottolinea che nei primi giorni del riconoscimento delle emozioni guidato dall'intelligenza artificiale, in cui gli algoritmi sono stati addestrati per riconoscere le emozioni da immagini e registrazioni video, le uniche emozioni che i ricercatori potevano far riconoscere ai sistemi erano emozioni "false", come volti esagerati. Mentre i segni più evidenti della depressione potrebbero essere facili da individuare, la depressione e l'ansia si presentano in molte forme e i meccanismi che collegano i modelli di linguaggio e i disturbi non sono ancora ben compresi.
“Penso che una tecnologia come questa sia rischiosa per un paio di motivi. Uno è che industrializza la salute mentale in un modo che probabilmente non dovrebbe essere: comprendere e prendersi cura degli esseri umani è complesso e difficile, ed è per questo che ci sono problemi così profondi di fiducia, cura e formazione coinvolti nel diventare un professionista della salute mentale, "Cook ha detto a VentureBeat via e-mail. "I sostenitori potrebbero suggerire di usarlo solo come guida per i terapisti, una sorta di assistente, ma in realtà ci sono molti più modi in cui questo potrebbe essere usato male – dall'automazione della diagnosi dei problemi di salute mentale al permettere alla tecnologia di penetrare nelle aule, luoghi di lavoro, aule di tribunale e stazioni di polizia. … Come tutte le tecnologie di machine learning, [voice-analyzing tools] darci una patina di autorità tecnologica, dove in realtà questo è un argomento delicato e complicato di cui è improbabile che l'apprendimento automatico capisca le sfumature.
C'è anche la possibilità di pregiudizi. Come osserva Os Keyes, un ricercatore di intelligenza artificiale presso l'Università di Washington, le voci sono distinte, in particolare per le persone già disabili e le persone che parlano lingue, accenti e dialetti non inglesi come l'inglese vernacolare afroamericano (AAVE). Un madrelingua francese che fa un test in inglese, ad esempio, potrebbe mettere in pausa o pronunciare una parola con una certa incertezza, che potrebbe essere fraintesa da un sistema di intelligenza artificiale come un indicatore di malattia. Winterlight ha incontrato un intoppo dopo la pubblicazione della sua ricerca iniziale sul Journal of Alzheimer's Disease nel 2016, dopo aver scoperto che la sua tecnologia di analisi vocale funzionava solo per gli anglofoni di un particolare dialetto canadese. (La startup ha reclutato partecipanti allo studio in Ontario.)
“Le voci sono, beh, diverse; le persone parlano in diverse forme idiomatiche, le persone si presentano socialmente in modi diversi e queste non sono distribuite casualmente. Invece, sono spesso (parlando in generale, qui) fortemente associati a gruppi particolari", ha detto Keyes a VentureBeat via e-mail. “Prendiamo ad esempio gli accenti ‘valle’ codificati in bianco, o AAVE, o i diversi schemi vocali e intonazioni delle persone autistiche. Persone di colore, disabili, donne: stiamo parlando di persone già soggette a discriminazione e licenziamento in medicina e nella società in generale”.
Le startup vocali che rilevano la depressione hanno record misti, in generale. Lanciato da una fusione di aziende tecnologiche israeliane Beyond Verbal e Healthymize, Vocalis si è in gran parte orientato alla ricerca sui biomarcatori COVID-19 in collaborazione con la Mayo Clinic. Winterlight Labs, che ha annunciato una collaborazione con Johnson & Johnson nel 2019 per sviluppare un biomarcatore per l'Alzheimer, è ancora in fase di conduzione di studi clinici con Genentech, Pear Therapeutics e altri partner. Sonde Health – che ha anche sperimentazioni in corso, incluso per il Parkinson – ha completato solo i primi test degli algoritmi di rilevamento della depressione che ha ottenuto in licenza dai Lincoln Laboratories del MIT.
Ad oggi, nessuno dei sistemi delle società ha ricevuto la piena approvazione dalla Food and Drug Administration (FDA) statunitense.
La soluzione di Ellipsis è unica, afferma Mondal, in quanto combina algoritmi acustici (ad esempio, toni, altezze e pause) e semantici (parole) addestrati su strumenti di valutazione "standardizzati dal settore". Gli algoritmi sono stati inizialmente alimentati con milioni di conversazioni da persone "non depresse" e li hanno estratti per il tono, la cadenza, l'enunciazione e altre caratteristiche. Gli scienziati dei dati di Ellipsis hanno quindi aggiunto conversazioni, dati da questionari sulla salute mentale e informazioni cliniche da pazienti depressi per "insegnare" gli algoritmi per identificare i segni evidenti della depressione.
“Sfruttiamo un set di dati diversificato per garantire che i nostri algoritmi non siano distorti e possano essere implementati a livello globale … I nostri modelli possono essere generalizzati bene a nuove popolazioni con dati demografici diversi, accenti diversi e livelli di abilità linguistiche [and] sono abbastanza robusti da supportare il tempo reale [applications] tra popolazioni diverse senza bisogno di una linea di base", ha affermato Mondal. “Uno degli studi approvati dal nostro comitato di revisione istituzionale (IRB) è attualmente nella fase due e prevede il monitoraggio dei pazienti nelle cliniche per la depressione. I primi risultati mostrano che i nostri punteggi vitali di depressione e ansia corrispondono strettamente alla valutazione del medico… Noi [also] hanno 9 proposte IRB in corso con istituzioni come Mayo Clinic, Penn State University e Hartford Healthcare.
Keyes ha caratterizzato l'approccio di Ellipsis alla distorsione nei suoi algoritmi come "preoccupante" e fuori dal mondo. "Dicono un grande gioco sull'essere preoccupati per i pregiudizi e sull'essere rigorosamente controllati accademicamente, ma trovo un documento sul pregiudizio – questo – e quando leggi oltre l'astratto, ha alcune scoperte piuttosto nodose", hanno detto. “Per cominciare, sebbene lo vendano come se l'età non fosse un fattore di accuratezza, il loro test è corretto solo il 62% delle volte quando si tratta di veri negativi afroamericani e il 53% delle volte con persone caraibiche. In altre parole: il 40% delle volte classificheranno erroneamente una persona di colore come depressa o ansiosa, quando non lo sono. Questo è incredibilmente preoccupante, e potrebbe essere il motivo per cui l'hanno sepolto nell'ultima pagina, perché le diagnosi spesso portano con sé lo stigma e sono usate come scuse per discriminare e privare le persone di potere".
Mondal ammette che la piattaforma di Ellipses non può ancora essere legalmente considerata uno strumento diagnostico, ma solo uno strumento di supporto alle decisioni cliniche. "Ellipsis intende seguire le linee guida della FDA per l'IA medica con il piano previsto per l'approvazione normativa della FDA della sua tecnologia per misurare il livello di gravità della depressione clinica e dell'ansia", ha affermato. “Verrà creata una fondazione per consentire [us to] scalare nel mercato globale”.
Naturalmente, anche se la FDA alla fine approvasse una tecnologia come quella di Ellipses, potrebbe non affrontare i rischi legati al possibile uso improprio degli strumenti. In uno studio pubblicato su Nature Medicine, un team di Stanford ha scoperto che quasi tutti i dispositivi basati sull'intelligenza artificiale approvati dalla FDA tra gennaio 2015 e dicembre 2020 sono stati sottoposti solo a studi retrospettivi al momento della loro presentazione. I coautori sostengono che sono necessari studi prospettici perché l'uso sul campo di un dispositivo può deviare dall'uso previsto. Ad esempio, uno studio prospettico potrebbe rivelare che i medici stanno abusando di un dispositivo per la diagnosi rispetto al supporto decisionale, portando a risultati di salute potenzialmente peggiori.
“Lo scenario migliore per [Ellipsis’] software è: trasformeranno un profitto sull'infelicità degli individui, ovunque. Il caso peggiore è: trasformeranno un profitto nel dare a datori di lavoro e medici ulteriori motivi per maltrattare le persone già emarginate sia nell'assistenza sanitaria che nei luoghi di lavoro", ha affermato Keyes. “Voglio credere che le persone veramente impegnate a rendere il mondo un posto migliore possano fare di meglio. Ciò che potrebbe sembrare è, come minimo, indagare rigorosamente sul problema che stanno cercando di risolvere; sui rischi di trattare i medici come una linea di base neutrale per la discriminazione, data la prevalenza del razzismo medico, su ciò che accade dopo la diagnosi e su cosa significhi trattare la depressione come sito per i pagamenti di azioni”.
VentureBeat
La missione di VentureBeat è quella di essere una piazza cittadina digitale per i responsabili delle decisioni tecniche per acquisire conoscenze sulla tecnologia trasformativa e sulle transazioni.
Il nostro sito fornisce informazioni essenziali sulle tecnologie e sulle strategie dei dati per guidarti nella guida delle tue organizzazioni. Ti invitiamo a diventare un membro della nostra community, per accedere a:
- informazioni aggiornate sugli argomenti di tuo interesse
- le nostre newsletter
- contenuti gated leader di pensiero e accesso scontato ai nostri eventi preziosi, come Trasforma 2021: Per saperne di più
- funzioni di rete e altro
Diventare socio