Agenzia Giornalistica
direttore Paolo Pagliaro

RICERCA: AUTISMO ED EMOZIONI: L’INTELLIGENZA ARTIFICIALE SVELA I LORO CODICI

BigItaly focus
BigItalyFocus è un servizio di news quotidiane che offre informazioni e approfondimenti sul meglio della presenza italiana nel mondo. Dal lunedì al venerdì, offre un panorama di informazione completo che spazia dalle attività di cooperazione al made in Italy

RICERCA: AUTISMO ED EMOZIONI: L’INTELLIGENZA ARTIFICIALE SVELA I LORO CODICI

New York - Le emozioni sono un linguaggio universale e solitamente possono essere riconosciute con facilità e naturalezza. Non è così per le persone affette da disturbi dello spettro autistico (Autism Spectrum Disorder – ASD) per le quali questa semplice attività risulta molto limitata, nel migliore dei casi. La ragione di questa difficoltà è da anni al centro di studi scientifici che provano a far luce sul funzionamento del cervello negli individui affetti da questi disturbi. Uno studio dell’Università di Trento e della Stony Brook University di New York, pubblicato pochi giorni fa in versione pre-print sulla rivista “Biological Psychiatry” e intitolato “Cognitive Neuroscience and Neuroimaging”, mette in discussione molte convinzioni e apre a nuovi scenari per migliorare le condizioni di vita e le relazioni sociali delle persone con ASD. Leggere le espressioni facciali e decodificare le emozioni è effettivamente difficile per chi è affetto da disturbi dello spettro autistico. Ma la ragione non sta nella capacità di codifica dei segnali neurali da parte del cervello, come si è sempre pensato, quanto piuttosto nei problemi nella traduzione delle informazioni. Un problema che in questo periodo si acuisce anche a causa delle misure di contenimento della pandemia. “Particolarmente adesso con l’uso costante di mascherine di protezione – spiega Matthew D. Lerner, coautore dello studio e docente di Psicologia, Psichiatria e Pediatria alla Stony Brook University – limita l’espressività del viso e questo comporta una minore disponibilità di informazioni sulle nostre emozioni. Ecco perché è importante capire come, quando e per chi emergano difficoltà di comprensione, quali siano i meccanismi alla base del fraintendimento”. Le conclusioni dello studio sono frutto di un lungo lavoro di analisi che ha impiegato tecniche di apprendimento automatico e potrebbero essere utili per rivedere l’approccio con cui si aiutano le persone con ASD a leggere le emozioni altrui. Lo studio è stato condotto congiuntamente da un gruppo di ricercatori e ricercatrici della Stony Brook University di New York e del Dipartimento di Ingegneria e Scienze dell’Informazione dell’Università di Trento su 192 persone di età diverse con e senza disturbi dello spettro autistico. I loro segnali neurali sono stati registrati durante la visualizzazione di molte emozioni facciali e successivamente analizzati. Per farlo, il gruppo di ricerca ha impiegato un nuovo sistema di classificazione delle emozioni facciali che sfrutta l’apprendimento automatico, denominato Deep Convolutional Neural Networks. Questo approccio “machine learning” include un algoritmo che permette di analizzare e classificare l’attività del cervello mentre osserva i volti, rilevata tramite elettroencefalografia. Il risultato è una mappa molto accurata dei modelli neurali che il cervello di ogni persona applica per decodificare le emozioni.(9colonne)


(© 9Colonne - citare la fonte)