Espressioni facciali dei primati: lo studio dell’Università di Torino svela nuove scoperte grazie all’AI

L’Università di Torino utilizza l’intelligenza artificiale per decodificare le espressioni facciali di lemuri e gibboni, aprendo nuove prospettive per la ricerca comparativa sui primati non umani.
L’intelligenza artificiale è ormai largamente utilizzata per l’analisi delle espressioni facciali umane, ma la sua applicazione alle altre specie di primati è rimasta finora poco esplorata. Tuttavia, l’Università di Torino ha promosso il primo studio finalizzato all’impiego dell’AI per decodificare le espressioni facciali dei primati non umani. Pubblicata sulla rivista ‘Ecological Informatics’, la ricerca dimostra come le tecniche di deep learning possano essere efficaci nel riconoscere le espressioni facciali di specie come lemuri e gibboni, permettendo una migliore analisi del loro repertorio facciale e facilitando lo studio comparativo tra diverse specie.
L’indagine sulle espressioni facciali nella comunicazione animale è fondamentale, ma i tradizionali metodi di analisi manuale sono adatti solo per piccoli set di dati. In questo contesto, l’applicazione del deep learning si rivela estremamente utile, in particolare per decodificare le configurazioni facciali associate alle vocalizzazioni su grandi quantità di dati. Lo studio dell’Università di Torino ha indagato, nello specifico, le espressioni facciali legate all’apertura della bocca e all’emissione di suoni.
Filippo Carugati, dottorando in Scienze Biologiche e Biotecnologie Applicate e primo autore dello studio, ha spiegato: “Quando abbiamo avviato questa ricerca tre anni fa, l’applicazione del deep learning al riconoscimento delle espressioni facciali di specie non umane era un campo del tutto inesplorato. Oggi, siamo testimoni di un progresso tecnologico che non solo può essere applicato a nuove specie, ma permette anche di effettuare studi comparativi su larga scala”.
Grazie alla collaborazione con una stazione di ricerca situata nella foresta di Maromizaha, in Madagascar, il team di ricercatori e studenti dell’Università di Torino ha potuto filmare lemuri come indri e sifaka nel loro habitat naturale, estendendo la ricerca non solo ai gibboni in cattività ma anche agli animali selvatici. Durante lo studio, sono stati impiegati algoritmi di apprendimento automatico per classificare le espressioni facciali legate alle vocalizzazioni e quelle non vocalizzate nelle diverse specie. I risultati hanno mostrato tassi di classificazione corretta superiori alla norma, con alcuni algoritmi che hanno superato il 90% di accuratezza.
Marco Gamba, zoologo e senior author del progetto, nonché presidente del Corso di Laurea Magistrale in Evoluzione del Comportamento Animale e dell’Uomo, ha sottolineato: “Lo studio delle espressioni facciali di scimmie e lemuri è stato storicamente soggetto a interpretazioni soggettive, rischiando di influenzare i risultati. Inoltre, i tempi di training degli operatori erano notevoli. Grazie a questo studio, abbiamo dimostrato che è possibile allenare gli algoritmi su un campione di dati inferiore al 5%, ottenendo una percentuale di identificazione corretta superiore al 95% nelle espressioni facciali legate alla vocalizzazione rispetto ad altre situazioni.”