Riprodurre il senso del tatto grazie alla propagazione dell’energia lungo mano e braccio - Best Paper Award a Matteo Bianchi all'Haptics Symposium

23 Aprile 2024
481
VIEW

Lo studio dell’Università di Pisa e dell'Università della California, Santa Barbara premiato all’ IEEE Haptics Symposium, una delle conferenze più prestigiose di Aptica.

Le vibrazioni trasmesse attraverso mano e braccio quando tocchiamo un oggetto giocano un ruolo essenziale nel farci provare una determinata sensazione tattile, ma misurarle e costruirne dei modelli è estremamente complesso.

Uno studio dell’Università di Pisa e dell'Università della California Santa Barbara ha messo a punto SkinSource, uno strumento open-source in grado di misurare e modellare le vibrazioni della pelle lungo gli arti superiori in risposta a un insieme molto ampio di stimoli tattili localizzati.
Le potenziali applicazioni vanno dal design di nuove potessi e mani robotiche fino alla realtà aumentata tattile.

Il toolbox ha destato un grande entusiasmo nella comunità di studiosi del senso del tatto, che include discipline molto diverse tra loro, come le neuroscienze, la medicina e l’ingegneria, ed è stato premiato con il Best Paper Award all’ Haptics Symposium, una delle maggiori conferenze internazionali del settore dell’Aptica, che si è svolto nei giorni scorsi a Long Beach, California.

“Il senso del tatto - spiega Matteo Bianchi, docente di robotica al Dipartimento di Ingegneria dell’Informazione dell’Università di Pisa - è il più complesso e diffuso in tutto il corpo. Le nostre sensazioni tattili dipendono non solo dai recettori locali della pelle, ma anche da diversi altri fattori, come le vibrazioni che si diffondono attraverso la mano e il braccio nel momento in cui tocchiamo un oggetto. Il tatto è un senso chiave sia per la propriocezione – ovvero la capacità di percepire il nostro corpo come collocato nello spazio in una certa posizione. – sia per l’esterocezione, ovvero la capacità di capire le proprietà fisiche degli oggetti, quali la rugosità e la rigidezza. È con il tatto che sappiamo se siamo in una posizione stabile, se stiamo tenendo un bicchiere di carta abbastanza dritto da non rovesciarlo, ma abbastanza delicatamente da non stritolarlo. Senza il tatto non potremmo camminare, stare seduti, tenere una posizione in modo consapevole, interagire, esplorare e modificare il mondo che ci circonda. Per questo, la capacità di modellare le dinamiche del nostro corpo nel momento in cui tocchiamo un oggetto, per poterle riprodurre per esempio in una protesi, o in una mano robotica, o in un'applicazione di realtà aumentata o virtuale, assume una grande rilevanza. Il nostro dispositivo è in grado di predire l’estensione e l’intensità delle vibrazioni che si trasmettono lungo gli arti superiori a seguito di differenti tipi di stimoli di forza localizzati, in modo accurato.

Il toolbox è open-source, ed è quindi a disposizione di tutta la comunità scientifica che ne vuole fare uso, liberamente scaricabile da questo link https://doi.org/10.5281/zenodo.10547601 Proprio questo aspetto, data la complessità e la difficoltà di riprodurre in modo affidabili le sensazioni tattili, è stato accolto con grande entusiasmo”.

SkinSource infatti, oltre ad essere uno strumento per lo studio delle basi meccaniche della percezione tattile, può essere utilizzato per la progettazione e design di interfacce per la restituzione sensoriale in protesi degli arti superiori e in mani robotiche teleoperate in cui è fondamentale avere un ritorno tattile, così come nella chirurgia robotica e in molte applicazioni che fanno uso della realtà aumentata. Gli ingegneri pisani, infatti, all’interno del FoReLab, il laboratorio del dipartimento di ingegneria dell’informazione dedicato al 5.0, stanno mettendo a punto dispositivi di realtà aumentata che integrano la percezione visiva e tattile.

“Con SkinSource infatti - conclude Bianchi - possiamo sfruttare lo studio e la modellazione della propagazione dell’energia meccanica lungo la pelle per costruire sistemi indossabili distribuiti, per garantire un’esperienza immersiva che integri stimoli visivi e tattili. Il sistema può operare accanto alle interfacce per realtà aumentata a cui stiamo lavorando nel laboratorio FoReLab, che consentono di vedere o toccare oggetti reali modificandone la percezione visiva o tattile mediante stimoli artificiali.”