Iscriviti alla nostra newsletter giornaliera e tieniti aggiornato sulle ultime notizie!

Iscriviti Sono già iscritto

State utilizzando un software che blocca le nostre pubblicità (cosiddetto adblocker).

Dato che forniamo le notizie gratuitamente, contiamo sui ricavi dei nostri banner. Vi preghiamo quindi di disabilitare il vostro software di disabilitazione dei banner e di ricaricare la pagina per continuare a utilizzare questo sito.
Grazie!

Clicca qui per una guida alla disattivazione del tuo sistema software che blocca le inserzioni pubblicitarie.

Sign up for our daily Newsletter and stay up to date with all the latest news!

Registrazione I am already a subscriber

Un tessuto intelligente in grado di identificare la frutta

Secondo uno studio del Dartmouth College e di Microsoft Research, alcuni ricercatori hanno progettato un tessuto intelligente in grado di rilevare oggetti non metallici, dagli avocado alle carte di credito. La stoffa, denominata Capacitivo, rilevando gli spostamenti delle cariche elettriche, è in grado di identificare oggetti di varie forme e dimensioni.

Lo studio e un video dimostrativo che descrive il sistema di rilevamento sono stati presentati all'ACM Symposium on User Interface Software and Technology (UIST 2020).

"Questa ricerca ha il potenziale per cambiare il modo in cui le persone interagiscono con i computer", ha detto Xing-Dong Yang, assistente di informatica e ricercatore senior dello studio.

Le tecniche già esistenti di rilevamento mediante superfici morbide, si basano su degli input, come ad esempio il tocco dell'utente. Il nuovo sistema interattivo, invece, si basa su una tecnica di "input implicito", in cui cioè il tessuto non necessita di una specifica azione da parte dell'oggetto che sta rilevando.

La stoffa riconosce gli oggetti in base al trasporto delle cariche elettriche nei suoi elettrodi, causati dalle modifiche al campo elettrico di un oggetto. La differenza di carica può essere correlata al tipo di materiale, alle dimensioni dell'oggetto e alla forma dell'area di contatto.

Le informazioni rilevate sulla carica elettrica vengono confrontate con i dati memorizzati nel sistema, utilizzando tecniche di apprendimento automatico. La capacità di riconoscere oggetti non metallici come alimenti, liquidi, utensili da cucina, plastica e prodotti di carta, rende unico questo sistema.

"Essere in grado di percepire oggetti non metallici è una svolta per i tessuti intelligenti, perché consente agli utenti di interagire con un'ampia varietà di oggetti di uso quotidiano, in modi completamente nuovi", ha affermato Te-Yen Wu, dottorando di Dartmouth e autore principale dello studio.

Nell'ambito dello studio, venti oggetti sono stati testati sul tessuto intelligente. Questi variavano per dimensione, forma e materiale. Il team ha incluso anche un bicchiere d'acqua e una ciotola, per testare l'affidabilità del sistema nel riconoscere un contenitore pieno. Nel complesso, il sistema ha raggiunto una precisione del 94,5% nei test.

Il sistema si è rivelato particolarmente accurato nel distinguere i diversi frutti, come il kiwi e l'avocado. Anche lo stato di un contenitore di liquidi è stato relativamente semplice da determinare, per il sistema. In uno studio supplementare, il sistema è stato in grado di distinguere tra diversi tipi di liquidi come acqua, latte, sidro di mele e soda.

Il sistema è risultato meno preciso per gli oggetti che non producono un'impronta sul tessuto, come le carte di credito. Il prototipo presenta una griglia di elettrodi a forma di diamante, realizzati in tessuto conduttivo e fissato a una stoffa di cotone. Le dimensioni degli elettrodi e la distanza tra loro sono state progettate per massimizzare l'area di rilevamento e la sensibilità.

I ricercatori si aspettano che il sistema possa svolgere diverse funzioni, tra cui aiutare a trovare oggetti smarriti, fornire avvisi o notifiche e fornire informazioni ad altri sistemi intelligenti, come i tracker alimentari. Il sistema può anche aiutare in cucina, suggerendo ricette e fornendo istruzioni per la preparazione.

Per maggiori informazioni: www.dartmouth.edu

Data di pubblicazione: