Il Project Soli di Google, che è stato presentato lo scorso anno, è stato creato in gran segreto in uno dei laboratori della società. Per poter creare Soli, il guru delle interfacce Ivan Poupyrev ha inserito un micro radar all’interno di uno smartwatch, facendo sì che questo riuscisse a riconoscere anche il più piccolo dei gesti di chi lo indossava.
Ma i progressi di Project Soli non si sono fermati, infatti i ricercatori dell’Università di St. Andrews hanno investito molto nel progetto. Utilizzando l’AlphaKit di Soli, che Google ha condiviso con alcuni laboratori selezionati, il team di ricerca ha creato un nuovo progetto che si chiama RadarCat che non riconosce soltanto i gesti, ma anche oggetti e materiali specifici.
Acciaio, vetro, rame, mele arance, persino l’aria. Basta poggiare un qualsiasi oggetto fatto di qualsiasi materiale su piattino del radar – una placchetta quadrata sulla quale bisogna appoggiare l’oggetto – e Soli imparerà ad identificarlo.
Quando il sistema Project Soli è a lavoro, procede in modo istantaneo e accurato. A differenza dell’alternativa di auto-ID fornita da CMU, le onde radio di RadarCat riflettono contro qualsiasi oggetto per creare un’impronta digitale unica.
Tra i casi d’uso potenziali per questa tecnologia si è parlato dell’applicazione in un bar, infatti se collocaste il vostro bicchiere su una placchetta RadarCat, la sua tecnologia riconoscerebbe quando il bicchiere è vuoto, facendolo riempire nuovamente. Semplicemente toccando uno stilo elettronico su diverse superficie, Soli potrebbe trattarle come se fossero delle palette dalle quali imparare informazioni, apprendendone i colori e le caratteristiche.
Ma l’applicazione che potrebbe fare la differenza è quella via mobile. Nel caso in cui indossaste guanti e teneste in mano il vostro smartphone, Soli potrebbe riconoscere la stoffa tra la vostra mano e il telefono e quindi ingrandire le icone autonomamente, così che cliccare su quella desiderata non diventi il frutto di innumerevoli tentativi andati a vuoto.
Ovviamente si tratta di esempi spicci, ma è interessante riflettere sul fatto che a seconda dei vari contesti, Soli possa mescolare insieme diverse interfacce del nostro mondo, così da consentirci di poter vivere un’esperienza smart senza interruzioni.
Pensate a quanto potrebbe cambiare una normale app di cucina. Se collaborasse con Alexa di Amazon, nel caso in cui andaste al frigorifero per prendere degli ingredienti, la voce di Alexa potrebbe elencarveli come promemoria e tener conto di quelli già presi o utilizzati. Via Bluetooth potrebbe inoltre impostare la potenza dei fuochi elettrici e stabilire la temperatura ideale per ogni fase della preparazione di un piatto.
Si tratta di un’interfaccia futuristica, un’interfaccia che funge da assistente, qualche cosa che in molti sognavano già dal 1950 negli scenari futuristici di alcuni film.
I Podcast hanno conquistato l'Italia, qui la lista dei migliori Podcaster Italiani in base al…
Le due startup italiane SWITCH e Wayla raccolgono fondi per rivoluzionare il trasporto urbano con…
Il report di NTT DATA esplora il divario tra innovazione AI e responsabilità, evidenziando l'importanza…
Microsoft ha presentato il Majorana 1, un chip quantistico topologico che punta a risolvere problemi…
L’intelligenza artificiale può simulare, comprendere e suscitare emozioni, creando un dialogo emotivo che richiede consapevolezza.…
Meta AI ha sviluppato una tecnologia per decodificare l'attività cerebrale in testo tramite reti neurali…
Via Italia 50, 20900 Monza (MB) - C.F. e Partita IVA: 03339380135
Reg. Trib. Milano n. 409 del 21/7/2011 - ROC n. 21424 del 3/8/2011