I progressi tecnologici nel campo dell’AI stanno completamente modificando il nostro rapporto con il web, con le aziende e con le macchine in generale. Oggi possiamo comunicare direttamente con un assistente vocale (ne abbiamo parlato qui) e fargli compiere l’azione di cui abbiamo bisogno, possiamo ricevere informazioni su un’azienda da un chatbot oppure possiamo giocare, esplorare e svolgere attività attraverso la realtà virtuale.
Nessun touchscreen dunque può corrispondere ad un’interazione diretta con un’AI che – al contrario – risponde ai nostri comandi e all’ambiente che ci circonda. Non stiamo parlando di fantascienza, ma di qualcosa che conosciamo già molto bene: Amazon Echo e Google Home sono i due esempi forse più conosciuti di Zero UI. Ma partiamo dal principio…
Zero UI e GUI passando per i chatbot: di cosa stiamo parlando?
Fino ad oggi app, siti web, motori di ricerca, accessori elettronici ed elettrodomestici hanno comunicato con noi (e noi con loro) attraverso un’interfaccia grafica utilizzata su schermi e display con cui interagiamo costantemente: un tap sul display dello smartphone o del frigorifero, uno scroll del mouse, un clic, una mail digitata sulla tastiera e l’interfaccia ci permette di compiere l’azione che desideriamo oppure di comunicare con un’azienda o con un cliente.
Una versione decisamente ridotta di GUI e molto simile alla tecnologia Zero UI è quella dei chatbot, utilizzati da molte aziende per gestire le comunicazioni con i propri utenti/clienti in modo automatizzato. I chatbot hanno un’interfaccia grafica estremamente semplificata, ma hanno di fatto le stesse funzionalità di un’AI.
I chatbot sono chiamati anche conversational app o invisible app, perché utilizzano l’interfaccia grafica tradizionale attraverso una sola schermata di messaggi, in un flusso di comunicazione naturale e familiare. Quest’ultimo aspetto rappresenta proprio l’anello mancante tra la GUI e la Zero UI. Infatti ogni community, sito web, app, game dovranno dotarsi nel breve futuro di un chatbot in grado di migliorare l’User Experience, il coinvolgimento degli utenti e di conseguenza le transazioni e il fatturato.
La tecnologia Zero UI è ancora un passo avanti: anziché fare affidamento su immagini e schermate, le informazioni provengono da interazioni naturali come il movimento, le rilevazioni di dati riguardanti l’ambiente in cui è immerso l’utente, la gestualità e il riconoscimento vocale. Molti dispositivi privi di schermo, come Google Home ad esempio, sono anche dispositivi intelligenti e utilizzano algoritmi che favoriscono e supportano l’autoapprendimento (machine learning) per registrare i dati dell’utente e fornire risposte e interazioni sempre più fluide, mirate e utili.
Secondo il designer Fjord Andy Goodman, “Zero UI” si riferisce ad un paradigma in cui i nostri movimenti, le voci, gli sguardi e persino i pensieri possono far sì che i sistemi ci rispondano attraverso il nostro ambiente”.
Con Zero UI intendiamo un nuovo modo di vivere le interfacce utente, senza schermi, bottoni, scroll e tap. Non si tratta a ben vedere di una tecnologia davvero priva di interfaccia utente, ma di una nuova interfaccia.
Nessuna innovazione tecnologica nasce e prospera se fine a sé stessa, ma solo se cambia la vita di chi la utilizza e la rende più facile. Nello specifico, l’obiettivo della Zero UI è quello di ridurre il tempo speso davanti a PC e smartphone ottenendo i medesimi risultati. Chiedere alle macchine di comprendere gli utenti quando si esprimono con parole, comportamenti ripetuti e gesti naturali è già una realtà fattuale. Ma è tempo di fare un altro passo avanti.
Zero UI, designer e sviluppatori: come cambierà la progettazione?
“Guardando al futuro, il prossimo grande passo sarà che il concetto stesso di ‘dispositivo’ scompaia”. – Sundar Pichai, Google C.E.O
Progettisti e sviluppatori hanno davanti a sé una sfida interessante. Superata la visione di un’interfaccia grafica classica, dovranno imparare ad applicare i principi del design alla nuova esperienza dell’utente non visiva. Oppure creare nuovi principi, se quelli classici non dovessero rispondere alle necessità del nuovo paradigma.
La produzione di interfacce invisibili implica che i designer dovranno continuare ad ampliare la loro comprensione del comportamento umano, oltre alla bidimensionalità degli schermi, attraverso l’analisi dei dati, degli ambienti fisici e della progettazione audio.
Per fare solo un esempio, gli assistenti vocali dovranno affinare la relazione con l’essere umano nella scelta del vocabolario e del tono di voce, interpretando le intenzioni degli utenti. Allo stesso modo, come avviene in parte anche ora, sarà necessario creare una personalità per ogni assistente vocale (o chatbot) che rispecchi la tipologia di servizio offerto e del brand che rappresenta.
Come ha evidenziato Jason Amunwa nel suo articolo “The UX of Voice: The Invisible Interface”, l’utilizzo della voce come interazione avrà un grande impatto nel design della user experience così come lo ebbero i touchscreen nel web design alcuni anni fa e il cambiamento non riguarderà solo la sopravvivenza delle interfacce grafiche ma ogni aspetto della vita degli utenti.
Sarà necessario rivedere il design della UX per rendere il viaggio dell’utente più fluido e collaborativo tra i diversi touchpoint. Ciò comporterà una collaborazione trasversale tra psicologi, antropologi, fisiologi, artisti, biologi, specialisti del neuromarketing, UX designer iperspecializzati (AI designer, Experiential designer, Verbal designer, Motion designer, sceneggiatori di VR – Virtual Reality) e molti altri, così da creare design Zero UI davvero efficaci.
Si tratta di un profondo cambio di paradigma:
- Invece di progettare semplicemente un’interfaccia bidimensionale e prevedibile come ora, sarà necessario pensare ai modi in cui gli utenti potranno fare qualsiasi cosa in qualsiasi punto del loro customer journey;
- I progettisti dovranno creare dispositivi, app e servizi in modo non lineare, multidimensionale e adattivo, affinchè riescano a tradurre qualunque flusso di comandi, così da adattarsi a qualsiasi sistema;
- I designer avranno bisogno di set di abilità estremamente varie e strumenti adatti ad eliminare i problemi che si possono creare durante la progettazione dell’interfaccia utente zero. Dovranno progettare database, tabelle di ricerca, fogli di calcolo e molto altro. I dati, più che l’intuito, saranno la più preziosa delle risorse.
Questo significa che:
- Una Zero UI richiederà l’accesso a molti dati interattivi e comportamentali oltre alla potenza necessaria per elaborare questi dati e decodificarli;
- L’interfaccia dovrà essere più predittiva e automatica man mano che i dispositivi abbandoneranno gli schermi.
Zero UI o zero GUI: è la fine delle interfacce così come le conosciamo?
“Verso un’interazione senza interfaccia utente: i progressi della tecnologia, specialmente nell’intelligenza artificiale, stanno rendendo irrilevante l’interfaccia utente tradizionale … I progressi della tecnologia finiranno per rendere l’interfaccia utente uno strumento del passato. Bot, assistenti virtuali, app invisibili: un’esplosione di applicazioni che non hanno più un’interfaccia grafica (GUI)”. “No UI is the New UI”, Tony Aubé.
“Non perderemo mai lo schermo. Finiremo con più schermi, tutto sarà uno schermo“. – Andy Goodman
Due affermazioni contrastanti eppure entrambe vere. Un mondo totalmente Zero UI non è al momento ipotizzabile. Ci sono in realtà maggiori probabilità di trovare più schermi in più luoghi che ci consentano di completare le azioni in modo molto più efficiente. Questo significa che sarà possibile integrare comandi vocali e gestuali nella ‘conversazione’ con app, AI e dispositivi, in modo da velocizzare le operazioni e restare più a lungo nel mondo reale.
Attraverso l’uso di dati e informazioni contestuali, le interfacce diventeranno più intuitive ed automatiche, i nostri dispositivi ci capiranno a un livello molto più intimo e individuale. Siamo pronti?