Categories: AI nel businessBlog

Nuove interazioni umane — AI. Come l’intelligenza artificiale sta cambiando il modo in cui utilizziamo i dispositivi? | AI nel business #22

Come funzionano le Interfacce Utente Intelligenti (IUI) in caso di interazioni con l’IA?

Le Interfacce Utente Intelligenti (IUI) sono interfacce che utilizzano tecniche di interazione con l’IA per migliorare l’esperienza umana con i dispositivi. Le IUI possono, ad esempio, riconoscere il parlato o i gesti di un utente, adattarsi alle preferenze basate sull’analisi delle interazioni passate con l’IA, o assistere nell’esecuzione di compiti. Infatti, l’obiettivo è creare un modo intuitivo e naturale di comunicare con i dispositivi elettronici, o Interfaccia Utente Naturale (NUI). Sebbene l’uso di tale interfaccia richieda anche un apprendimento, è intrinsecamente facilitato, dando la sensazione che tutto avvenga naturalmente e che l’interfaccia stessa sia invisibile.

Oggi, le interfacce touch sono le più ampiamente applicate e le interfacce vocali sono le più sviluppate. Sviluppi futuri promettenti includono il riconoscimento dei gesti nella VR e AR, Dispositivi Intelligenti e interfacce cervello-macchina.

Esempi di applicazioni IUI riguardano assistenti vocali intelligenti come Siri o Alexa, che comprendono domande poste a voce e forniscono risposte o seguono comandi. Altri esempi sono le IUI che impiegano sensori per tracciare il movimento del corpo, i gesti o lo sguardo per controllare i dispositivi. Presentano:

  • Elaborazione del Linguaggio Naturale (NLP) per comprendere e creare discorsi,
  • Riconoscimento delle Immagini (Visione artificiale) per interpretare materiali visivi,
  • Apprendimento Automatico (ML) per riconoscere schemi e prevedere il comportamento degli utenti.

Puoi applicare l’apprendimento automatico, tra le altre cose, per interpretare le onde cerebrali catturate da cuffie intelligenti. Questa soluzione è stata sviluppata da Neurable per creare cuffie dedicate al lavoro, che rilevano i momenti di concentrazione e consentono di determinare con precisione il momento e le condizioni ottimali per la concentrazione. Inoltre, durante i momenti di concentrazione, le cuffie di Neurable disattivano automaticamente le chiamate in arrivo e ti permettono di saltare alla canzone successiva a cui stai pensando.

Fonte: Neurable (https://neurable.com/headphones)

Applicazioni aziendali delle interfacce touch

Le interfacce touch sono estremamente popolari grazie alla loro versatilità. Ecco perché il business si è rapidamente spostato oltre il regno degli smartphone e dei display degli elettrodomestici. Sono sempre più comuni in biglietterie o distributori automatici di snack, serrature e porte degli aeroporti.

Toccare, scorrere, trascinare, premere a lungo – questi sono solo alcuni dei gesti che dominano la nostra esperienza digitale. Con essi, possiamo sia digitare su una tastiera visualizzata sullo schermo, premere pulsanti e navigare attraverso i movimenti di uno o più dita, o persino dell’intera mano.

Utilizzando l’IA, i dispositivi touch sono diventati più predefiniti, completando i movimenti non riconosciuti correttamente dal dispositivo. Combinano i dati dall’interfaccia touch con i gesti riconosciuti dalla fotocamera, migliorando la fluidità dell’esperienza utente e aumentando impercettibilmente il piacere e la sicurezza nell’uso dei dispositivi.

Gesti tridimensionali, realtà virtuale e realtà aumentata con interazioni IA

Grazie al riconoscimento dei gesti, stiamo sempre più operando solo con il movimento in interazioni IA senza contatto con porte, lavandini o schermi delle auto. Anche l’automotive sta rendendo la sua applicazione diffusa. BMW, ad esempio, ha recentemente introdotto una funzione di controllo gestuale con un display senza contatto per gestire il volume dell’auto, le chiamate e altre funzioni.

Vale anche la pena notare il software per il funzionamento senza contatto dei dispositivi disponibili in luoghi pubblici. Sul mercato puoi trovare:

  • TouchFree – programmazione che consente alle aziende di aggiornare i chioschi e i touchscreen basati su Windows esistenti al controllo gestuale senza contatto,
  • Banuba – una soluzione per il funzionamento basato su gesti nello spazio, come selezionare un prodotto puntando un dito o aggiungere a un carrello della spesa con un gesto di pollice in su, che sarà particolarmente utile nei negozi con tecnologie di realtà aumentata, dove puoi provare virtualmente i vestiti, ad esempio,
  • Fonte: Banuba (https://www.banuba.com/solutions/touchless-user-interface)

Infatti, le interazioni IA giocano un ruolo chiave nel controllo gestuale nella realtà virtuale (VR) e nella realtà aumentata (AR). Le funzionalità dell’IA qui servono a riconoscere la posizione del corpo e interpretare i movimenti e i gesti degli utenti, consentendo loro di interagire naturalmente con oggetti e ambienti virtuali con le mani o i controller. Un esempio è l’Oculus Quest 2, occhiali VR dotati di telecamere che tracciano i movimenti delle mani per controllare intuitivamente gli oggetti nel mondo virtuale. Le funzionalità VR e AR nel business per:

  • formazione e simulazioni, dove il controllo gestuale consente un’interazione IA più naturale e intuitiva,
  • manipolazione di modelli 3D durante il lavoro di design e ingegneria, anche in un team che non si trova in un unico spazio fisico,
  • presentazioni di shopping e e-commerce – le aziende stanno utilizzando l’AR per creare esperienze di shopping interattive in cui i clienti possono utilizzare gesti per sfogliare prodotti e informazioni.

Uno degli ultimi esempi di applicazione delle interazioni IA per il controllo gestuale nella VR e AR è l’Apple Vision Pro. Si tratta di un dispositivo di calcolo spaziale che non ha un meccanismo di controllo hardware. Invece, il Vision Pro si basa sul tracciamento degli occhi e sui gesti delle mani per consentire agli utenti di manipolare oggetti nello spazio virtuale di fronte a loro.

Fonte: Apple (https://www.apple.com/newsroom/2023/06/introducing-apple-vision-pro/)

Apple Vision Pro presenta gesti come tocco, doppio tocco, pizzicare e trascinare, così come gesti a due mani come zoomare e ruotare. Questi gesti si applicano a varie azioni, come selezionare e manipolare oggetti, scorrere, spostare finestre e regolarne le dimensioni.

Dispositivi e software di controllo vocale – come usarli nella tua azienda?

Il ruolo crescente dell’intelligenza artificiale significa che sempre più dispositivi e applicazioni stanno anche impiegando Interfacce Utente Vocali (VUI). Hanno tecnologie che convertono il parlato in testo (STT) e il testo in parlato (TTS).

Il controllo vocale è già molto ampiamente applicato nel business per:

  • Servizio clienti – il cliente può parlare con bot vocali intelligenti per prodotti e marketing, come Inteliwise (Efecte),
  • creazione di documenti – ad esempio, con Google Docs Voice Typing, che consente agli utenti di dettare testo direttamente in un documento,
  • conduzione di riunioni internazionali – l’interfaccia vocale consente di tradurre il proprio discorso in tempo reale con un traduttore automatico, utilizzando Google Translate durante le conversazioni su Google Meet, o utilizzando uno strumento dedicato come Verbum.ai.

Fonte: Verbum.ai (https://verbum.ai/).

Molte persone utilizzano anche il controllo vocale del software dell’auto, ad esempio, per impostare una destinazione di navigazione e per controllare dispositivi intelligenti per la gestione dell’illuminazione dell’ufficio.

Il futuro delle interazioni IA, o interfaccia cervello-macchina

Il modo ideale per le interazioni IA con i dispositivi sarebbe naturale, cioè completamente invisibile per l’utente. E questo non è pura fantasia. Esistono già prototipi di interfacce cervello-macchina che operano a velocità inimmaginabili simili alla telepatia elettronica.

I lavori più avanzati sull’interfaccia cervello-computer, o interfaccia cervello-computer (BCI) sono condotti da Neuralink. Questa è un’azienda che sta sviluppando un’interfaccia chiamata “The Link”, che è già in fase di test clinico.

Fonte: Neuralink (https://neuralink.com/)

The Link è un chip delle dimensioni di una moneta che viene impiantato chirurgicamente sotto il cranio, dove si collega a fili sottili chiamati fili neuronali che si estendono in diverse parti del cervello.

I fili neuronali contengono elettrodi che possono registrare e stimolare l’attività cerebrale, consentendo di decodificare e codificare i segnali neuronali e inviare informazioni da e verso un computer o un dispositivo mobile.

The Link viene impiantato da un robot neurochirurgico e poi consente il controllo di un’app che permette all’utente di manipolare una tastiera e un mouse con i propri pensieri.

Tali soluzioni lungimiranti, tuttavia, sollevano tante speranze quanto preoccupazioni. Da un lato, si potrà semplicemente pensare: “Voglio pubblicare una nota sui social media riguardo a un evento aziendale con una foto ritratto del CEO scattata durante l’apertura della riunione.” Dall’altro lato – come possiamo assicurarci che la connessione non stia spiando i nostri pensieri privati?

Se ti piace il nostro contenuto, unisciti alla nostra comunità di api operose su Facebook, Twitter, LinkedIn, Instagram, YouTube, Pinterest.

Robert Whitney

Esperto di JavaScript e istruttore che forma i dipartimenti IT. Il suo obiettivo principale è aumentare la produttività del team insegnando agli altri come cooperare efficacemente durante la programmazione.

View all posts →

Robert Whitney

Esperto di JavaScript e istruttore che forma i dipartimenti IT. Il suo obiettivo principale è aumentare la produttività del team insegnando agli altri come cooperare efficacemente durante la programmazione.

Share
Published by
Robert Whitney

Recent Posts

Il ruolo dell’IA nella moderazione dei contenuti | IA nel business #129

Le aziende si confrontano con la gestione di una vasta quantità di contenuti pubblicati online,…

21 hours ago

Analisi del sentiment con l’IA. In che modo aiuta a guidare il cambiamento nel business? | IA nel business #128

nell'era della trasformazione digitale, le aziende hanno accesso a un'ammontare senza precedenti di dati sui…

22 hours ago

Migliori strumenti di trascrizione AI. Come trasformare lunghe registrazioni in riassunti concisi? | AI nel business #127

Sapevi che puoi ottenere l'essenza di una registrazione di diverse ore da un incontro o…

1 day ago

Generazione video con intelligenza artificiale. Nuovi orizzonti nella produzione di contenuti video per le aziende | AI nel business #126

Immagina un mondo in cui la tua azienda può creare video coinvolgenti e personalizzati per…

1 day ago

LLMOps, o come gestire efficacemente i modelli di linguaggio in un’organizzazione | AI nel business #125

Per sfruttare appieno il potenziale dei Modelli di Linguaggio di Grandi Dimensioni (LLM), le aziende…

1 day ago

Automazione o aumento? Due approcci all’IA in un’azienda | IA nel business #124

Nel 2018, Unilever aveva già intrapreso un percorso consapevole per bilanciare le capacità di automazione…

1 day ago