Avete mai sentito la parola HMI? Se vi interessa l’informatica, probabilmente avrete sentito parlare della parola UI. E che dire dell’MMI? Questo articolo spiega il significato delle parole HMI, UI e MMI e discute gli esempi specifici di tecnologia, il rapporto tra le due tecnologie e gli sviluppi futuri. edge computinge gli sviluppi futuri.
Disposizioni HMI
HMI è un concetto relativamente nuovo ed è l’abbreviazione di interfaccia uomo-macchina. È la parte tra l’uomo e la macchina che invia le istruzioni dall’uomo alla macchina e i risultati dalla macchina all’uomo. In altre parole, è la funzione/parte che media il dialogo tra uomo e macchina. A proposito, è anche chiamata UI (interfaccia utente) nel mondo dei computer e MMI (interfaccia uomo-macchina) in Giappone.
Esempi specifici di HMI
Al giorno d’oggi, questa funzione è quasi scomparsa perché è stata spinta dalla fotocamera con messa a fuoco automatica, ma fino ad allora la messa a fuoco della fotocamera era fondamentalmente manuale. L’obiettivo aveva un anello di messa a fuoco che permetteva di regolare la messa a fuoco (anche con le fotocamere di oggi è possibile passare alla regolazione manuale). Per quanto riguarda il funzionamento, mentre si controlla la messa a fuoco visualizzata nel mirino, si ruota l’anello di messa a fuoco per regolare la messa a fuoco in modo ottimale. Se la messa a fuoco non è ottimale anche se la si ruota una volta, o se si desidera mettere a fuoco qualcosa di diverso, ruotare nuovamente l’anello di messa a fuoco. Si può pensare a questa ripetizione come a un dialogo tra uomo e macchina. È un meccanismo semplice, ma è anche un buon HMI.
Vediamo un nuovo caso. I personal computer e gli smartphone che si usano abitualmente sono progettati in modo che quando si impartiscono istruzioni con la tastiera, il mouse, il tap e così via, appaia il display corrispondente. In altre parole, gli esseri umani danno istruzioni con tastiere e mouse e i computer mostrano i risultati. Questa ripetizione può anche essere considerata come un dialogo tra uomo e macchina.
Inoltre, di recente è possibile anche l’inserimento vocale. Questo tipo di tecnologia si chiama riconoscimento vocale. È possibile, ad esempio, far leggere ad alta voce il sito web cercato con il riconoscimento vocale. Per la lettura ad alta voce viene utilizzata una tecnica chiamata sintesi vocale. Questo tipo di input senza tastiera può essere definito un HMI più vicino alla conversazione tra esseri umani.
HMI attuale
Quando un essere umano guida un’auto, controlla visivamente il tachimetro. Tuttavia, lo spostamento della linea visiva durante la guida può causare una momentanea mancanza di visibilità, che può provocare un incidente. Per evitare questo inconveniente, è stato sviluppato un display heads-up (HUD). Un HUD è un veicolo, in particolare un’automobile, in cui le informazioni, mentre viaggiano, vengono visualizzate sul parabrezza da un raggio laser. Poiché non è necessario spostare la linea visiva, si ritiene che la sicurezza aumenti. Le informazioni visualizzate sull’HUD consentono al conducente di azionare l’acceleratore e i freni. Se pensiamo a questa ripetizione come a un dialogo tra l’auto e il guidatore, si può dire che l’HUD è un meccanismo che consente di eseguire senza problemi le conversazioni tra le persone e le auto.
Anche le funzioni di rilevamento automatico della sonnolenza e di monitoraggio del conducente delle automobili sono considerate meccanismi per un’esecuzione fluida dell’HMI. È stato sviluppato un sistema per rilevare informazioni come la frequenza cardiaca e la dimensione delle pupille con sensori e telecamere integrati nell’auto, determinare le condizioni del conducente, come sonnolenza ed eccitazione, e allertare e controllare l’auto. Ad esempio, se il conducente è sonnolento, l’auto adotta automaticamente misure come la vibrazione del volante o lo spegnimento del motore. Un sistema di questo tipo può essere definito come una macchina che si avvicina al lato umano, nel senso che la macchina rileva ed esegue automaticamente la condizione umana anche se l’uomo non dà istruzioni consapevolmente.
Inoltre, vale la pena notare che la tecnologia introdotta sta diventando sempre più familiare come l’attuale situazione HMI. In passato, i sistemi di riconoscimento e sintesi vocale erano complessi e costosi. Tuttavia, l’input vocale e la lettura automatica su altoparlanti AI e smartphone sono ormai comuni. Queste realizzazioni sono dovute a enormi progressi nell’hardware e nel software, ma anche la velocità di adozione è notevole. Proprio come gli smartphone si sono diffusi rapidamente nell’ultimo decennio, la sofisticazione e la velocità dell’HMI potrebbero entrare in una nuova fase.
L’HMI nel futuro
Vediamo ora di prevedere come progredirà l’HMI. Come già accennato, c’è la tendenza a far sì che il lato macchina dell’HMI si avvicini al lato umano. La digitazione di parole con il riconoscimento vocale al posto della tastiera è probabilmente uno degli esempi più evidenti. Inoltre, è possibile che non solo le parole, ma anche i sensi e le emozioni umane vengano trasmessi alle macchine e che queste arrivino a comprenderli. Vediamo un esempio.
Avete mai letto il manuale e utilizzato la macchina? In realtà, sono in molti a dire che non è così. I manuali sono importanti, ma leggerli non significa essere subito in grado di utilizzare la macchina. Questo perché è importante non solo per le informazioni come lettere e immagini, ma anche per l’esperienza di manipolarle effettivamente. Pertanto, prendiamo in considerazione la realtà aumentata e la realtà virtuale dei manuali. In questo modo, si potrà apprendere il funzionamento senza utilizzare l’apparecchiatura reale. Inoltre, invece di leggere solo il manuale, si può imparare con i sensi, quindi l’effetto educativo sarà potenziato. Questo manuale aumentato e virtualizzato richiede che la macchina fornisca sempre risposte interattive a un livello che dia la sensazione di essere realmente manipolata. La tecnologia HMI avanzata è essenziale per raggiungere questo obiettivo.
Esiste anche una tecnologia HMI che trasmette alle macchine i sensi tattili e di forza e li riproduce. Attualmente sono in corso ricerche per la realizzazione di una mano robotica che afferra le uova senza romperle. Inoltre, sono state condotte ricerche per controllare a distanza questa mano robotica. Come tecnologia HMI, trasmette alla mano robotica la sensazione di afferrare un uovo umano e la sensazione che la mano robotica sta afferrando viene trasmessa alla mano umana.
Cosa succede quando le macchine si avvicinano all’uomo?Sulla base di questa idea, sono in corso ricerche sulla tecnologia dell’interfaccia cervello-macchina (BMI). Questa tecnologia cerca di captare direttamente i segnali cerebrali e di interagire con le macchine. Esistono diversi metodi di BMI, alcuni dei quali prevedono l’inserimento di sensori nel cervello. Tuttavia, sebbene questo metodo abbia avuto successo come esperimento, non è molto pratico e nella realtà è comune rilevare l’EEG ed elaborare i segnali. Si pensa che sia possibile realizzare una HMI più a misura d’uomo rilevando direttamente ciò che gli esseri umani pensano nel cervello e azionando la macchina, ma il movimento del cervello è complicato e sarà necessario attendere gli sviluppi della ricerca futura.
HMI e Edge Computing
Ho appena citato le tecnologie specifiche dell’HMI e le aspettative di sviluppo futuro. Una cosa da notare è che per raggiungere un livello superiore di HMI, che aumenterà la domanda in futuro, è necessario elaborare grandi quantità di informazioni quasi in tempo reale. Quando è richiesta una risposta rapida, il solo calcolo di cloud può essere difficile da realizzare. Pertanto, può esistere un approccio che consenta di ottenere una HMI avanzata mantenendo la velocità di elaborazione utilizzando edge computing a seconda della situazione.