¿Ha oído alguna vez la palabra HMI? Si le interesa la informática, probablemente haya oído hablar de la palabra UI. ¿Y qué hay de la MMI? Este artículo explica el significado de las palabras HMI, UI y MMI, y analiza los ejemplos específicos de tecnología, la relación entre edge computingy el desarrollo futuro.
Disposiciones de la IHM
HMI es un concepto relativamente nuevo y es la abreviatura de interfaz hombre-máquina. Es la parte entre los humanos y las máquinas que envía las instrucciones de los humanos a las máquinas y los resultados de las máquinas a los humanos. En otras palabras, es la función/parte que media el diálogo entre humanos y máquinas. Por cierto, también se llama UI (interfaz de usuario) en el mundo de la informática y MMI (interfaz hombre-máquina) en Japón.
Ejemplos específicos de HMI
Hoy en día, casi ha desaparecido porque es empujado por la cámara de autoenfoque que enfoca automáticamente, pero hasta entonces, el enfoque de la cámara era básicamente manual. El objetivo tenía un anillo de enfoque que permitía ajustar el foco (incluso con las cámaras actuales se puede pasar al ajuste manual). En cuanto al funcionamiento, mientras se comprueba el enfoque que aparece en el visor, se gira el anillo de enfoque para ajustar el enfoque al óptimo. Si el enfoque no es óptimo aunque lo gire una vez, o si quiere enfocar algo diferente, gire de nuevo el anillo de enfoque. Puedes pensar en esta repetición como un diálogo entre humanos y máquinas. Es un mecanismo sencillo, pero también es un buen HMI.
Veamos un nuevo caso. Los ordenadores personales y los teléfonos inteligentes que utilizas de forma casual están diseñados para que cuando des instrucciones con el teclado, el ratón, el grifo, etc., aparezca la pantalla correspondiente. En otras palabras, los humanos dan instrucciones con los teclados y ratones, y los ordenadores muestran los resultados. Esta repetición también puede considerarse un diálogo entre humanos y máquinas.
Además, desde hace poco, también es posible la introducción de la voz. Este tipo de tecnología se llama reconocimiento de voz. Y, por ejemplo, es posible hacer que la página web buscada por reconocimiento de voz se lea en voz alta. Para la lectura en voz alta se utiliza una técnica llamada síntesis de voz. Se puede decir que este tipo de entrada sin teclado es una HMI más cercana a la conversación entre humanos.
HMI actual
Cuando un humano conduce un coche, comprueba visualmente el velocímetro. Sin embargo, cambiar la línea de visión mientras se conduce puede provocar un desfase momentáneo, que puede dar lugar a un accidente. Para evitarlo, se ha desarrollado una pantalla de visualización frontal (HUD). Un HUD es un vehículo, especialmente un coche, en el que la información, a medida que se desplaza, se muestra en el parabrisas mediante un rayo láser. Como no es necesario desplazar la línea de visión, se dice que la seguridad aumenta. La información mostrada en el HUD permite al conductor accionar el acelerador y los frenos. Si pensamos en esta repetición como un diálogo entre el coche y el conductor, puede decirse que el HUD es un mecanismo para ejecutar sin problemas las conversaciones entre personas y coches.
La detección automática de la somnolencia y las funciones de control del conductor de los automóviles también se consideran mecanismos para una ejecución fluida de la HMI. Se ha desarrollado un sistema que detecta información como el ritmo cardíaco y el tamaño de las pupilas con sensores y cámaras integrados en el coche, determina el estado del conductor, como la somnolencia y la excitación, y alerta y controla el coche. Por ejemplo, si el conductor está somnoliento, el coche toma automáticamente medidas como hacer vibrar el volante o parar el motor. Puede decirse que este sistema se aproxima a la parte humana en el sentido de que la máquina detecta y ejecuta automáticamente la condición humana aunque ésta no dé instrucciones conscientemente.
Además, cabe destacar que la tecnología introducida se está convirtiendo en algo cada vez más familiar en la situación actual de la HMI. En el pasado, los sistemas de reconocimiento y síntesis de voz eran complejos y caros. Sin embargo, la introducción de la voz y la lectura automática en altavoces de IA y smartphones son ahora algo habitual. Estas realizaciones se deben a los enormes avances en hardware y software, pero la velocidad de su adopción también es notable. Al igual que los smartphones se han extendido rápidamente en la última década, la sofisticación y la velocidad de la HMI pueden estar entrando en una nueva fase.
HMI en el futuro
Ahora vamos a predecir cómo progresará la HMI. Como ya se ha mencionado, hay una tendencia a que la parte de la máquina en la HMI se acerque a la parte humana. Escribir palabras con el reconocimiento de voz en lugar del teclado es probablemente uno de los ejemplos más evidentes. Además, es posible que no sólo las palabras, sino también los sentidos y las emociones humanas se transmitan a las máquinas, y éstas lleguen a entenderlas. Veamos un ejemplo.
¿Ha leído alguna vez el manual y ha manejado la máquina? De hecho, hay mucha gente que dice que no. Los manuales son importantes, pero leerlos no significa que vayas a ser capaz de manejar la máquina de inmediato. Esto se debe a que no sólo es importante la información, como las letras y las imágenes, sino también la experiencia de manipularlas realmente. Por lo tanto, vamos a considerar la realidad aumentada y la realidad virtual de los manuales. De este modo, podrá educar el funcionamiento sin utilizar el equipo real. Además, en lugar de leer sólo el manual, se puede aprender con los sentidos, por lo que el efecto educativo se verá potenciado. Este manual aumentado y virtualizado requiere que la máquina proporcione siempre respuestas interactivas a un nivel en el que parezca que se está manipulando realmente. La tecnología HMI avanzada es esencial para conseguirlo.
También existe una tecnología HMI que transmite a las máquinas el sentido del tacto y de la fuerza y los reproduce. Actualmente se investiga la realización de una mano robótica que agarra huevos sin romperlos. Además, se ha investigado para controlar a distancia esta mano robótica. Como tecnología HMI, transmite la sensación de agarrar un huevo humano a la mano robótica, y la sensación de que la mano robótica está agarrando se transmite a la mano humana.
Entonces, ¿qué ocurre cuando las máquinas se acercan en última instancia a los humanos?Partiendo de esta idea, se está investigando la tecnología de interfaz cerebro-máquina (BMI). Esta tecnología pretende captar directamente las señales del cerebro e interactuar con las máquinas. Hay muchas formas de hacer la IMC, y algunas incrustan sensores en el cerebro. Sin embargo, aunque este método ha tenido éxito como experimento, no es muy práctico, y en realidad lo habitual es detectar el EEG y procesar las señales. Se cree que es posible realizar una IHM más amigable con el ser humano detectando directamente lo que éste piensa en el cerebro y manejando la máquina, pero el movimiento del cerebro es complicado y habrá que esperar al desarrollo de futuras investigaciones.
HMI y Edge Computing
Acabo de mencionar las tecnologías específicas de HMI y las expectativas de desarrollo futuro. Una cosa que hay que tener en cuenta es que para lograr un nivel superior de HMI, que aumentará la demanda en el futuro, es necesario procesar grandes cantidades de información cerca del tiempo real. Cuando se requiere una respuesta rápida, la informática cloud por sí sola puede ser difícil de conseguir. Por lo tanto, puede haber un enfoque para lograr una HMI avanzada manteniendo la velocidad de procesamiento mediante el uso de edge computing en función de la situación.