HMIという言葉を聞いたことがありますか? UIという言葉はITに興味のある人なら聞いたことがあるでしょう。では、MMIはどうでしょうか? この記事ではHMI、UI、MMIの言葉の意味を説明しながら、技術の具体例と エッジ コンピューティングとの関わり、そして、これからの発展についてお伝えします。
HMIの定義
HMIとは比較的新しい概念で、ヒューマン・マシン・インターフェースの略語です。人間と機械との間にあって、人間からの指示を機械に送り、機械からの結果を人間に送る部分を指します。いってみれば、人間と機械との対話の仲立ちをする機能・部分のことです。ちなみに、コンピューターの世界ではUI(ユーザー・インターフェース)、日本ではMMI(マン・マシン・インターフェース)とも呼ばれています。
HMIの具体例
今では、ピントを自動で合わせるオートフォーカスのカメラに押されて、ほとんど無くなってしまいましたが、それまでのカメラのフォーカスは基本的に手動で合わせるものでした。レンズにフォーカスリングが付いており、ピントが調整できるようになっていたのです(現在のカメラでもマニュアルでの調整に切り替えることができます)。どのように操作するかというと、ファインダーに表示されるピントを確認しながら、フォーカスリングを回してピントが最適になるように合わせます。一度回してもピントが最適でなかったり、違うものにピントを合わせたりする場合には、再度フォーカスリングを回す操作を行います。この繰り返しを人間と機械との対話ととらえることができるでしょう。単純な機構ですが、これも立派なHMIといえます。
もう少し新しい事例で見ていきましょう。皆さんが何気なく使っているパソコンやスマートフォンなどは、キーボードやマウス、タップなどで指示を与えると、それに対応した表示が出るようになっています。すなわち、人間はキーボードやマウスなどで指示を与え、コンピューターはその結果を示しているわけです。この繰り返しも人間と機械との対話ととらえることができます。
さらに、最近では音声での入力も可能です。このような技術を音声認識といいます。そして、たとえば音声認識で検索したWebサイトを読み上げさせる、といったことも可能です。読み上げには音声合成という技術が使われています。このような、キーボードを使わない入力は、より人間同士の会話に近いHMIといえるでしょう。
現在のHMI
人間が車を運転するときには、速度計を目視で確認します。しかし、運転中に視線をずらすことで一瞬のスキが生じ、事故につながる場合があります。このようなことを避けるために、HUD(ヘッドアップ・ディスプレイ)というものが開発されています。HUDとは、乗り物、特に自動車で、走行中の情報がレーザー光線でフロントガラスに表示されるものです。視線をずらす必要がないため、安全性が高まるとされています。HUDに表示された情報により、運転者はアクセルやブレーキの操作を行います。この繰り返しを自動車と運転者の対話と考えると、HUDは人と自動車との会話をスムーズに実行するための仕組みだといえるでしょう。
自動車の居眠り自動検出機能や運転者監視機能も、HMIをスムーズに実行するための仕組みと考えられそうです。車に内蔵されたセンサやカメラなどで心拍数や瞳孔の大きさのような情報を検出、眠気や興奮度といった運転者の状態を判断し、注意喚起や自動車の制御を行うシステムが開発されています。たとえば運転者の眠気が強い場合にはステアリングを振動させたり、あるいはエンジンを止めたりといった措置を自動車側が自動的に行うのです。このようなシステムは、人間が意識的に指示を与えなくても、機械が人間の状態を自動的に検知して行う意味で、機械が人間側に近づいているといえるかもしれません。
加えて、紹介した技術がどんどん身近なものになってきていることも現在のHMIの状況として注目に値します。昔は音声認識や音声合成のシステムは、複雑で高価なものでした。しかし、今ではAIスピーカーやスマートフォンでの音声入力や自動読み上げはごく当たり前のものになっています。これらの実現は、ハードウェアやソフトウェアの驚異的な進歩によるものですが、その普及の速度にも目を見張るものがあります。ここ10年でスマートフォンが急激に普及したように、HMIの高度化やそのスピードは新たな段階に入っているのかもしれません。
これからのHMI
それでは、これからHMIがどのように進歩していくかを予測してみましょう。すでに述べたように、HMIでの機械側が人間側に近づいている傾向がみられます。言葉の入力をキーボードではなく音声認識で行うことはもっともわかりやすい例の1つでしょう。さらに、言葉だけではなく、人間の感覚や感情を機械に伝え、機械がそれを理解するようになることも考えられます。その例を見ていきましょう。
皆さんは、マニュアルを読んで機械の操作を行ったことがあるでしょうか? 実はあまりない、という人も多いのではないでしょうか。マニュアルは重要なものなのですが、マニュアルを読んだからといって実際の機械の操作がすぐにできるようになるわけではありません。文字や絵といった情報だけではなく、実際に操作してみる経験が重要だからです。そこで、マニュアルの拡張現実・仮想現実化を考えてみます。このようにすると、実際の装置を使わなくても操作の教育ができるようになります。また、マニュアルだけを読むよりも、感覚で学ぶことができるので教育効果が高まります。この拡張現実・仮想現実化したマニュアルは、実際に操作をしているように感じられるレベルでのインタラクティブな反応を機械側が常に提供することが必要です。この実現には、高度なHMI技術が不可欠です。
触覚・力覚を機械に伝え、機械がそれを再現するHMI技術というのもあります。現在、研究がなされているのは、卵を割らずにつかむロボットハンドの実現です。さらに、このロボットハンドを遠隔で制御する研究もなされています。HMI技術としては、人間の卵をつかむときの感覚をロボットハンドに伝え、ロボットハンドがつかんでいる感覚を人間の手に伝えます。
それでは、機械が人間に究極的に近づくとどうなるでしょうか? このような考えのもとに研究が進められているのがBMI(ブレイン・マシン・インターフェース)という技術です。この技術は脳の信号を直接拾って機械との対話をしようとするものです。BMIにはいろいろな方法があり、脳にセンサを埋め込んでしまうというものもあります。ただ、この方法は、実験としては成功していますが、あまり実用的ではなく、現実には脳波を検出して信号処理するのが一般的です。人間が脳で考えていることを直接検出して機械を操作することで、より人間にやさしいHMIを実現できると考えられていますが、脳の動きは複雑で、今後の研究の発展を待つ必要があるでしょう。
HMIとエッジ コンピューティング
以上、HMIの具体的な技術と、これからの発展予想について述べました。1つ注意しておきたいのは、今後より需要が高まるであろう高度なHMIの実現には、大量の情報をリアルタイムに近い処理を行う必要があるということです。迅速な対応が求められる場合にはクラウドコンピューティングだけでは実現が難しいケースも考えられます。そこで、状況に合わせてエッジコンピューティングと使い分けることで、処理のスピードを維持しながら、高度なHMIを実現するというアプローチもありえるでしょう。