この考えに基づくと、知的な機械がいろんなものに埋め込まれるまで待たなければならないのか? そうではない。機械を意識しなくてもいいくらい、直観的な会話インターフェイスにすればよい。

ヒト同士の会話を、インターフェイスの理想だとする考えは、昔からあった。人工知能の会話ボットなどである。すると、もっとハイテクを駆使しないと会話モデルにできないのか? そうではない。

音声認識技術と音声合成技術は、すでにある。無料で誰でも利用できる。言語理解や生成の技術は、深層学習による自然言語処理として、すでにある。

巨大言語モデルによって生成された文章や返答はもはやヒトが作ったものと区別できないところまできている。それら技術の特定の問題解決タスクや、特定の語彙空間への応用の広がりがまだないだけである。

音声で対話するインターフェイスや、ビジュアルとボイスを融合させたデザインに関しても、経験とノウハウがまだ少ないだけである。

ハードウェアとして、画面付きスマート・スピーカーとか、会話AIロボットとか、今ある知的な機械の形態を利用して、アプリを組み上げればよい。

知的な機械を作るヒト、アプリを作るヒトが、すでにある技術をもとに、ちょっと視点を変えてデザインをすればよい。組み上げ方を変えればよい。

ハードウェアや新しい技術の進歩や、社会インフラの変化や、それらを待つ必要はない。

多くのIT技術者が、現状のインターフェイスはおかしいと、見方を変えればいいのである。その気になればいいのである。

【前回の記事を読む】コンピュータの操作は自然と身につくものではない…ヒトの能力と調和していない「使い方」