2017. 03. 09 Update !

イマ旬

NTT DATA Technology Foresight 2017シリーズ~Vol.4技術トレンド「対話型コンピューティング」

NTTデータが導出した2017年の情報社会や技術のトレンドを全10回で紹介。第4回目は技術トレンド「対話型コンピューティング」です。

野村 雄司
株式会社NTTデータ 技術開発本部
シニアエキスパート 野村 雄司

イマ旬の注目キーワード
対話型インターフェース

対話型インターフェースの拡大

スマートフォンに搭載された音声パーソナルアシスタントは、自分の予定やその日の天気を確認したり、近くのレストランを検索したりと、様々な場面で利用されています。スマートフォンだけでなく、家やオフィスに設置する音声アシスタント端末も欧米を中心に普及し始めています。これらの端末は常時待機しているため、操作なしに話しかけるだけで、音楽をかけたり、エアコンの温度や部屋の照明を調整したり、商品を注文することができます。
 
近年の人工知能(AI)の発展により、チャットボットと呼ばれるコミュニケーションを自動化するプログラムが広まっています。フライトの予約をしてくれるものや不動産を提案してくれるもの等、様々なサービスが既に存在します。銀行においては、対話で残高確認や送金を行うだけでなく、利用状況に基づいて金融プランのアドバイスをしてくれるサービスも登場する予定です。今後、AIと連携した対話サービスは増加していくと思われます。

AI技術の発展による、さらなる自然な対話の実現

近年のディープラーニング技術の発展により、画像認識を始めとするパターン認識の精度向上は著しく、音声認識技術においても、2016年10月に音声認識のエラー率が文字起こしの専門家による精度と同等の5.9%を達成しています(英語音声)

また、音声や表情、テキストから感情を認識する技術の活用が広がってきています。既に、CMに対する視聴者の感情変化を分析することで、効果的なシーンの明確化や、同じコンテンツに対する国や文化ごとの反応の違いの把握が可能となり、マーケティングに活用されています。今後は人間を支援する目的での利用だけでなく、コンピュータが人間の感情を読み取った上で直接対話するといった利用も増えると思われます。運転中に怒りを読み取ると、落ち着かせるような会話をする車載サービスも出てくるかもしれません。

一方で、コンピュータはまだ人間のように言葉の裏に潜む文脈を理解できません。そのため、人間が対話にストレスを感じてしまい失望され、幻滅期を経るかもしれません。

しかし、近い将来、音声認識や感情認識技術と同様に、文脈理解技術も確立されると思われます。コンピュータとの会話をサポートする技術の発展は、対話の背景や相手の意図・感情を的確に理解したより自然な対話を可能にし、それにより対話型コンピューティングの利用はさらに拡大していくでしょう。

図1 対話型コンピューティング

図1 対話型コンピューティング

対話型コンピューティングが変革する世界

人間の最も自然な意思疎通手段である対話は、インターフェースの中心的役割を果たし、多くの行動が対話型アプリを起点として行われるようになると考えられます。用途ごとにアプリを開くのではなく、個人秘書の役割を果たす対話型アプリが、ユーザの要望を聞き、内容に応じて必要なアプリやチャットボットに処理を振り分ける形のシステムが実現されるでしょう。

AIによる自動返答が可能になると、人と社会との繋がり方にも大きな影響を及ぼします。これまでは、メール配信やWebサイト上での広告等、企業からユーザに一方的に情報発信する形や、電話や直接の店舗訪問等、一時的な形での繋がり方が中心でしたが、対話型コンピューティングでは、企業と人、人と人の繋がり方を双方向、かつ継続的なものへと変化させるでしょう。

また、意思決定の方法さえも変革させる可能性を秘めています。現在、モノの購入や旅行の手配等、自身の目的を達成するためには、溢れかえる情報の中から、能動的に関連する情報を探しだし、決断する必要があります。AIと連携した対話型コンピューティングでは、目的を達成するために必要な情報を、対話を通じて徐々に深掘りしていくことで、自然と的確な決断が誘導されるようになるでしょう。

対話型コンピューティングはスマートフォンやPCにおける単なる一つのアプリに留まりません。あらゆるデバイスに当たり前に搭載されるようになり、新しいコンピューティング基盤へと変貌を遂げるでしょう。家やオフィス、店、自動車等いつどこにいても話しかけるだけですぐに欲しい情報、モノに手が届く世界はすぐそこまで来ています。

「NTT DATA Technology Foresight」特設サイト

※1 Microsoft: Achieving Human Parity in Conversational Speech Recognition

https://arxiv.org/abs/1610.05256v1