YYSystemのアプリを使って会話する様子


実際のアプリ画面

日本マイクロソフト株式会社は、株式会社アイシンが開発したアプリ「YYSystem」がいかにLiD/APD のある方々の生活体験を向上させているかについてのストーリーを公開しました。

マイクロソフトでは、「地球上のすべての個人とすべての組織が、より多くのことを達成できるようにする」というミッションのもと、あらゆる人々をテクノロジの力で支援しています。

株式会社アイシンが開発した「YYSystem ( https://yysystem.com/ )」は、音声を認識し、文字などに変換するアプリシリーズです。聴覚に障碍のある方をはじめ、コミュニケーションに困難を抱えるあらゆる人々に利用されていますが、特に生成 AI を活用した Microsoft Azure OpenAI Service ( https://azure.microsoft.com/ja-jp/products/ai-services/openai-service )の要約機能が LiD/APD (聞き取り困難症/聴覚情報処理障害)のある方々に役立っています。

ここでは、YYSystem がいかに LiD/APD のある方々の生活体験を向上させているかについて概要をお伝えします。
ストーリーの全文はこちらからご覧ください。
https://news.microsoft.com/ja-jp/features/231205-japans-aisin-helps-people-witsh-listening-difficulties-make-sense-of-what-they-hear-using-generative-ai/


画像1: https://www.atpress.ne.jp/releases/378297/LL_img_378297_1.png
YYSystemのアプリを使って会話する様子

添田洋美さんは幼少の頃から人の話を聞き取ることが苦手でした。家庭内でも、換気扇の音や流水音などの生活音があると、子供たちの声を聞き取るのに苦労しました。医師による検査を受けても耳に異常は見つからず、耳で聞いた言葉を脳で処理することができない状態の「LiD/APD (聞き取り困難症/聴覚情報処理障害)」があると診断されたのは、わずか3年前のことでした。

LiD/APD は日本での認知度が低いため、当事者は孤独感や疎外感を感じやすく、仕事を続けたり、日常的な会話に参加したりするのが困難だといいます。
「ただ頷いて、理解しているふりをします。ときどき待ち合わせの時間を間違え、友達から『聞いてなかったの?』と言われます。そして、約束を守れない人だと思われて、疎遠になってしまうのです」と、添田さんはよくあることとして打ち明けました。

添田さんは、今年初めから、株式会社アイシンが開発した音声認識アプリ「YYProbe」を使い始めました。YYProbe は、聴覚に障碍がある人々のコミュニティで広く使われていますが、LiD/APD のある人にとっては、マイクロソフトの Azure OpenAI Service が提供する新しい生成 AI を活用した要約機能が特に役立ちます。

生成 AI ツールは、大量のデータを合成してテキスト、コード、画像などを生成する大規模言語モデル(LLM)を基盤として構築されています。そうしたツールは、テキストを生成するだけでなく、要約することも可能です。

たとえば、添田さんは、母親が新型コロナウイルス感染症で入院した際に、医師の話を理解するために YYProbe を使用しました。添田さんはタブレットで YYProbe を使って医師が話す内容を理解し、情報を要約して、文章化したものを妹に送りました。

「(文字を)読む方がついて行きやすく、話が分かるようになります。それに、もし間違って聞き取っていても、読み直して確認できます」と添田さんは言います。

画像2: https://www.atpress.ne.jp/releases/378297/LL_img_378297_2.png
実際のアプリ画面

アイシンの研究開発チームは、当初、業務記録の作成を目的とした従業員用の音声文字化ツールとして YYProbe をコロナ禍に開発していました。ある時、社内の聴覚障碍のある従業員にアプリを使用してもらったところ、とても評判が良かったため、聴覚障碍者だけでなく、高齢者や外国人、その他コミュニケーションに困難を抱えているあらゆる人々が使用できるツールとして、YYProbe をはじめとする音声認識システム「YYSystem」の開発に乗り出しました。

アイシンがアプリの構築にマイクロソフトの Azure AI 音声 ( https://azure.microsoft.com/ja-jp/products/ai-services/ai-speech )を採用した決め手は、「音声認識の精度が高いため」だと、研究開発チームを率いる中村正樹さんは説明します。マイクロソフトの Azure OpenAI Service を通して OpenAI の ChatGPT テクノロジを利用し、Azure AI 翻訳( https://azure.microsoft.com/ja-jp/products/ai-services/ai-translator )と組み合わせることで、要約機能と翻訳機能を実現しました。

YYSystem は、官公庁や小売店のカウンターに設置されたモニターでも運用されており、東京で開催されるデフリンピック 2025 では観客に利用される予定です。また、さまざまなコミュニティの活動や個人の生活でも活用されています。

現在、添田さんは、医師や同業界で働くメンバーを含むオンラインの LiD/APD 親支援グループを運営しており、たとえば、子供の学習支援として教室への機器の持ち込みを認めてもらうための活動等を行っています。

また、アプリ開発者とも協力しています。今年5月、添田さんの親支援グループはアイシンの研究開発オフィスを訪れ、開発者である中村さんとミーティングを行いました。中村さんは、ユーザーと継続的に連絡を取りながら、要望に応じて定期的に機能を追加しています。

添田さんの LiD/APD 親支援グループは、行間を広げて文章を短くすることや、発話者ごとに文字を違う色に変えることを提案し、その変更はアプリに反映されました。

中村さんによると、アプリは将来的に、テキストや音声だけでなく、画像、動画、グラフも入力や生成をして、コミュニケーションができるようになる予定とのことです。生成 AI によって、すでにそれが実現可能になっています。
情報提供元: @Press