IBMとCMU、視覚障がい者ナビアプリ開発者向けのコグニティブ・アシスタンス・ツールを公開

地図

私は直接お会いしたことはないのですが、日本IBM東京基礎研究所 IBMフェローの浅川智恵子さんは視覚障がい者向けのアクセシビリティの世界では超有名な方です。

点字エディタ「BES(Braille Editing System)」、音声ブラウザーの「ホームページリーダー」、点字図書ネットワーク「てんやく広場」(現「サピエ図書館」)など、これらのソフトウェアやサービスにお世話になった方も多いのではないでしょうか。

現在はカーネギーメロン大学(CMU)の客員教授として米国で研究開発されているそうです。

浅川さんの近況に関しては、IBMよりこんなニュースがありました。
IBM Researchとカーネギーメロン大学、視覚障がい者のナビゲーションを支援するオープン・プラットフォームを開発

スポンサーリンク

スマホアプリ開発者向けのオープンプラットフォーム「HULOP」

視覚障がい者用のナビゲーション支援アプリを開発する人のために、オープンプラットフォーム「HULOP」とコグニティブ・アシスタンス・ツールを公開したというニュースです。

Bluetoothビーコン・ナビゲーションアプリの部品、スマホで撮影した画像を3Dモデル化するツール、視覚障がい者に最適なUIなどが用意されており、これらを使って試作した iPhone用ナビゲーションアプリ「NavCog」のソースコードも HULOP上に公開されています。

NavCogのデモ動画はこちら。50秒経過あたりから浅川さんご本人が登場し、CMUキャンパスの各所に設置されたビーコンを頼りに歩いたり、知人の顔の表情を知ったり、ポテトチップスやチョコレートのパッケージを読み取ったりしています。

「コグニティブ・アシスタンス」って?

IBMのニュース記事には「コグニティブ・アシスタンス」がたびたび出てきますが、聞き慣れない言葉ですよね。

IBM東京基礎研究所では、IBMリサーチが提唱するコグニティブ・コンピューティング研究の一環として、障害者・高齢者のモバイル端末利用や生活環境・仕事環境の向上をサポートする様々な「コグニティブ・アシスタント」の研究開発に取り組んでいます。
(引用元:コグニティブ・アシスタント | IBM Research

IBMの別のページではこのように書かれているのですが、そもそも「コグニティブ・コンピューティング」も知らないという人も多いのではないでしょうか。

正直言うと私もコグニティブ・コンピューティングはよく理解できていません。「人工知能(AI)」みたいなものと勝手に思っているのですが、間違っていたらゴメンナサイ。

でも、IBMなど一部のメーカーしかこの言葉を使っていないようで、PRも兼ねているのでしょうか、こんなアニメがありました。「もしもコグニティブ・コンピューティングが実現したなら」という話です。(日本語字幕付き)

このアニメを見て、音声アシスタント「Siri」やお節介ロボット「Pepper」を連想したのは私だけでしょうか。コグニティブ・コンピューティングって、ビッグデータ時代のクラウドAIみたいなものかなという感じがしましたが、もし理解が足りなかったら再びゴメンナサイ。

いずれにしろ、浅川さん曰く、

私のような視覚障がい者は、オンライン上では合成音声の読み上げにより様々なものを認識できるようになってきましたが、現実の世界では依然として身の回りを認識したり好きな場所に行くことができません。
(中略)
このオープン・プラットフォームが、さまざまなアクセスしやすいアプリケーションを開発し、ナビゲーションを支援する超音波や先進的な慣性センサーといった従来とは異なるテクノロジーをテストする機会を開発者に提供することで、コグニティブ・アシスタンスの研究の進化が加速することを期待しています。

ビーコンを使ったナビゲーションアプリや音声認識・顔認識など個々の技術は新しいものではありませんが、開発ツールキットが公開されることで視覚障がい者支援アプリを作る人が増える可能性があります。

コグニティブ・アシスタンスの今後の動向に注目していきたいと思います。

Source:
IBM Researchとカーネギーメロン大学、視覚障がい者のナビゲーションを支援するオープン・プラットフォームを開発 | IBMニュース
IBM Research, Carnegie Mellon Create Open Platform To Help the Blind Navigate Surroundings | CMU News

(Top photo courtesy of Pixabay)

スポンサーリンク

よろしければシェアをお願いします

スポンサーリンク