loadmap.htm






2010年のロードマップ



これは、NCKが毎年作っている「パソコン文字通訳技術」ロードマップです。
NCKが目指している最終目標は、「いつでもどこでも必要な時に」「他の人に頼ることなく」パソコン文字通訳を利用できるようになることです。
この図は、それに至るロードマップです。これは、毎年、改定していきたいと思っています。
このようなロードマップを発表することで、企業の開発者や大学の研究者が聴覚障害に興味を持ってくれることを期待しています。

縦軸は、「時・場所からの自由」、つまり、「いつでもどこでも」の自由度です。 横軸は、「人からの自由」、つまり、「他の人に頼ることなく」の自由度です。 社会的インフラの要件には、大雑把に言って「いつでもどこでも」「安い」「信頼できる」という3点があります。
「時と場所の自由」の軸は、「いつでもどこでも」です。
「人からの自由」は、「プライバシー」という点以外に、人件費がかからないという点で「安い」という軸でもあります。
(もちろん「信頼性」も重要ですが、3次元になってしまうのでこの図では省略しています。)

2008年、NCKがスタートした頃は、「パソコン文字通訳」は、会場に入力者が行きプロジェクター投影する方法でした。
これは、時・場所の自由も限られるし、人から自由ではありません。

 2010年から2015年のロードマップは、「入力者派遣型(A方式)」から「利用者準備方(B方式)」と「会場準備方(C方式)」への移行期ととらえています。
NCK-A方式で、在宅入力の方法を確立しました。(しつつあります。)
次に、表示側、利用者側をNCK-BやNCK-C方式を実用化したいと考えています。
これらは、現状でも技術的には可能と考えています。
イーモバイルのモバイルブロードバンドサービスを開始したことが、遠隔パソコン文字通訳システムの要件に大きな影響を与えたように、今後の5年間で提供されるインターネット環境は非常に重要です。
もしかしたから、今のNCKの方法で、B方式、C方式が全国展開できる可能性もあると考えています。

2020年は、予約無しの情報保障が期待されます。
・事前に予約することなく、必要な時に字幕を得ることができる。
・日本の人件費を考えれば、音声認識による入力が現実的と思われる。不特定話者の音声認識が可搬機器に納まるとは思えないため、ネットワークによる遠隔音声入力となる。
・人手による入力の選択も残し、認識率を現実的なレベルで実用化を目指したい。
・表示機器は、PCの様な複雑な設定や起動に時間がかかるのでは実用にならない。家電製品のように、電源onで即座に利用可能であることが望まれる。

2030年のパソコン文字通訳は、補聴器のように日常的に字幕を利用できるシステムが目標です。
表示機は、メガネ内に表示されると良いと思います。
ドラゴンボウルのスカウターのように、まだマンガの中の世界の事かと思っていたのですが、なんと今年、ブラザー工業からメガネ型網膜走査ディスプレー「AiRScouter」が発表されました。
将来的には、発話者の位置・距離に文字が表示されるようになることを期待します。
携帯できる大きさの音声認識装置が必要です。
相互コミュニケーションのために発話機能が必要。片手で高速入力が可能な入力ディバイス(データグローブなど)が必要。
このようになれば、「人からの自由」「時・場所からの自由」が、実現される考えます。
この2030年のシステムに英日翻訳を組み合わせることができれば、聴覚障害者だけでなく、健聴者にも非常に便利なコミュニケーションツールとなります。
もし、これが完成し、安価に手にいれることができるような世の中になれば、NCKの役割は終わりで、法人は解散したいと考えています。
このようなシステムは夢かと思っていたのですが、2010年には、iPhoneを使った遠隔入力が開始され、網膜走査型ディスプレイが発表されました。
当初考えていたロードマツプよりもはるかに早くいろいろな技術が実現されています。


・ブラザー工業株式会社網膜走査型ディスプレイ「AiRScouter」
http://www.itmedia.co.jp/news/articles/0804/15/news021.html
・iPhone
http://www.apple.com/jp/iphone/

過去のロードマップ

2009年ロードマップ
2008年ロードマップ