良く聴えるためには、聞かないことが大事?
ことばの構成要素は、音素、音韻(単音)、単語(複数の単音から構成される一連の音)、文という構造があり、これによって、論理的な情報の相互交換が可能となる。
「ら」「く」「だ」という3つの単音は、[r][a][k][u][d][a]という発音記号で示すことのできる音素からなり、それぞれが母語固有のカテゴリー分類にねざした組合せを有することで「ら」「く」「だ」という音韻となり、その3つの単音によって日本語の動物をあらわす単語になる。
もちろんそれぞれの単音が近接しすぎても、離れすぎても動物としての「らくだ」として認識することは難しくなる。
単語は数個の単音の連続によって構成されているが、そのひとつひとつの隙間時間はある一定レベルの中におさまっていないとことばとして認識することが難しくなる。
一連の単語なのか、ひとつの区切りなのかは、そのギャップの時間長で判断している。ミスマッチ陰性電位の研究をしている先生方の意見を整理してみると、誰もが明瞭に区切りとして感じる時間長はおよそ150msecくらいらしい(わかくてかしこい脳ほど短いのでも識別できる)。700msecを超えるとそれを句読点として認識し、音の連続とは認識しないということになりそうだ。
内耳が刺激されるとその刺激から快復して次の刺激に反応するまでには4〜8msecくらい時間がかかるらしい。
いずれにしても単音と単音の間はおよそ8〜150msecくらいの隙間であるべきと言うことなんだろう(思い出しながら書いているのでこの数字は正確でないかもしれません)。
無音部分がクリアな無音であるほどに聞き取りは明瞭になるので、静音部分はできるだけノイズが少ない方が良いし、かりにノイズがある環境ならノイズのあるときはできるだけSNを良くしたいとということになる。
補聴器におけるノイズリダクションというのはつまりは検知した音の情報をもとに周波数スペクトルからノイズか音声かを識別しノイズを抑制するのがこれまでの考え方だった。
ノールズが開発したワイドダイナミックレンジのマイクロフォンは、これまでの24dBの下限を16dBまで広げた高スペックのマイクロフォンである。補聴器ではこれまで24dB以下は静音と判断するしかなかったのが、16dB以下を静音と判断することの出来る仕組みを得たことになる。これを活用してノイズリダクションすることで静かな環境下での会話の明瞭度はより優れたものになる可能性がある。あるいは16dBのスペクトルパターンをベースに底上げすることで弁別をよくするというやり形もあるかも知れない。
いずれにしてもノールズが開発したワイドダイナミックレンジのマイクロフォンはこれからおおくのメーカーの補聴器に搭載されていくのであろうが、これによって静かな場所での会話の聞き取りがこれまでの補聴器とは異次元の明瞭度へとアップグレードされることが想像できる。
しかしこうした補聴技術があっても、ノイズがトゥーマッチな環境ではどうにもならない。そんなときにはどうしても文脈からの判断や視覚的な情報による補完が必要になる。文脈や視覚による補完によるギャップインノイズデテクションがうまくいかないと、せかくの「らくだ」も落語にしかきこえないそんな状態になりかねません。しかしそうしたことばの判断は極めて脳の機能の所産であって補聴器ではいまのところいかようにもしがたいのです。
おわり。。。
ここで言いたいことはどうやらユニトロンの搭載しているマイクと機能は最高機種においては相当すごそうだねということです。