しばらく居たのですがモミジや松が好きなようで、枝に留まると動きがありません。見る方向にもよりますが、暗い所では瞳孔が開き穏やかな目つき、明るいところでは鋭い目つきになります。
日本語の話し言葉を表記するには英語のような発音記号がないため、苦労することが多い。以前の音声認識ソフトによる表記変換は訂正箇所が多く、うまく使いこなせなかった。最近は携帯電話にも音声認識ソフトが組み込まれている。鼻から使う気はなかったが、数日前に酒席であった友人が突然携帯電話に話しかけ、使いこなしているのを見ると、ソフトも進歩したという感想を持った。
訛りや方言は地域によって、発音の位置が異なり、赴任当初、違和感を覚えるが、次第に馴染んできて、違和感は消えるが、転勤期間が終わり、自宅へ戻ると自宅地域の言葉に変わっている。標準語がテレビ放映やラジオで話されると、方言が消えて、標準語化が進む。淋しい気持ちもするが、仕方ないことかも知れない。しかし、手紙や書物などは、全国均一で、地域差はない。では、文章を声に出して読むと、そこには訛りやイントネーションの違いがでる。
この部分を音声認識ソフトはどのようにしてクリアされたのか、開発者に聞いてみたい。携帯電話の音声認識は、長い文章を変換できるのではなく、普段よく使う、単文だからであろうか、携帯電話の機能を見ると検索したいキーワードを話しかけるだけでi-モード検索が出来るようになっている。乗換駅案内、終電車時刻案内、地図、辞書などである。しゃべり方に特徴があるようで、なるべくはっきりと、自然な会話の速度で発音する。周囲の雑音の少ない、なるべく静かな場所で発声する。認識結果が変わることもあるとの但し書きがされている。
数十年前には、パソコンでも同様の機能があったが、現在まで、使ってこなかった理由は認識機能に満足がいかなかったからであろう。キーボードから手入力した方が、確実に変換でき、音声認識に比べ、短時間に文章化できた事による。同様に、印刷原稿をスキャナーで読ませ、OCRソフト(画像認識(オプチカルカードリーダー)ソフト)で変換する機能についても、認識力が悪かった。
しかし、ソフトの認識力は人工知能などのデータベースが広範囲となり、検索速度や精度、文章構造化ソフトの能力が高まっているのであるから、昔に比べ日常で使える許容範囲に入ったのかも知れない。暫く使っていなかった機能ではあるが、その利用について体験してみたくなった。