政府がまとめた人工知能(AI)に関する7つの原則が明らかになった。AIが物事を判断する際、その企業に説明責任を求めるのが柱だ。AIの判断基準を示し、金融機関の融資などで、過程が分からない状態をなくす。この原則をもとに法整備を進めるとの報道、要は全ての責任はAIを利用している企業にあるというものだ。
先日、羽田から福岡に向かう日本航空の最終便が、定員を超えて予約をとるオーバーブッキング(過剰予約)が原因で欠航した。欠航したのは、羽田空港を21日午後7時45分に出発し、福岡空港に同9時45分に到着予定の便だ。同社は、「時間帯、曜日など過去数年分の予約実績に照らして分析」して、キャンセルを予想。定員375人に対し、401人の予約を受け付けた。だが、想定を上回る395人がチェックイン。日航は同7時、「協力金」(ホテル代2万円)を支払う代わりに翌日便に乗り換えてくれる人はいないかと呼びかけたが、応じる人が少なく欠航となった。
JALは先日、約50年間使い続けた旅客システムに別れを告げて人工知能(AI)を使ったシステム「アルテア」に移行したところ、効果が想定以上で原油高が重荷となっている日本航空の2019年3月期業績が増益に転じるかもしれないと発表した。AIは使うほどに精度が上がるので座席が埋まり、安売りをする必要が無く、収益改善の効果は大きいが、今回は経験不足だったのか最終便で、福岡空港での深夜着陸時間制限という事情があり、特殊のケースだったのか明らかにしてないが、いずれにせよまだAIの信頼性は高くない。
AIが運用する日本株投信でも日経平均株価が年初来で2%安なのに対し、マイナス8%で期待外れと話題になった。AIと人間は協働しなければといった本も出ている。AIを調教せよといった威勢のよいことをいう人もいる。
これから就職試験でもAIを活用するという企業もあるが、判断基準をキチンと人間がチェックする必要がある。まだAIは全面的に信頼をしてはいけない。