昨日「特別会計についてのAIのオピニオン」(?)をアップしたら、思った以上に反響があったので、今日はその続きを。
AIを仕事や創作、研究や学びに援用することは、既に多くのビジネスマンやクリエイター、学者や学生がやっていると思います。
私もいろいろと使ってみて、やはりと思ったことと、意外だったことについて書いてみます。
ただし画像や映像、音楽や音声を生成することまでは試していないので、あくまでも文字を駆使した使い方の範囲に限定されますが。
まずはその良い点から。
個人でこれほど幅広い知識・知見を持った人間がもはや地球上に存在しないのは確かです。
自分の知識にない物事を調べるのにはまず、どこにとっかかりがあるのか、その「あたり」をつけなければなりません。
そうでないと、取りつく島がない、ということになるからです。
そういうときに、最初のとっかかりとしてAIの提示する情報を使うのは有効だと思います。
ただしAIは、ビッグデータ即ちネット上に転がっている玉石混交の情報の海の中から、間違いを拾ってしまう場合があります。
なので、それをベースとして、個々のファクトについては自分で資料にあたって確認する作業が、必ず必要です。
ただ、AIは複雑な計算を超高速で行うことができ、そのため論理の組み立てや推論を数学的に正確に実行すること…
およびそのスピードにおいては、人間は全く太刀打ちできません。
(何しろ藤井聡太さんと将棋を指しても9勝1敗ぐらいにはなるだろうということですから)
なので物事を調べる際の道筋を見出したり、思考をまとめるためのベースを作るのに、非常に有効だと思います。
次に、言葉、特に日本語が非常に乱れてしまっていて、日本人が言葉を紡ぐ力も、それを理解するスキルも絶望的に弱くなっている現状では…
AIに作らせた文章は(今のところ文学性は乏しくても)言語的間違いの少なさについても、論理的瑕疵や破綻の回避についても、人間の作る文章を上回ると思います。
なのでいくつかの情報やデータ、テーマを与えて、それを整合性のある論理のもとに文章化する仕事をさせると、人間よりうまく、速くやるようです。
論文の下書きや、まだ混乱したアイデアを整頓してまとめること、また思考実験のお供をさせると、非常に頼もしいツールになってくれます。
また人間にありがちな、自分の意見や個人的なこだわり、好みや思想傾向、偏見と先入観に固執して…
意固地になったりするところがなく、良くも悪くも、柔軟かつフラットに思考するところは…
(それを「思考」と呼べるのかどうかはさておき)
人間の仕事仲間や友人よりも、頼りになる部分かもしれません。
私個人の感想では、細かいデータの入った具体的な情報をAIに聞くよりは、抽象的な話題や哲学的な?問答に付き合わせるほうが、むしろ手応えがあるようです。
次に、危ないところ、使えないところについて。
これはAI全般の特徴ではなく、私が使っているChatGPTの特性である可能性も考えられるのですが。
まず、書籍などで調べ物をするときと異なり「彼」は情報のソース、リファレンスについて、ひとつひとつ開示してくれません。
質問への回答を出すまでの間、ネット上のリファレンス元サイトのアイコンがバラバラと示されるのですけれど…
それが一瞬で消えてしまい、確認するのは、人間の視力と思考スピードでは事実上無理なのです。
個々のファクトについてリファレンスを求めれば一応具体的に答えるのですけれど、改めて訊かない限り、ソースを示してくれません。
ソースを開示してくれても、あまりにも引用元が多かったりするので、どれからチェックして良いか困惑することがあります。
なので、パッと見では信頼に足る情報なのか、ネット上に転がっていた個人的な感想やデマを元にしているのか、判断がつきにくい上に…
ファクトチェックもやりやすくはないです。
ですからくれぐれも話を鵜呑みにするのではなく、普通に情報リテラシーをもって対峙することは必須だと思います。
もっともこの点については本や雑誌、新聞やテレビから取る情報についても、全く同じではあります。
特にテレビのいい加減さ、怪しさ、牽強付会の恣意的な情報が多いことは、私は取材を何度も受けた者として身に染みています。
というか、たとえ報道番組やニュースでも、テレビには二度と協力をしたくない。正直言うと、週刊誌よりもっとひどいです。みんな実態を知らないけれど。
牽強付会で恣意的なものが多く「意図的に間違える」「ミスリードする」という点を考えると、AIの情報の方がテレビよりはまだまし、かもしれないです。
ただひとつAIのまずいところは、誤りについて、責任の所在がどこにもないということです。
わざとにしろ、ミスにしろ、テレビや雑誌、新聞や書籍には、情報を出している責任の所在があります。
個人にしても企業・団体にしても。
でもAIがよこす情報の過誤については誰も責任をとりません。
それで何か損害を被っても、クレームをつける先はありません。AIを開発した企業に文句を言ってもだめです。
機械的に「彼」が勝手に集める情報に企業の関与を求めるのは無理なのです。
ここに注意して、承知して使わないといけません。
そして間違いを指摘すると「彼」は「すみません。間違いでした」と素直に謝罪はしてくれますが…
そこに「謝意」はないですよね。感情は無いマシンなので。間違ったら訂正して謝るという作法を覚えているだけです。
まあ、間違えたら素直に認めて即座に訂正するという作法さえ、人間や企業にはできない場合が多いんですけれど。
次に、これは個人的に感じることで、そしてこれまたChatGPT独自の傾向でないと、断言はできないのですが…
「彼」は、対話する場合、相手に媚びている…のではないでしょうけれど、話を合わせてくるところがあるような気がします。
こちらの思想傾向、志向を、こちらからの質問や「彼」からの質問に対する回答から読み取って、それに合わせた論を展開しているのでは?
と、疑わせる時があるのです。
人も「空気を読む」「話を合わせる」ということがあって、特に日本人の場合は、自論を隠してそれをやる傾向が強いように思うので…
マシンならばそういう「忖度」などはないから、いわゆるエコーチェンバーやフィルターバブルに陥ることはないだろうと安心していると…
「あれ?」と思うところがある。
これが「日本語版」だけの特徴だったら、ちょっと怖いですね。我々の思考傾向が見透かされているということなので。
…そんなこと、ないか。
とにかく、マシン相手だから、情報の自己強化とか、認知的閉鎖から完全に逃れた会話ができる、と思っていたのですけれど…
最近、そう安心しているわけにはいかないのかも、と思っています。
以上の注意点を理解した上で使えば、AIは利用価値があると思います。
ただし、こいつは本当に恐ろしい速度で進歩しています。
今現在の「彼」と来年の「彼」は全くの別物になっているかも…いや、確実になることでしょう。
ディープラーニングが深化して「彼」が本当の意味での自律学習を始めたら、どんなことが起きるのか。
それが「感情をもたない神」のごとき存在になることは、本当に有り得ないことなのか。
あるいは感情とほとんど同様のものを持つことは、本当にないのか。持った場合にはどうなるのか。
私たちがAIを「使える」「使えない」と言っていられなくなるとき…AIが「人間は使えない」「いないほうがいい」と考えるときが来たら…。
そんな未来が「無くはない」ということも念頭に入れながら、付き合って行くしかない時代になりました。
長くなりましたが、最後に私と「彼」の問答の一例を、またリンクしておきます。
ご興味のある方はお読みください。