詩はどこにあるか(谷内修三の読書日記)

日々、読んだ本の感想。ときには映画の感想も。

チャットGPTの精度

2023-07-28 13:29:48 | 考える日記

 「チャットGPTの精度が落ちた」というニュース(見出し)を読売新聞で読んだ記憶があるが、検索しても出てこないので、テキトウな感想になるのだが。
 私は、これを当然だと思っている。
 世の中には「正確な情報」よりも「間違った情報」の方が多い。というか、「正確な情報」というものは、たいていの場合「修正」を重ねることで「正しい情報」にかわっていくものである。
 「情報」を「知識」と言い直して考えてみれば、すぐわかる。
 「天動説」が「地動説」にかわるまでに、どれだけ時間が必要だったか。「地動説」が登場して、すぐに「天動説」が修正されたわけではない。科学の世界でさえ、そうなのだから、「科学」ではない「人事」が動いている世界では、それがあたりまえだろう。
 さらに問題は、ひとは簡単には「間違い」を認めない、というか、「間違いを訂正して正しい情報に書き直す」ということをいちいちしない。たいてい、ほったらかしにしておく。
 ほんとうに正直な人間だけが、「あれは間違っていた、修正すます(訂正します)」と報告する。そして、そのとき、そのときの「情報」の大半が正しくて、ただ一点だけ間違っていたとしても、ひとは「やっぱり、あの情報は間違っていた」と間違いだけをとりあげて情報全体の価値を否定することが起きる。
 具体的偽は書かないが、「慰安婦問題(報道)」では、そういうことが頻繁に起きた。
 記者が責任をもって書いた「報道」では「訂正」がおこなわれるが、情報が匿名で発信され、拡散される世界では、「訂正」は拡散されず、「間違いの指摘」だけがひろがり、「正しい情報」が「間違った情報」になり、「間違った情報」が「正しい情報」にかわってしまうこともある。このときの「基準」が、その「情報の引用回数」で判断されると、それはとんでもないことになる。
 チャットGPTがどうやって情報を集めるのか知らないが、そしてそれが正しいか間違っているかどう判断するか知らないが、間違った情報を集めてしまう限り、どうしてもその「結論」は間違ったものになるだろう。
 いまはまだ「専門家」がチェックしている段階だから「精度が高い」のであって、だれもがつかい始めると精度はどんどん落ちるだろう。
 私がインターネットを始めたころ、「誰もが必ず一度はPLAYBOYを覗きに行く」と言われたが、いまはその手の情報は、PLAYBOYどころではなくなっている。PLAYBOYが掲載していた写真など、いまでは幼児向けの絵本みたいなものだろう。同じことが起きるだろう。

 私は情報と呼ばれるものが、新聞、ラジオ、テレビ、インターネットと変化してきた時代を生きてきたが、その変化に伴って「正しい情報」が広まると同時に、「間違った情報」が広がるもの目撃してきた。そして、思うことはただひとつ。「正しい情報」は確かに維持されるが、「間違った情報」はかぎりなく「拡散する」ということである。「正しい/間違っている」は機械的には判断できない。「間違い」を修正し「正しい」に変えていくことができるのは、「良心」だけである。「良心」の定義が難しいが。「倫理」が必要だというと、自民党の政策みたいになるが、あれは「良心」を失った強欲集団がつくったものだから、私は、いつも「少数派」のなかにこそ「倫理(良心)」の「基本」のようなものがあると考えることにしている。「多数派」にはつねに疑問を持つことが必要だ。
 最初に戻って言い直すと。
 「間違っている」ことを認識し、それを「正しい」に変えていくひとは少ないし、さらにそれを「記録」として残すひとはさらに少ない。情報社会では、そうやって確立された「正しさ」は非常に少ない。チャットGPT、それを見逃すだろう。そうしためだたない「正しさ」を収集しきれないだろう。
 
 チャットGPTが、「多数(派)」への疑問を持つことができるかどうか、「少数(派)」が維持する疑問を正確に認識できるかどうか。それが課題なのだが、強欲集団がつくりだしたものが、そういう基本的性質を持つとは考えることができない。10年後、私は生きてはいないだろうが、そのころはきっとチャットGPTの「誤作動」が大きな問題になっているだろうなあ。

 

コメント (1)
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする