裁判で「ChatGPT」使った弁護士の恥ずかしい結末
「スーパー検索エンジン」だと思って使ったら(The New York Times配信)
ニューヨークの弁護士が、ChatGPTを利用して裁判資料を作成、提出したところ、虚偽の判例が含まれていて、裁判所にしかられたという報道の大元の記事。
弁護士が判事に詰問されている場面。
「審理中、シュワルツは時折、目をぎゅっと閉じ、左手で額をこすった。口ごもり、声も小さくなっていた。シュワルツは、ChatGPTが示した判例を調べなかった理由を説明しようと何度も試みた。
「本当にそうすればよかった。しかし、そうしなかった」。シュワルツはそう言って、恥ずかしくてたまらない、面目を失った、深く後悔している、と付け加えた。
「ChatGPTが判例をでっち上げることがあるとは理解していませんでした」とシュワルツは判事に言った。
後悔にうなだれるシュワルツの姿とは対照的に、カステル(判事)は頻繁に身振りでいら立ちを表し、声量を上げて鋭い質問を投げかけた。判事はあきれたように何度も両手を宙に広げながら、なぜ自分の書類をチェックしなかったのかとシュワルツに聞いた。
シュワルツが判事の質問に答えるたびに、弁護士、法学部の学生、調査官、学者など70人近くが詰めかけた法廷の空間全体に反応がさざ波のように広がった。驚き、失笑、ため息。傍聴者たちは顔をしかめ、周囲を見回し、ペンをかんだ。
「ChatGPTにだまされ続けた。恥ずかしいことです」とシュワルツは言った。
すると、傍聴者の1人から、穏やかに下降する口笛が上がった。」
この弁護士は、ニューヨークで30年にわたり弁護士として活動してきた人物だそうです。
「シュワルツは8日の尋問でカステルに対し、ChatGPTは通常よりも広いデータベースにアクセスできるものだと考えていたと話した。「この新しいサイトについての話を聞いて、スーパー検索エンジンのようなものだと勘違いしてしまった」とシュワルツは言った。」
実際はどういうものなのか...
「ChatGPTをはじめとする大規模言語モデルのプログラムは、実際には、インターネットのあちこちから大量の事例を取り込んだ統計モデルに基づき、文言のつなぎ方を分析することで、もっともらしい回答を生成するものだ。
サンタクララ大学でインターネット倫理プログラムの責任者を務めるイリーナ・ライクは、アビアンカ航空のケースは、大規模言語モデルに批判的な人々が指摘してきたことを明確に示すものだと語った。
「こうしたプログラムを試したり、使ったりしている大多数の人々は、それがどういったものなのか、どのように機能するのか、中でもそれにどのような限界があるのかといったことを本当には理解していない」」
もっともらしいということは、それなりに筋が通っているということでしょうから、そのもっともらしさは活かして、根拠となっている事実は、人間が確かめるということになるでしょうか。そうだとすると、事実はITに集めさせて、もっともらしい理屈は人間が考えるという役割分担とは逆になるのでしょう。
AI関連報道。
EUの欧州議会がAI規制案を採択 「使用明示義務」盛りこむ(毎日)
「生成AIを巡っては、著作権の侵害や、誤った情報の拡散などの懸念が広がっている。生成AIの開発では大量のデータがAIの学習のために使われるが、欧州議会案では、これらのデータのうち著作権で保護されたデータを取り込んだ場合は開示を義務付ける。また、生成AIを使った画像や文章であることを明示することも求める。」