京大、東大、東北大等で「ChatGPT」の注意喚起をしています。
やはり、自ら考える能力へも影響するのでしょう。
それに不正に用いて試験やレポート提出に利用され、本人の実力以上に評価してしまいそうです。
評価が誤認されると以前にあったような事例と同じでそれを実際に実験してもその通りに成らずに問題が露呈します。
そのような中で下記のような事を言う政治家さんがいるのは的外れか、実態調査に欠けます。
おそらく、周囲にその道の専門家が居ないのか、または居てもお偉い方なのでうえから目線での批判は出来ませんよね。
前に書いた通り、元のベースになる行政文書がしっかりしているなら、それを元に書いて、且つ問題点が無いか校閲させるプログラムにした方が早いのでしょう。
校閲させるプログラムの内容こそその役所のオリジナルです。
何故なら、法律や他の行政文書との整合性も見ないといけませんよね。
それにまして答弁等で一度でも回答しているのに違う回答を書くだけで不一致と言われます。
また、知事会等からの陳情などを配慮しないとまた会見等で叱咤され兼ねません。
つまり、人がやるヒーマンエラーはまだみっともないだけで所詮起き得る話です。
ところが、機械的に組み合わせただけの文章だと思わぬ落とし穴が待っていたりします。
Google翻訳でさえ、意味不明な日本語訳になる事は多く日本語で通じるように意訳が必要です。
おそらく、その背景にある状況や意味を汲み取るだけの能力こそが、学生で言えば成績ですし、社会人で言えばお仕事に他ならないのでしょう。
別に文学や社会科学、芸術などだけが背景を察するのでなく、自然科学でも純粋な数学は除いて多くの物理現象や自然現象、化学等でもバラツキや使用用途などで誤差の範囲をどうするのか、また外乱をどう処理するのか難しい洞察力が必要です。
特に難しいのは小論文のような課題の書かせ方とそれの評価の仕方になるのかと思えてきます。
と言うのも本人オリジナルなのが明確に成らない限りコピー疑惑やAI疑惑が付き纏います。
悪魔の証明では有りませんが、随時監視かオリジナルを明確にしてそれからの変更点を確実に併記して更にそれがオリジナルなのを証明出来るような方法が必要ですが、それをどうやって行うのかと言うと最早人の認知に頼らないとこれまでに無かったのか難しいです。
一番、本質的なのは自分達で調査したテスト結果、世論調査などの情報添付なのかと思います。
また、その変更点を再現性があるのかのテストなんでしょうけどそれってかなり複雑で問題はコストになるかなと思ってしまいます。
だから、AIに書かせたどうかを判定出来るような判定出来る方法の確立は大切なのかと思います。
例えば、文書に秘密裏にコードを埋め込んで必ずAIならそのコードが見つけられるようにするとか偽造防止や不正コピー用の技術の転用を進めれば楽ですよね。
それでオリジナルがどの程度で、AIによるような作成資料がどの程度、引用文章がどの程度なのかきちんと書いておく書き方を作るべきでは?