(世界)各地の大学では、学生に対してChatGPT(以下、「生成AI」と一般化して論じたい)を使用禁止にしている。
生成AIに回答させた文は、論文の「剽窃」(倫理違反)に当たると見做すことで、レポート・論文作成で使用させないということだ。
私が準拠しているマクルーハンの「メディア論」では、メディアは「人間の能力を拡張させたもの」と定義される。
ところが、多くの人(開発者・利用者)は、メディアを人間が楽をするものだと見做している(非マクルーハン的発想)。
両者の違いは、人間を正反対の方向に導く。
前者は、できないことができるようになることを実現し、人間(個人)の能力をさらに引き上げる。
後者は、できることをやらないようにすることで、人間(個人)の能力を退化させる。
→関連記事「It化の推進=自動化という発想の残念さ」
すなわち、問題はメディアの性能ではなく、それを使う人間の目的・使い方にある。
AIを自分の脳の代わりに使うか、それとも自分の脳と協動する優秀な助手・相談相手として使うか。
実際、ある教授が大学授業でのレポートを学生に ChatGPTを使って書かせたら、全員A評価に達したという。
これは、レポート書き方の最低ラインを引き上げたことを意味する。
レポートの書き方は、内容以前に、その形式・構造を習得させることが教育現場では重要だ。
内容は書き手の個性(個人差)の部分で、形式・構造は共通ルールの部分だから。
後者を習得するには、適切なモデル(サンプル)が必要である。
生成AIはそれを提供してくれる。
すなわち、 生成AIが作成したモデル(サンプル)は、共通の最低ラインである。
人間はそのサンプルに個性を付加すればよい。
言い換えれば、 生成AIよりレベルの低いレポートは人間が作成する価値がないレベル(不合格)。
このように 生成AIを使うことで、レポートの質の底上げができる。
当然、レポートの評価者自身、 生成AIでその最低ライン(サンプル)を設定しておく。
すなわち、提出されるレポートはそのラインに形式的に準拠しながら、いかに個性(オリジナリティ)を付加しているか、そこを評価する。
オリジナリティの部分とは、 生成AIの情報源であるネット空間にはない、自分で直接集めたデータや考察の部分である。
言い換えれば、既存の情報の収集と整理は、今では人間が手間をかけてやる必要はない。
それらを前提として、そこに新しい情報を付加するのが人間の営為である。
ついでに言うと、今後はAI(という優秀な助手)をいかに使いこなすかが、人の仕事能力の成否にかかってくる。
と言うことは、それを教育することこそが必要になる。
当然、ネット空間の情報は玉石混交なので、”助手”が作成した報告書を鵜呑みにしないのは言うまでもない。