課題も試験もAIで、広がる学生の不正 求められる学校の「適応」

Tint Media / Shutterstock.com

 AI(人工知能)ツールを使った学業支援が広がっているが、その一方で、課題の作成をAIに丸投げするなどの不正行為が、学生の間で横行しているという。教育機関は対策を講じ始めたが、不正を証明するのは非常に困難で、多くの教育者が頭を痛めている。

◆AI利用は当たり前 不正行為も激増
 Study.comの調査によると、ChatGPTが公開された直後の2023年1月には、大学生のおよそ90%がすでに課題に活用していると答えていた。若いうちから生成AIに過度に依存することで、批判的思考や想像力が損なわれるのではないかという懸念も根強いが、米調査機関ピュー・リサーチ・センターの最新調査では、13歳から17歳の4人に1人が学習にChatGPTを利用していると回答しており、2023年から倍増している。

 ChatGPTのようなAIツールの利用が、学生の学業における不正行為につながるのではないかという懸念は以前からあったが、それはすでに現実のものとなっている。ガーディアン紙によると、イギリスでは2023年から2024年にかけて、大学生によるAIツールを使った不正が7000件近くあったという。これは学生1000人あたり5.1件に相当し、2022年から2023年の1.6件から大きく増加している。専門家は、報告されたのはあくまで確認できた事例にすぎず、氷山の一角に過ぎないと指摘している。

◆変わる不正行為 教育現場が追い付かない
 米イーロン大学とアメリカ大学協会が2024年に実施した調査によると、大学長や理事長、学部長など高等教育のリーダーのうち、66%が生成AIは学生の注意をそらすと答えていた。また、59%が学内での不正行為が増えていると感じており、56%は自校がAI時代に対応するための学生教育の準備が整っていないと回答している。

 ガーディアン紙によると、生成AIが普及する前の2019年から2020年にかけては、他人の文章や作品をコピーする剽窃(盗用)が、学業不正の約3分の2を占めていた。しかし、AIツールがより高度になり、使いやすくなるにつれて剽窃は大きく減少し、代わってAIが生成した課題を提出する新たな形の不正が目立つようになってきたという。

 AIの使用が疑われる場合、AI検出ツールを導入している学校もある。ただし、その判定結果は必ずしも信頼できるとは限らず、不正を立証するのは非常に難しいと、レディング大学のピーター・スカーフ教授は指摘している。さらに、誤って学生を処分してしまうリスクもあることから、こうしたツールの積極的な活用には慎重な姿勢も求められている。(同)

 AIを使った不正への対策として、課題の手書き提出を求める教育者も少なくない。たとえ課題の一部がデジタルで行われる場合でも、手書きの内容を確認することで、それが同じ学生によって作成されたものかどうかを判断できるという。また、手書きの課題や試験の成績比重をコース全体で高めている学校もある。手間やコストはかかるが、現時点では有効な対策と見なされている。(テック情報サイト『テック・スポット』)

◆利用禁止は非現実的 学校も適応を
 上述のスカーフ教授は、学生が「使うな」と言われてもAIを使うことや、検出されない不正が存在することを教育機関は認識すべきだと指摘している。これまでも不正をする学生はいたが、AIによる不正は全く新しい問題であり、教育機関はこれに対応していかなければならないと述べている。(ガーディアン)

 インペリアル・カレッジ・ロンドンのトーマス・ランカスター博士は、大学レベルの試験は学生にとって無意味に感じられることもあると指摘する。そのため、学校側には学生に特定の課題をこなす必要性を理解させる努力が求められていると述べている。(同)

 テック・スポットは、AIが日常生活に浸透しつつあり、もはや後戻りできない状況だとみている。不正を防ぐためにも、今後は学生にAIの使い方や活用法を教えることが一層重要になると指摘している。

Text by 山川 真智子