ゼファーネットのロゴ

テクノロジーを使わずに AI の書き込みを検出する 7 つの方法

日付:

夏の間、私はオンラインで教えている大学のライティング入門コースで、AI の使用が疑われる最初のケースを目にし始めました。それ以来、AI によって生成されたエッセイは、これらのクラスでより一般的な要素になりました。 

ありがたいことに、ChatGPT や他の AI ジェネレーターの執筆スタイルのいくつかの明らかな兆候のおかげで、私は AI 論文を即座に見つけるのがはるかに上手になりました。 AI の書き込みを検出するために私が学んだテクニックについては、以下のクラスで説明します。 

ただし、これらの戦略に入る前に、AI の使用の疑いが直ちに懲戒処分の理由になるわけではないことを覚えておくことが重要です。これらのケースは、生徒との会話のきっかけとして、また、決まり文句を許してください。AI によって生成された作品の使用の問題点を説明するための教育の場としても使用されるべきです。 

そのために、以前にも書きましたが、 AI が疑われるケースにどのように対処したか, 既存の AI 検出器の厄介な制限と差別的傾向、および約 教育者が生徒の AI 使用を誤って非難するとどうなるか

これらの警告をしっかりと踏まえた上で、生徒による AI の使用を検出するために私が探している兆候を以下に示します。 

1. AI ライティングを検出する方法: 提出物が長すぎます 

課題で生徒に 1 つの段落を要求しているのに、生徒が 1 ページ以上を提出すると、私の感覚はおかしくなります。 

ほぼすべてのクラスに、AI なしでこれを行う成績優秀な生徒が 14 人はいますが、その生徒は通常、最初の週に XNUMX 通のメールを送信し、すべての課題を早めに提出します。そして最も重要なことに、長すぎるにもかかわらず、課題は本当によく書かれていることがよくあります。突然過剰生産をした生徒が危険信号を発します。

2. 答えは的を外しているが長すぎる

長いということ自体は AI の使用を特定するのに十分ではありませんが、多くの場合、過度に長い割り当てには、疑わしい追加の奇妙な機能が含まれている可能性があります。 

たとえば、課題が必要な長さの 4 倍であるにもかかわらず、必要な引用や表紙が含まれていない場合があります。あるいは、トピックに関連した内容について延々と説明が続くものの、実際の質問の詳細にはまったく触れていない場合もあります。 

3. AI ライティングは、感情を表現する場合でも感情を表現しない 

ChatGPT がミュージシャンなら Kenny G か Muzak でしょう。現状では、AI ライティングは口頭でのスムース ジャズやグレー ノイズに相当します。たとえば、ChatGPT には非常に元気でポジティブな雰囲気があり、どういうわけか実際の感情が伝わりません。 

私の課題の 1 つは、生徒たちに重要な思い出や好きな趣味について考えるよう求めています。この種のプロンプトに対する ChatGPT の応答の空虚さはすぐにわかります。たとえば、私は子供の頃スケートボードが好きだったということを ChatGPT に伝え、それを説明するエッセイを依頼しました。 ChatGPT の開始方法は次のとおりです。 

子供の頃、スケートボードでクルージングする感覚ほど爽快なものはありませんでした。舗道を踏みしめる車輪のリズミカルな音、髪を吹き抜ける風、そして四輪で世界を探索する自由――スケートボードは単なる趣味ではありませんでした。それは限りない喜びの源でした。

要点はわかります。エレベータージャズのサックスソロを拡張したようなものですが、言葉が入っています。  

4. リストと箇条書きの過度の使用  

論文に多くのリストや箇条書きが含まれている場合、学生が AI を使用していると私が疑う理由は次のとおりです。 

1. 人間の著者は通常、それがエッセイを書くのに効果的な方法ではないことを知っているにもかかわらず、ChatGPT やその他の AI ジェネレーターは情報をリスト形式で表示することがよくあります。 

2. ほとんどの人間のライター、特に情報を整理するのに苦労する新人ライターは、本質的にこの方法では書きません。

3. リストは情報を整理する良い方法ですが、この方法でより複雑なアイデアを提示するのは難しい場合があります。

4 … 迷惑です。 

5. 私の言いたいことが分かりますか? 

6. (はい、わかっています。この話もリストであることを考えると、私がここでこれについて文句を言うのは皮肉なことです。)

5. 間違いはありません 

私はここで ChatGPT の文章を批判してきましたが、公平を期すために言うと、ChatGPT は私の多くの生徒が提出したものよりも平均して誤りのない、非常にきれいな散文を生み出しています。経験豊富なライターでもコンマを見逃したり、長くてぎこちない文章になったり、小さなミスをしたりすることがあります。だからこそ、編集者がいるのです。 ChatGPT の文章は「完璧」すぎるわけではありませんが、きれいすぎます。  

6. 文章が生徒の他の作品と一致しない  

ライティング講師はこのことを本質的に知っており、生徒が作品を盗用していることを示す可能性のある声の変化に長い間注意を払ってきました。 

AI ライティングでもそれは変わりません。学生が以前の作品とは大きく異なる新しい作品を提出した場合、またはディスカッション掲示板のコメントが正式な課題には見つからなかった間違いだらけの場合は、詳しく調べてみましょう。 

7. 何かがちょうどいい。 。 。オフ 

これらの異なる AI の文章間の境界はあいまいになり、いくつかの事柄の組み合わせによって、文章を疑う場合があります。また、文章のどこが間違っているのかを判断するのが難しく、目の前の作業を人間が行っていないように感じることもあります。 

私はこれらの直感をある程度信頼することを学びました。このような微妙なケースに直面したとき、私は同僚の講師や学科長にざっと調べてもらうことがよくあります(必要に応じて学生情報を特定することは省略します)。セカンドオピニオンを得ることで、「生徒はみんなロボットで、私が読んでいるものは何も本物ではない」という偏執的な状況に陥らないようにするのに役立ちます。同僚が何かが起きている可能性が高いことに同意すると、私は疑いだけに基づいて AI 仮説を進めることに抵抗がなくなります。これは、前述したように、私が AI の疑いのあるケースを告発するのではなく、会話のきっかけとして使用するためです。 

繰り返しになりますが、学生がAIを使用していることを証明するのは難しく、AIを使用していると非難することには問題があります。 ChatGPT もそれを知っています。論文執筆に AI を使用していると学生を非難するのはなぜ悪いのかと尋ねると、チャットボットは「適切な証拠や理解なしに AI を使用していると学生を非難することは、いくつかの理由で問題となる可能性があります。」と答えました。 

それからリストが起動されました。 

スポット画像

最新のインテリジェンス

スポット画像