ゼファーネットのロゴ

教育者のための AI の簡素化: (現時点で) 本当に知っておくべき 3 つのこと

日付:

10 年前、「ビッグデータ」が教育界の流行語になったときのことを覚えていますか? ビッグデータに関する本 が公開されましたが、具体的にはどのような内容だったのでしょうか? 

ビッグ データは、継続的に増加する大量のデータと、生徒の成績を分析するプロセスを表します。これは複雑になり、ビッグデータは単に大きすぎることがよくありました。実際には、 短いデータセット 効果があることが証明されており、私はそれについて書きました。 小さな勝利の力、生徒の進歩のマイクロステップを追跡します。 

奇妙で不気味な方法で、私たちは人工知能の氾濫によって同様の課題に直面しています。この開拓段階にある教育者には、AI プラットフォームや製品が次々と押し寄せてきますが、それは刺激的であり、疲れることもあるでしょう。無関係なもの、複雑すぎるもの、高価すぎるものなどをどのように吸い上げて、AI の革新的な概念やツールを活用する方法を整理できるでしょうか? 

私は幸運なことに、教育分野で AI についてプレゼンテーションや執筆を行ってきた豊富な経験のおかげで、AI の課題を回避する練習をすることができました。その間、私は効果的かつ効率的にAIを捕捉するための基盤となるAIの3つのコンポーネントを特定することで、すべてのノイズを静めてきました。 著しく不完全な可能性と生産性.

教育者向けにわかりやすくするために、教室で AI を使用する前に理解しておくべき 3 つの主な側面を以下に示します。

  1. 倫理
  2. プロンプト
  3. リソースツール

それでおしまい!ここで終わることもできますが、それはクリフハンガーになると思います。 。 。それで説明します。 

1. 教育者向けの AI の簡素化: 倫理

私は最近、高校の英語教師に AI についてプレゼンテーションを行いました。倫理は重要であり、その中のサブカテゴリーを細分化することに時間を費やしました。 

まず、盗作についてです。生成 AI が独自の文章を生成できるのであれば、学生はそれを利用してさらに不正行為を行うのではないか?当然の懸念です。歴史的に、盗作や不正行為のより広範な状況は、生徒の学習と習熟度を評価する責任を負う教師たちに当然の警戒心を引き起こしてきました。 AIで楽になったら学生の不正行為が増えるのではないか?

良いニュースです。驚くべきことに、 何千人もの学生が参加する研究 匿名で調査された人々は、盗作が AI にアクセスして使用される前から変わっていないことを示しました。主張にもかかわらず、AI 検出器の成功にはむらがあり、すべての優れた教育と同様に、最良の方法の一部には次のような古き良き検出が含まれています。 生徒の作文における AI の使用を検出する 7 つの方法

AIを検出するための追加技術を発見しました。書面による回答が完了したら、学生にエッセイに基づいてレベル 3 の DOK 質問を 3 つ書くように指示します (授業中、エッセイ草稿後の要求に応じて)。これは、彼らがそれを書いたのか、修正したのか、またはコピーして貼り付けたのかを示すものです。このプロセスにより、彼らの思考プロセスを示すことができるからです。

安全策を提供することは教師を安心させるのに役立ち、これらのテクニックが有効であることを生徒に知らせることで、生徒が高い道徳的立場を維持できる可能性が高まります。 

もう一つの倫理的問題は、最近AIがスーパーボウルの結果を予測するように求められたときのような、AIの幻覚の問題です。 Google の Gemini と Microsoft の Copilot チャットボットが、 完全に捏造されたゲーム統計と結果を含むゲーム

これは、事実とフィクションを区別する際に大規模言語モデル (LLM) が引き続き苦労していることを浮き彫りにしています。これや他の AI 幻覚を共有し、 明確に定義されたビデオ、たとえ AI をソースとして使用する場合でも、学生は慎重に作業を進めるようさらに奨励されています。学生はきちんとできる 生成 AI を引用する 賢いプラグアンドプレイツールを使用して透明性を実現します。

AIには偏りがあるのではないかとよく質問されます。私の答えはノーですが、大規模なインターネット エコシステムから情報が得られます。画像ジェネレーターを使用して自然な画像を公開することを示します。 偏見を生み出す傾向たとえば、成功したビジネスパーソンのイメージを作成するように促したときに、明確な固定観念が現れたときなどです。重要なのは、これらの偏見に対処する方法を説明することであり、これは生徒に教えるための貴重な教訓となります。

教育者は、AI にも存続する避けられない不平等を認識する必要があります。残念なことに、疎外された学生はすでに次のようなリスクに直面しています。 パンデミックの時と同じように不平等。不平等についての知識があれば、教育者や学校コミュニティに役立つことができます 回避策 これら。 

2. プロンプト

促すことで、私たちは教育者のための情報を得る戦略的な方法について学びます。 LLM など AI言語モデルを活用してコードのデバッグからデータの異常検出まで、, マイクロソフトの副操縦士, Googleのジェミニ、すべては、プロンプトの力に基づいて情報を生成する能力のバリエーションを提供します。 

プロンプトは、古き良き時代の Google 検索に最もよく似ています。しかし、AI の中には、出力とそれに関連するリスク (幻覚の例) の両方において、より大きな力があります。したがって、 促すためにより深く考え、実践すること、出力が向上します。

幸いなことに、LLM にはプロンプトに基づいて継続的でインタラクティブなチャットを提供する機能があるため、幅広く開始して必要に応じて改良することができます。私が十分な定性的な開始プロンプトを提供しなかった場合にチャットボットが誤解する場合を明確にするために、チャットボットに「いいえ、私が言いたいのはこれです…」とさえ言ったこともあります。 

これを知ることで、恐怖を抱いているユーザーはプロンプトについて心配する必要がなくなります。私のワークショップでは、教育者がこれを発見します。

すべてのエドテック企業が AI ゲームに参入しようとしているため、これは最も広い網です。私のようなテクノロジーオタクにとっては楽しい機会もありますが、気が遠くなるようなこともあります。より優れたリソースのほとんどはフリーミアム モデルで、試用期間後に支払いを強要したり、使用回数を超えて容量を制限したり、アップグレードするとより洗練されたオプションを提供したりします。 

Microsoft と Google はどちらも AI 教育分野への参入に熱心であり、無料または安価でプレミアム機能を提供するのに十分な規模を持っています。新しい Copilot は見た目が印象的で、誰でも 4.0 にアクセスできるようにします。一方、ChatGPT (OpenAI 製) は依然として 3.5 レベルを無料で提供しており、いくつかの利点がありますが、4.0 にアップグレードするには料金を支払う必要があります。 Google の Gemini は Copilot に似ていますが、他の Google と同様に、どのような変更が加えられたのかを特定するのは困難です。たとえば、Google はすでに AI の名前を Bard から Gemini に変更しています。

他にも多くの AI ツールが利用可能であり、私はそれを提供します 単純化されたライブラリ 教育者向けのリソースはたくさんありますが、ほとんどが最終的にはお金を払ってほしいと思っていることを忘れないでください。今のところは、Microsoft などの大企業が提供する LLM を使用し、かなり堅牢な無料バージョンを提供してくれた資本主義に感謝します。私も好き 困惑、もう一つの注目の AI ツールです。

これで完了です。倫理、プロンプト、およびリソース ツール。これらは、学校における人工知能について知っておく必要がある具体的かつ継続的な要素です。他のすべてのものの盛衰は単なるノイズです。これらのコンポーネントに固執すると、Big AI は管理しやすくなり、さらに有利になります。

スポット画像

最新のインテリジェンス

スポット画像