編集者による画像
人工知能は間違いなく現代のバズワードです。 その人気、特に ChatGPT のような生成 AI アプリケーションの出現により、技術的な議論の最前線に浮上しました。
ChatGPT のような AI 生成アプリの影響と、その機能を利用することが公平かどうかについて、誰もが話題になっています。
しかし、この完璧な嵐のさなか、人工知能または AI という用語をめぐる数多くの神話や誤解が突然急増しました。
これらの多くはすでに聞いたことがあると思います。
これらの通説を深く掘り下げて打ち破り、AI の本質を理解しましょう。
一般に信じられていることに反して、AI はまったく知性がありません。 最近のほとんどの人は、AI を活用したモデルは確かにインテリジェントであると考えています。 これは、「人工知能」という名前の中に「知能」という用語が含まれていることが原因である可能性があります。
しかし、知性とは何を意味するのでしょうか?
知能は、知識とスキルを獲得し、適用する能力として定義される、生物に特有の特性です。 これは、知性によって生物が周囲と相互作用し、生き残る方法を学ぶことができることを意味します。
一方、AI は、この自然知能の特定の側面を模倣するように設計された機械シミュレーションです。 私たちがやり取りするほとんどの AI アプリケーション、特にビジネス プラットフォームやオンライン プラットフォームは機械学習に依存しています。
Dall-E によって生成された画像
これらは、膨大な量のデータを使用して特定のタスクについて訓練された特殊な AI システムです。 彼らは、ゲームのプレイ、言語の翻訳、画像の認識など、指定されたタスクに優れています。
しかし、その範囲外では、それらは通常まったく役に立ちません。さまざまなタスクにわたって人間のような知能を備えた AI の概念は汎用 AI と呼ばれており、このマイルストーンの達成には程遠いです。
テクノロジー大手間の競争は、自社の AI モデルの巨大さを誇ることを中心に展開することがよくあります。
Llama の 2 つのオープンソース LLM のリリースは、70 億の機能バージョンという強力なバージョンで私たちを驚かせました。一方、Google の Palma は 540 億の機能に達し、OpenAI の最新リリース ChatGPT4 は 1.8 兆 XNUMX 億の機能で輝いています。
ただし、LLM の数十億の機能が必ずしもパフォーマンスの向上につながるわけではありません。
多くの場合、データの品質とトレーニング方法は、モデルのパフォーマンスと精度を決定するより重要な要素となります。 このことはすでに証明されています スタンフォードによるアルパカの実験 ここで、単純な 7 億の機能を活用した Llama ベースの LLM は、ChatGPT 176 を活用した驚くべき 3.5 億の機能を結び付けることができます。
したがって、これは明確に「ノー」です。
大きいほど必ずしも良いとは限りません。 LLM のサイズとそれに対応するパフォーマンスの両方を最適化することで、これらのモデルのローカルでの使用が民主化され、日常のデバイスに統合できるようになります。
よくある誤解は、AI は透明性のない神秘的なブラック ボックスであるということです。 実際には、AI システムは複雑な場合があり、依然として非常に不透明ですが、その透明性と説明責任を強化するために多大な努力が払われています。
規制当局は倫理的かつ責任ある AI の利用を推進しています。 などの重要な動きは、 スタンフォード AI 透明性レポート と 欧州AI法 企業に AI の透明性を高め、政府がこの新興領域で規制を策定するための基盤を提供することを目的としています。
透明な AI は、AI コミュニティの焦点となる議論のポイントとして浮上しており、個人が AI モデルの徹底的なテストを確認できるようにするプロセスや、AI の意思決定の背後にある理論的根拠を理解することなど、無数の問題が含まれています。
このため、世界中のデータ専門家がすでに AI モデルの透明性を高める方法に取り組んでいます。
したがって、これは部分的には正しいかもしれませんが、一般的なほど深刻ではありません。
多くの人は、AI システムは完璧でエラーが発生しないと信じています。 これは真実とは程遠いです。 他のシステムと同様に、AI のパフォーマンスはトレーニング データの品質によって決まります。 そして、このデータは多くの場合、常にとは言えませんが、人間によって作成または管理されます。
このデータにバイアスが含まれている場合、AI システムは誤ってバイアスを永続化してしまいます。
MITチームが広く使用されている事前学習済み言語モデルを分析したところ、性別と特定の職業や感情の関連付けに顕著な偏りがあることが明らかになった。 たとえば、客室乗務員や秘書などの役割は主に女性的な特質と結びついており、弁護士や裁判官は男性的な特質と結びついています。 感情面でも同様の行動が観察されています。
他に検出された偏見は人種に関するものです。 LLM が医療システムに侵入するにつれて、LLM が医療システムに侵入するのではないかという懸念が生じます。 人種に基づく有害な医療行為を永続させる、トレーニング データに固有のバイアスを反映しています。
これらの欠点を監視して修正し、AI の信頼性を確保するには人間の介入が不可欠です。 鍵となるのは、代表的で偏りのないデータを使用し、アルゴリズムによる監査を実施してこれらのバイアスを打ち消すことにあります。
最も広く広まっている懸念の XNUMX つは、AI が大量の失業者をもたらすのではないかというものです。
しかし、歴史は、テクノロジーが特定の仕事を時代遅れにする可能性がある一方で、同時に新しい産業や機会を生み出すことを示唆しています。
Image from
LinkedIn
たとえば、世界経済フォーラムは次のように予測しましたが、 AI は 85 年までに 2025 万人の雇用を置き換え、97 万人の新たな雇用を生み出す可能性があります。
最後の、そして最もディストピア的なもの。 『マトリックス』や『ターミネーター』などの映画を通じた大衆文化は、AI が人類を奴隷化する可能性について厳しいイメージを描きます。
イーロン・マスクやスティーブン・ホーキング博士のような影響力のある人たちは懸念を表明しているが、AIの現状はこうしたディストピア的なイメージとは程遠い。
ChatGPT などの今日の AI モデルは、特定のタスクを支援するように設計されており、SF 物語で描かれている機能や動機を備えていません。
だから今のところ…私たちはまだ安全です!
結論として、AI が進化し続け、私たちの日常生活に溶け込むにつれて、事実とフィクションを区別することが重要になります。
明確に理解した場合にのみ、その可能性を最大限に活用し、その課題に責任を持って対処することができます。
神話は判断力を鈍らせ、進歩を妨げる可能性があります。
AI の実際の範囲についての知識と明確な理解を備えて、私たちはテクノロジーが人類の最大の利益に役立つことを保証しながら前進することができます。
ジョセップ・フェレール バルセロナ出身の分析エンジニアです。 彼は物理工学を卒業し、現在は人間の移動に適用されるデータ サイエンス分野で働いています。 彼は、データ サイエンスとテクノロジーに焦点を当てた非常勤のコンテンツ クリエイターです。 あなたは彼に連絡することができます LinkedIn, Twitter or M.
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://www.kdnuggets.com/6-artificial-intelligence-myths-debunked-separating-fact-from-fiction?utm_source=rss&utm_medium=rss&utm_campaign=5-artificial-intelligence-myths-debunked-separating-fact-from-fiction