ゼファーネットのロゴ

AI ガバナンスのベスト プラクティス – DATAVERSITY

日付:

サンソーエン センサカオラート / Shutterstock.com

AI ガバナンスは、人類の向上のために人工知能の責任ある使用を促進することを目的としています。人工知能は、さまざまなタスクを迅速かつ効率的に完了するのに非常に役立つことが証明されています。残念ながら、犯罪行為を支援したり、誤った情報を作成して配布したりするために使用される可能性もあります。 AI ガバナンスは、犯罪行為や非倫理的な行為への人工知能の使用を最小限に抑える取り組みです。

ChatGPT、生成 AI、大規模言語モデルなどの人工知能の最近の進歩により、業界と政府のリーダーの両方が AI を使用する際の倫理ガイドラインと規制の必要性を認識するようになりました。     

AI ガバナンス プログラム、規制、ガイドラインの開発は、AI テクノロジーの開発と応用を管理する取り組みです。例えば、作家らは人工知能に取って代わられることに重大な懸念を表明しており、全米脚本家組合は賃金引き上げと人工知能の使用に対する厳しい制限を要求してストライキを行った。 執筆目的のAI

本物のような画像を作成する能力 (「」と呼ばれます)深い偽物AIを制御する人物が望むことを何でも発言する個人の存在が、一部の政治家や政治団体にとって懸念となっている。企業のコンピューター システムが AI が生成したマルウェアに感染した後、または電話ですすり泣きながら親に告げる娘の声が再現された後、身代金の要求が提示されることがあります。 彼女は誘拐されました.

AI ガバナンスは、プライバシー、 組み込みバイアス、なりすまし、盗難、詐欺。倫理観が弱い、または倫理観のない個人から国民を守るために法律や規制が必要であることは残念です。企業は、新たな法律や規制を常に最新の状態に保ち、AI システムの作成と展開が準拠していることを確認する必要があります。

組織は次の操作を行うことができます。 倫理的な問題 AI ガバナンスのベスト プラクティス システムに準拠することで人工知能の使用によって向上し、人類の向上に向けた責任ある人工知能の使用を促進します。

人工知能を規制する政府の取り組み

米国では、言論の自由が嘘をつく自由と混同されることがあります。状況は複雑で、誤った情報を制限する法律を制定することが困難になっている。人工知能は、詐欺行為を増やす上で非常に役立つツールとなる可能性があります。 

個人と革新的な自由の両方を保護するシステムを開発するには、政府は一定の措置を講じる必要があります。最初のステップでは、人工知能の非倫理的な使用によって生じる問題について理解を深めます。アメリカでは上院が 開始 これは、AI に関する CEO の懸念について話し合うために、テクノロジー系 CEO 数名に 13 回のセッションへの参加を依頼した際のことです。最初のセッションは 2023 年 XNUMX 月 XNUMX 日に開催されます。

30 年 2023 月 XNUMX 日、バイデン大統領は次の声明を発表した。 行政命令 AIの懸念について。 「最も強力なAIシステムの開発者は安全性テストの結果やその他の重要な情報を米国政府と共有する」という義務を除いて、大統領令は「開発中の」基準とガイダンスを扱っている。現時点では、米国は人工知能の動作を管理または制限する法律を制定していません。  

欧州連合 (EU) は、AI に焦点を当てた規制の必要性を決定した最初の政府機関の 1 つです。彼らが提案した法案の最終文は、 EU AI 法は、8 年 2023 月 XNUMX 日の合意に従って現在も開発中です。彼らは、許容できないリスク AI システムを人々に対する脅威として説明する (これらのリスクは禁止されます) 一連のリスク レベルを開発することを選択しました。許容できないリスクには次のようなものがあります。

  • 人間または特定の脆弱なグループに対する認知的、意図的、行動的操作。一例としては、子供たちに危険な行動を促す音声作動のおもちゃが挙げられます。
  • 社会的スコアリング、社会経済的地位、行動、または個人的特徴を使用して人々を分類するプロセス。
  • リアルタイムおよびリモートの生体認証システムの使用。

中国には、民主政府が支持するような言論の自由への配慮が欠けている。その結果、AI の優先順位は異なります。 生成型人工知能サービスに関する暫定行政措置 実装されました これらの AI 管理規制により、生成 AI サービスを提供する企業は、セキュリティ評価とアルゴリズムの提出を完了する必要があります。また、生成されたコンテンツの正確性、客観性、信頼性、信頼性を向上させる努力をプロバイダーに求め、その監督を求めています。

一般的に、AI ガバナンスに関心を持っている国々は、依然として適切な法律や規制を策定している段階にあります。

ビジネス内での AI ガバナンスのベスト プラクティスの開発

企業管理者は、顧客や従業員に対する AI の影響を考慮し、リスクを最小限に抑え、損害を回避するためのポリシーを導入する必要があります。 AI ガバナンスのベスト プラクティス システムを開発することで、企業は人類の進歩のために人工知能を責任を持って使用することをサポートできます。 

ベストプラクティスは次のとおりです。

AI によって生成されたマテリアルを識別する: 多くの政府は、AI によって生成されたアートを区別する方法として透かしの使用を義務付けることについて議論しています。正直で責任感のある組織にとって、ウォーターマークは、アートが人間ではなく AI によって作成されたものであることを伝える簡単な方法となります。ウォーターマークの問題は、ウォーターマークが非常に簡単に削除できることです。混乱や誤った情報が生じる可能性を高めるために、人間が作成したアートに透かしを追加することができます。 

正直で責任ある組織は、AI によって生成されたアートに透かしを含める必要があります。 AI によって書かれた記事では、記事を書き始めた人が著者権を主張したいかどうかに関係なく、通常は著者の名前が表示される場所に「AI 生成」と表示する必要があります。 (そうでないとすると、単に誤解を招き、欺瞞的になります。) 

アルゴリズムのバイアスに対処する: AI のアルゴリズムに組み込まれた意図しない (または密かに植え付けられた) 偏見や偏見は、人種や性別などの人口統計を利用して、組織の採用慣行や顧客サービスに影響を与える可能性があります。

AI に偏りがあるかどうかを判断するには、テストを実行してください。バイアスがないか何度かテストしてください。エクセルが開発した What-If 分析ツール (ゴール シークおよびシナリオ マネージャー) これらのテストを実行します。これらのツールは、AI システムの公平性と公平性を促進するように設計されています。 AI が差別なく動作することを保証します。

顧客のセキュリティ: 企業が収集する顧客情報には、基本的に 2 つの種類があります。 1 つ目は顧客から直接提供されるもので、自宅の住所や電話番号、場合によっては生年月日などが含まれます。この情報は安全に保護されるべきであることに誰もが同意します。

人工知能をデータ ガバナンスと組み合わせて、データ プライバシーとセキュリティ法をサポートできます。 AI をサポートするデータ ガバナンス プログラムとセキュリティ ルールを開発することで、企業はデータの盗難や悪用のリスクを大幅に軽減できます。 

顧客情報の 2 番目の形式は、 他の組織から購入した オンライン ショッピングのパターンからソーシャル メディアの活動に至るまでのデータが含まれます。この種の情報 (「サードパーティ データ」と呼ばれます) は、人を操作して購入させる目的で収集されます。 

ほとんどの人は、自分の個人的な好みやニーズが観察され、悪用されるという考えを好みません。誠実で責任ある企業は、人間やサードパーティのデータを操作する人工知能の使用をサポートすべきではありません。

AI を使用する場合は、「害を及ぼさない」という哲学を発展させてください。 短期的な利益だけを目的とするビジネスがあり、利益さえ得られれば欺瞞は問題ありません。しかし、あなたは彼らと複数回取引したいと思いますか?利益を追求し続けると、全体像を見失いがちになります。

ビジネスモデルに倫理が組み込まれると、害を与えないという哲学が生まれます。正直で正確な情報が企業の顧客基盤に損害を与えることはほとんどありませんが、欺瞞や盗難は通常、その顧客との将来のビジネスの損失につながります。さらに、正確な情報は、より大きな社会の効率と流れを合理化し、ひいては人類の進歩を促進します。誤った情報が持ち込まれると、混乱や混乱が生じる可能性があります。 

人工知能は、混乱や混乱を促進するために使用することも、良好なコミュニケーションを目的として使用することもできます。 

組織と AI の両方の倫理規定を作成します。 AI ガバナンスの倫理規定は、倫理的行動に対する組織の願望と取り組みを概説する必要があります。この倫理規定には、「正確な情報を提供するために人工知能を使用する」および「誤った情報を作成または配布するために人工知能を使用してはならない」という約束が含まれる場合があります。

AI ガバナンスの倫理規定を作成すると、組織が明確な行動基準を確立するのに役立ちます。企業の倫理規定が一般に公開されると、顧客や利害関係者の信頼を築き、法的リスクを軽減し、社会的責任を示すのに役立ちます。

データスチュワードとAI倫理は次のように報告しています。 AI ガバナンス プログラムには、倫理的懸念をサポートする一連のポリシーと手順を含める必要があります。これらのポリシーの 1 つは、定期的にスケジュールされた倫理レポートを要求する必要があります。 データスチュワード この責任を割り当てるのに適切な人物であると思われます。組織の人工知能の倫理的な使用に関する報告メカニズムを作成することで、上級リーダーは説明責任を確保できます。定期的な監査は、潜在的な法的問題を特定し、コンプライアンスを促進するのにも役立ちます。 

これらの措置は総合的に AI ガバナンス プログラムの実装を強化し、組織全体で責任ある AI 実践を促進します。

経営陣とスタッフを教育する: 包括的な AI ガバナンス プログラムを作成するには、すべてのスタッフと経営陣が組織の倫理規定と長期目標を理解している必要があります。教育プロセスにより、すべてのスタッフが同じ目標を達成するために努力し、スタッフの誰も誤って目標に反して働いていないことが保証されます。

AI ガバナンスにおけるアルゴリズムの使用

私たち人間が、正確な情報と誤った情報を区別して識別する方法を見つければ、人工知能による犯罪行為や誤った情報の配布を防ぐアルゴリズムを開発できるかもしれません。

スポット画像

最新のインテリジェンス

スポット画像