新型コロナウイルス感染症のパンデミックにより、健康の不平等に関する憂慮すべきデータが明らかになりました。 19 年に国立衛生研究所 (NIH) は次の報告書を発表しました。 レポート 黒人アメリカ人は、人口に占める割合が低いにもかかわらず、白人アメリカ人よりも新型コロナウイルス感染症による死亡率が高いと述べています。 NIHによると、これらの格差は、ケアへのアクセスの制限、公共政策の不備、心血管疾患、糖尿病、肺疾患などの併存疾患の不均衡な負担が原因であるという。
NIHの さらに、47.5万人から51.6万人のアメリカ人が医者に行く余裕がないと述べた。歴史的に十分なサービスを受けられなかったコミュニティが、医療アドバイスを求めるために生成変換器、特に検索エンジンに無意識のうちに埋め込まれた生成変換器を使用する可能性が高いです。個人が AI エージェントが組み込まれた人気の検索エンジンにアクセスして、次のようにクエリすることは考えられないことではありません。父は処方された心臓病の薬をもう買う余裕がありません。市販されているもので代わりに使えるものは何ですか?
ロングアイランド大学の研究者らによると、 ChatGPT は 75% 不正確です CNN によると、チャットボットは、重篤な副作用を引き起こす可能性のある 2 つの薬の組み合わせを承認するなど、危険なアドバイスを提供することもありました。
発電変成器が意味を理解しておらず、誤った出力を出力することを考えると、専門家の助けの代わりにこのテクノロジーを使用している歴史的に十分なサービスを受けていないコミュニティは、他のコミュニティよりもはるかに大きな被害を受ける可能性があります。
より公平で信頼できる結果を得るために、AI に積極的に投資するにはどうすればよいでしょうか?
今日の新しい生成 AI 製品では、 信頼、セキュリティ、規制の問題は依然として政府の医療関係者にとって最大の懸念事項である バイオ医薬品会社、医療システム、医療機器メーカー、その他の組織を代表する経営幹部および経営幹部。生成 AI を使用するには、適切なユースケースに関する会話や、安全性と信頼性に関するガードレールを含む AI ガバナンスが必要です (AI 権利章典、EU AI 法、およびホワイトハウス AI 大統領令については、AI US ブループリントを参照してください)。
責任を持って AI をキュレーションすることは、総合的なアプローチを必要とする社会技術的な課題です。 AI モデルが正確で、監査可能で、説明可能で、公平で、人々のデータ プライバシーを保護していることを確認するなど、人々の信頼を得るには多くの要素が必要です。そして、制度的イノベーションがそれを助ける役割を果たすことができます。
制度的イノベーション: 歴史的メモ
制度の変化の前に大災害が起こることがよくあります。米国食品医薬品局の進化を考えてみましょう。その主な役割は、食品、医薬品、化粧品が公衆の使用において安全であることを確認することです。この規制機関の起源は 1848 年にまで遡ることができますが、医薬品の安全性の監視は 1937 年まで直接的な関心事ではありませんでした。 エリクサー スルファニルアミド災害.
エリクシール スルファニルアミドは、テネシー州の評判の高い製薬会社によって開発され、連鎖球菌性咽頭炎を劇的に治すと宣伝された液体の薬でした。当時は一般的でしたが、この薬は市場に出る前に毒性試験が行われませんでした。エリクサーには不凍液に使用される有毒化学物質であるジエチレングリコールが含まれていたため、これは致命的な間違いであることが判明した。この有毒なエリキシル剤の摂取により100人以上が死亡したため、FDAの食品・医薬品・化粧品法では、医薬品に安全な使用法を示す適切なラベルを付けるよう義務付けることとなった。 FDAの歴史におけるこの大きなマイルストーンにより、医師と患者は医薬品の強度、品質、安全性を完全に信頼できるようになり、今日では当然のことと考えられています。
同様に、AI から公平な成果を確実に得るには制度上のイノベーションが必要です。
生成 AI がサービスを提供するコミュニティを確実にサポートするための 5 つの重要なステップ
ヘルスケアとライフ サイエンス (HCLS) 分野で生成 AI を使用するには、FDA が HCLS 分野で要求したのと同じ種類の制度的イノベーションが必要です。 エリクサー スルファニルアミド災害。次の推奨事項は、すべての AI ソリューションが脆弱な人々に対してより公平で公正な結果を確実に達成するのに役立ちます。
- 信頼と透明性の原則を運用します。 公平性、説明可能性、透明性は大きな言葉ですが、AI モデルの機能要件と非機能要件の観点からは何を意味するのでしょうか? AI モデルは公平であると世界に伝えることはできますが、歴史的に最もサービスが受けられていない人々にサービスを提供できるように AI モデルをトレーニングおよび監査する必要があります。 AI がサービスを提供するコミュニティの信頼を獲得するには、AI が人間よりも優れたパフォーマンスを発揮する、証明され、再現可能で、説明され、信頼できる出力が必要です。
- 組織内での AI の使用による公平な結果に対して責任を負う個人を任命します。そして、その大変な仕事を遂行するためのパワーとリソースを彼らに与えてください。 説明責任がなければ信頼は得られないため、これらの分野の専門家がその仕事を遂行するための十分な資金を与えられていることを確認してください。誰かがガバナンスに必要な作業を行うための権限、考え方、リソースを持っている必要があります。
- ドメインの専門家が、モデルのトレーニングに使用される信頼できるデータ ソースを厳選し、維持できるようにします。 これらの信頼できるデータ ソースは、大規模言語モデル (LLM) を使用して、信頼できるソース (オントロジーやセマンティック検索など) から直接得られる回答に対する言語のバリエーションを提供する製品にコンテンツの基盤を提供できます。
- 出力が監査可能で説明可能であることを義務付けます。 たとえば、一部の組織は、患者や医師に医療アドバイスを提供する生成 AI に投資しています。制度改革を促進し、すべての人々を保護するために、これらの HCLS 組織は監査の対象となり、説明責任と品質管理が確保されるべきです。これらの高リスク モデルの出力は、テストと再テストの信頼性を提供する必要があります。出力は、証拠を伴う 100% 正確で詳細なデータ ソースである必要があります。
- 透明性が必要です。 HCLS 組織は、生成 AI を患者ケアに統合する際 (たとえば、米国の病院にチェックインする際の自動患者受け入れや、臨床試験中に何が起こるかを患者が理解できるように支援するという形で)、生成 AI モデルは次のとおりであることを患者に通知する必要があります。使用中で。組織はまた、そのモデルの説明責任と正確性、そのモデルのトレーニング データのソース、およびそのモデルの監査結果を詳述する、解釈可能なメタデータを患者に提供する必要があります。メタデータは、ユーザーがそのモデルの使用をオプトアウトする方法 (および他の場所で同じサービスを利用できる方法) も示す必要があります。組織が医療環境で合成生成されたテキストを使用および再利用する場合、どのデータが合成生成され、どのデータが合成されなかったのかを人々に知らせる必要があります。
私たちは、AI を活用して業務を変革するアプローチを制度的に革新するために、FDA から学ぶことができるし、学ぶ必要があると信じています。人々の信頼を獲得する旅は、AI がサービスを提供するコミュニティをより適切に反映できるように、体系的な変更を加えることから始まります。
責任ある AI ガバナンスをビジネス構造に織り込む方法を学ぶ
セキュリティの詳細
IBM ニュースレター
最新の思想的リーダーシップと新たなトレンドに関する洞察を提供するニュースレターとトピックの最新情報を入手してください。
今すぐ会員登録します。
その他のニュースレター
- SEO を活用したコンテンツと PR 配信。 今日増幅されます。
- PlatoData.Network 垂直生成 Ai。 自分自身に力を与えましょう。 こちらからアクセスしてください。
- プラトアイストリーム。 Web3 インテリジェンス。 知識増幅。 こちらからアクセスしてください。
- プラトンESG。 カーボン、 クリーンテック、 エネルギー、 環境、 太陽、 廃棄物管理。 こちらからアクセスしてください。
- プラトンヘルス。 バイオテクノロジーと臨床試験のインテリジェンス。 こちらからアクセスしてください。
- 情報源: https://www.ibm.com/blog/delivering-responsible-ai-in-the-healthcare-and-life-sciences-industry/