Đại dịch COVID-19 tiết lộ những dữ liệu đáng lo ngại về sự bất bình đẳng về sức khỏe. Năm 2020, Viện Y tế Quốc gia (NIH) đã công bố một báo cáo báo cáo tuyên bố rằng người Mỹ da đen chết vì COVID-19 với tỷ lệ cao hơn người Mỹ da trắng, mặc dù họ chiếm tỷ lệ nhỏ hơn trong dân số. Theo NIH, những khác biệt này là do khả năng tiếp cận dịch vụ chăm sóc hạn chế, sự bất cập trong chính sách công và gánh nặng bệnh tật đi kèm không cân xứng, bao gồm bệnh tim mạch, tiểu đường và bệnh phổi.
Sản phẩm NIH tuyên bố thêm rằng từ 47.5 triệu đến 51.6 triệu người Mỹ không đủ khả năng đi khám bác sĩ. Có khả năng cao là các cộng đồng chưa được phục vụ đầy đủ trong lịch sử có thể sử dụng một máy biến thế tổng hợp, đặc biệt là một máy biến áp được vô tình nhúng vào công cụ tìm kiếm, để yêu cầu tư vấn y tế. Không thể tưởng tượng được rằng các cá nhân sẽ truy cập vào một công cụ tìm kiếm phổ biến có tác nhân AI được nhúng và truy vấn, “Bố tôi không đủ tiền mua thuốc điều trị bệnh tim đã được kê cho ông nữa. Những gì có sẵn trên quầy có thể hoạt động thay thế?"
Theo các nhà nghiên cứu tại Đại học Long Island, ChatGPT không chính xác 75% Vào thời điểm đó, và theo CNN, đôi khi chatbot thậm chí còn đưa ra những lời khuyên nguy hiểm, chẳng hạn như phê duyệt sự kết hợp của hai loại thuốc có thể gây ra phản ứng phụ nghiêm trọng.
Do máy biến thế sinh học không hiểu ý nghĩa và sẽ có đầu ra sai, nên các cộng đồng chưa được phục vụ đầy đủ trước đây sử dụng công nghệ này thay cho sự trợ giúp chuyên nghiệp có thể bị tổn thương với tỷ lệ lớn hơn nhiều so với các cộng đồng khác.
Làm cách nào chúng ta có thể chủ động đầu tư vào AI để đạt được kết quả công bằng và đáng tin cậy hơn?
Với các sản phẩm AI thế hệ mới ngày nay, các vấn đề về niềm tin, an ninh và quy định vẫn là mối quan tâm hàng đầu của các quan chức y tế chính phủ và lãnh đạo C-Suite đại diện cho các công ty dược phẩm sinh học, hệ thống y tế, nhà sản xuất thiết bị y tế và các tổ chức khác. Việc sử dụng AI tổng quát đòi hỏi phải quản trị AI, bao gồm các cuộc trò chuyện xung quanh các trường hợp sử dụng phù hợp và các biện pháp bảo vệ xung quanh sự an toàn và tin cậy (xem Kế hoạch chi tiết AI của Hoa Kỳ để biết Tuyên ngôn về Quyền của AI, Đạo luật AI của EU và Lệnh điều hành AI của Nhà Trắng).
Quản lý AI một cách có trách nhiệm là một thách thức kỹ thuật xã hội đòi hỏi một cách tiếp cận toàn diện. Có nhiều yếu tố cần thiết để có được sự tin tưởng của mọi người, bao gồm việc đảm bảo rằng mô hình AI của bạn chính xác, có thể kiểm tra được, có thể giải thích, công bằng và bảo vệ quyền riêng tư dữ liệu của mọi người. Và sự đổi mới thể chế có thể đóng vai trò hỗ trợ.
Đổi mới thể chế: Ghi chú lịch sử
Sự thay đổi thể chế thường xảy ra trước một sự kiện thảm khốc. Hãy xem xét sự phát triển của Cục Quản lý Thực phẩm và Dược phẩm Hoa Kỳ, cơ quan có vai trò chính là đảm bảo thực phẩm, thuốc và mỹ phẩm an toàn cho người sử dụng. Mặc dù nguồn gốc của cơ quan quản lý này có thể bắt nguồn từ năm 1848, nhưng việc giám sát độ an toàn của thuốc không phải là mối quan tâm trực tiếp cho đến năm 1937 - năm của Thảm họa Elixir Sulfanilamide.
Được tạo ra bởi một công ty dược phẩm uy tín ở Tennessee, Elixir Sulfanilamide là một loại thuốc dạng lỏng được quảng cáo là có tác dụng chữa khỏi bệnh viêm họng liên cầu khuẩn một cách đáng kể. Như thường lệ vào thời đó, loại thuốc này không được kiểm tra độc tính trước khi đưa ra thị trường. Đây hóa ra là một sai lầm chết người vì thuốc tiên có chứa diethylene glycol, một hóa chất độc hại được sử dụng trong chất chống đông. Hơn 100 người đã chết vì dùng loại thuốc độc này, dẫn đến Đạo luật Thực phẩm, Dược phẩm và Mỹ phẩm của FDA yêu cầu thuốc phải được dán nhãn hướng dẫn đầy đủ để sử dụng an toàn. Dấu mốc quan trọng này trong lịch sử của FDA đã đảm bảo rằng các bác sĩ và bệnh nhân của họ có thể hoàn toàn tin tưởng vào tác dụng, chất lượng và độ an toàn của thuốc—một sự đảm bảo mà chúng ta coi là đương nhiên ngày nay.
Tương tự, cần phải đổi mới thể chế để đảm bảo kết quả công bằng từ AI.
5 bước chính để đảm bảo AI sáng tạo hỗ trợ các cộng đồng mà nó phục vụ
Việc sử dụng AI sáng tạo trong lĩnh vực chăm sóc sức khỏe và khoa học đời sống (HCLS) đòi hỏi cùng một loại hình đổi mới thể chế mà FDA yêu cầu trong quá trình Thảm họa Elixir Sulfanilamide. Các khuyến nghị sau đây có thể giúp đảm bảo rằng tất cả các giải pháp AI đều đạt được kết quả công bằng và chính đáng hơn cho những nhóm dân cư dễ bị tổn thương:
- Vận hành các nguyên tắc đảm bảo sự tin cậy và minh bạch. Công bằng, có thể giải thích và minh bạch là những từ quan trọng, nhưng chúng có ý nghĩa gì về các yêu cầu chức năng và phi chức năng đối với các mô hình AI của bạn? Bạn có thể nói với thế giới rằng các mô hình AI của bạn là công bằng, nhưng bạn phải đảm bảo rằng bạn đào tạo và kiểm tra mô hình AI của mình để phục vụ những nhóm dân cư chưa được phục vụ nhiều nhất trong lịch sử. Để có được sự tin tưởng của cộng đồng mà nó phục vụ, AI phải có các kết quả đầu ra đã được chứng minh, có thể lặp lại, được giải thích và đáng tin cậy, hoạt động tốt hơn con người.
- Chỉ định các cá nhân chịu trách nhiệm về kết quả công bằng từ việc sử dụng AI trong tổ chức của bạn. Sau đó cung cấp cho họ quyền lực và nguồn lực để thực hiện công việc khó khăn. Xác minh rằng các chuyên gia tên miền này có đủ thẩm quyền để thực hiện công việc vì không có trách nhiệm giải trình thì sẽ không có sự tin tưởng. Ai đó phải có quyền lực, tư duy và nguồn lực để thực hiện công việc cần thiết cho việc quản trị.
- Trao quyền cho các chuyên gia trong miền để quản lý và duy trì các nguồn dữ liệu đáng tin cậy được sử dụng để đào tạo mô hình. Những nguồn dữ liệu đáng tin cậy này có thể cung cấp nền tảng nội dung cho các sản phẩm sử dụng mô hình ngôn ngữ lớn (LLM) để cung cấp các biến thể về ngôn ngữ cho các câu trả lời đến trực tiếp từ một nguồn đáng tin cậy (như bản thể luận hoặc tìm kiếm ngữ nghĩa).
- Yêu cầu các kết quả đầu ra phải được kiểm tra và giải thích được. Ví dụ: một số tổ chức đang đầu tư vào AI tổng hợp để cung cấp lời khuyên y tế cho bệnh nhân hoặc bác sĩ. Để khuyến khích thay đổi thể chế và bảo vệ mọi người dân, các tổ chức HCLS này phải được kiểm toán để đảm bảo trách nhiệm giải trình và kiểm soát chất lượng. Đầu ra của các mô hình có rủi ro cao này phải mang lại độ tin cậy khi kiểm tra lại. Đầu ra phải là nguồn dữ liệu chi tiết và chính xác 100% cùng với bằng chứng.
- Yêu cầu sự minh bạch. Khi các tổ chức HCLS tích hợp AI tổng quát vào chăm sóc bệnh nhân (ví dụ: dưới hình thức tiếp nhận bệnh nhân tự động khi đến bệnh viện Hoa Kỳ hoặc giúp bệnh nhân hiểu điều gì sẽ xảy ra trong quá trình thử nghiệm lâm sàng), họ nên thông báo cho bệnh nhân rằng mô hình AI tổng quát đang được sử dụng. đang sử dụng. Các tổ chức cũng nên cung cấp siêu dữ liệu có thể hiểu được cho bệnh nhân để nêu chi tiết về trách nhiệm giải trình và độ chính xác của mô hình đó, nguồn dữ liệu đào tạo cho mô hình đó và kết quả kiểm tra của mô hình đó. Siêu dữ liệu cũng phải hiển thị cách người dùng có thể từ chối sử dụng mô hình đó (và nhận dịch vụ tương tự ở nơi khác). Khi các tổ chức sử dụng và tái sử dụng văn bản được tạo tổng hợp trong môi trường chăm sóc sức khỏe, mọi người sẽ được thông báo về dữ liệu nào đã được tạo tổng hợp và dữ liệu nào không.
Chúng tôi tin rằng chúng tôi có thể và phải học hỏi từ FDA để đổi mới về mặt thể chế cách tiếp cận nhằm chuyển đổi hoạt động của chúng tôi bằng AI. Hành trình giành được lòng tin của mọi người bắt đầu bằng việc thực hiện những thay đổi mang tính hệ thống để đảm bảo AI phản ánh tốt hơn các cộng đồng mà nó phục vụ.
Tìm hiểu cách kết hợp quản trị AI có trách nhiệm vào cơ cấu doanh nghiệp của bạn
Thông tin khác từ Bảo mật
Bản tin IBM
Nhận các bản tin và cập nhật chủ đề của chúng tôi nhằm cung cấp thông tin chi tiết và lãnh đạo tư tưởng mới nhất về các xu hướng mới nổi.
Theo dõi ngay
Các bản tin khác
- Phân phối nội dung và PR được hỗ trợ bởi SEO. Được khuếch đại ngay hôm nay.
- PlatoData.Network Vertical Generative Ai. Trao quyền cho chính mình. Truy cập Tại đây.
- PlatoAiStream. Thông minh Web3. Kiến thức khuếch đại. Truy cập Tại đây.
- Trung tâmESG. Than đá, công nghệ sạch, Năng lượng, Môi trường Hệ mặt trời, Quản lý chất thải. Truy cập Tại đây.
- PlatoSức khỏe. Tình báo thử nghiệm lâm sàng và công nghệ sinh học. Truy cập Tại đây.
- nguồn: https://www.ibm.com/blog/delivering-responsible-ai-in-the-healthcare-and-life-sciences-industry/