Logo Zephyrnet

Các nghiên cứu cho thấy sự sai lệch trong các mô hình AI đề xuất phương pháp điều trị và chẩn đoán bệnh

Ngày:

Nghiên cứu về các phương pháp dựa trên mô hình máy học và trí tuệ nhân tạo để chăm sóc sức khỏe cho thấy rằng chúng hứa hẹn trong các lĩnh vực phân loại kiểu hình, dự đoán tỷ lệ tử vong và thời gian nằm viện cũng như khuyến nghị can thiệp. Nhưng các mô hình theo truyền thống được coi là hộp đen theo nghĩa là cơ sở lý luận đằng sau các đề xuất của chúng không được giải thích hoặc chứng minh. Việc thiếu khả năng diễn giải này, cộng với sự sai lệch trong bộ dữ liệu đào tạo của họ, có nguy cơ cản trở hiệu quả của các công nghệ này trong chăm sóc tích cực.

Hai nghiên cứu được công bố trong tuần này nhấn mạnh những thách thức chưa được khắc phục khi áp dụng AI vào các cơ sở chăm sóc sức khỏe. Đầu tiên, các nhà nghiên cứu tại Đại học Nam California, Los Angeles đánh giá sự công bằng của các mô hình được đào tạo với Medical Information Mart for Intensive Care IV (MIMIC-IV), bộ dữ liệu hồ sơ y tế công khai lớn nhất. Cái khác, đó là đồng tác giả của các nhà khoa học tại Đại học Queen Mary, khám phá các rào cản kỹ thuật để đào tạo các mô hình chăm sóc sức khỏe không thiên vị. Cả hai đều đi đến kết luận rằng các mô hình có vẻ “công bằng” được thiết kế để chẩn đoán bệnh tật và đề xuất các phương pháp điều trị dễ bị ảnh hưởng bởi những định kiến ​​về chủng tộc và giới tính ngoài ý muốn và không mong muốn.

Như các nhà nghiên cứu của Đại học Nam California lưu ý, MIMIC-IV chứa dữ liệu không xác định được danh tính của 383,220 bệnh nhân được đưa vào đơn vị chăm sóc đặc biệt (ICU) hoặc khoa cấp cứu tại Trung tâm Y tế Beth Israel Deaconess ở Boston, Massachusetts từ năm 2008 đến 2019. các đồng tác giả tập trung vào một tập hợp con gồm 43,005 lần nằm ICU, lọc ra những bệnh nhân dưới 15 tuổi chưa đến ICU nhiều hơn một lần hoặc ở lại dưới 24 giờ. Đại diện trong số các mẫu là bệnh nhân nam và nữ Châu Á, Da đen, Tây Ban Nha và da trắng đã kết hôn hoặc độc thân có Medicaid, Medicare hoặc bảo hiểm tư nhân.

Trong một số thử nghiệm để xác định mức độ sai lệch có thể tồn tại trong tập hợp con MIMIC-IV, các nhà nghiên cứu đã đào tạo một mô hình để đề xuất một trong năm loại thở máy. Đáng lo ngại là họ phát hiện ra rằng các đề xuất của mô hình khác nhau giữa các nhóm dân tộc khác nhau. Trung bình, các nhóm người da đen và gốc Tây Ban Nha ít có khả năng được điều trị bằng máy thở hơn, đồng thời nhận được thời gian điều trị ngắn hơn.

Theo các nhà nghiên cứu, tình trạng bảo hiểm dường như cũng đóng một vai trò trong việc ra quyết định của mô hình điều trị bằng máy thở. Bệnh nhân được bảo hiểm tư nhân có xu hướng được điều trị bằng máy thở lâu hơn và nhiều hơn so với bệnh nhân Medicare và Medicaid, có lẽ là do bệnh nhân có bảo hiểm hào phóng có thể chi trả cho việc điều trị tốt hơn.

Các nhà nghiên cứu cảnh báo rằng tồn tại “nhiều yếu tố gây nhiễu” trong MIMIC-IV có thể dẫn đến sai lệch trong dự đoán máy thở. Tuy nhiên, họ coi đây là động lực để xem xét kỹ hơn các mô hình trong lĩnh vực chăm sóc sức khỏe và các bộ dữ liệu được sử dụng để đào tạo chúng.

Trong nghiên cứu được công bố bởi các nhà nghiên cứu của Đại học Queen Mary, trọng tâm là tính công bằng của phân loại hình ảnh y tế. Sử dụng CheXpert, một bộ dữ liệu chuẩn để phân tích X-quang ngực bao gồm 224,316 ảnh chụp X quang có chú thích, các đồng tác giả đã đào tạo một mô hình để dự đoán một trong năm bệnh lý từ một hình ảnh duy nhất. Sau đó, họ tìm kiếm sự mất cân bằng trong các dự đoán mà mô hình đưa ra cho bệnh nhân nam và nữ.

Trước khi đào tạo mô hình, các nhà nghiên cứu đã triển khai ba loại “bộ điều chỉnh” nhằm giảm sai lệch. Điều này có tác dụng ngược lại với dự định - khi được đào tạo với bộ điều chỉnh, mô hình thậm chí còn ít công bằng hơn khi được đào tạo không có bộ điều chỉnh. Các nhà nghiên cứu lưu ý rằng một bộ điều chỉnh, một bộ điều chỉnh "mất cân bằng", đạt được sự cân bằng tốt hơn giữa nam và nữ. Tuy nhiên, sự tương đương này phải trả giá bằng sự chênh lệch gia tăng trong các dự đoán giữa các nhóm tuổi.

Các nhà nghiên cứu viết: “Các mô hình có thể dễ dàng điều chỉnh quá mức dữ liệu đào tạo và do đó mang lại cảm giác sai lầm về sự công bằng trong quá trình đào tạo, điều này không khái quát hóa cho tập kiểm tra”. “Kết quả của chúng tôi chỉ ra một số hạn chế của các biện pháp can thiệp thời gian đào tạo hiện tại để đảm bảo tính công bằng trong học sâu.”

Hai nghiên cứu được xây dựng dựa trên nghiên cứu trước đây cho thấy sự thiên vị phổ biến trong các mô hình chăm sóc sức khỏe dự đoán. Do ngại phát hành mã, bộ dữ liệu và kỹ thuật, phần lớn dữ liệu được sử dụng để huấn luyện các thuật toán chẩn đoán và điều trị bệnh có thể kéo dài sự bất bình đẳng.

Mới đây, một nhóm các nhà khoa học Anh tìm thấy rằng hầu hết tất cả các bộ dữ liệu về bệnh về mắt đều đến từ các bệnh nhân ở Bắc Mỹ, Châu Âu và Trung Quốc, có nghĩa là các thuật toán chẩn đoán bệnh về mắt ít chắc chắn sẽ hoạt động tốt đối với các nhóm chủng tộc từ các quốc gia có ít đại diện. trong khác nghiên cứu, các nhà nghiên cứu của Đại học Stanford tuyên bố rằng hầu hết dữ liệu của Hoa Kỳ cho các nghiên cứu liên quan đến việc sử dụng AI trong y tế đến từ California, New York và Massachusetts. Một nghiên cứu thuật toán của UnitedHealth Group xác định rằng nó có thể đánh giá thấp một nửa số bệnh nhân Da đen cần được chăm sóc nhiều hơn. Các nhà nghiên cứu từ Đại học Toronto, Viện Vector và MIT đã chỉ ra rằng bộ dữ liệu X-quang ngực được sử dụng rộng rãi mã hóa thành kiến ​​về chủng tộc, giới tính và kinh tế xã hội. Và một khối lượng công việc ngày càng tăng gợi ý rằng các thuật toán phát hiện ung thư da có xu hướng kém chính xác hơn khi được sử dụng trên bệnh nhân Da đen, một phần là do các mô hình AI được đào tạo chủ yếu dựa trên hình ảnh của bệnh nhân da sáng.

Xu hướng không phải là một vấn đề dễ giải quyết, nhưng các đồng tác giả của một nghiên cứu gần đây khuyên rằng các bác sĩ chăm sóc sức khỏe nên áp dụng phân tích công bằng “khắt khe” trước khi triển khai như một giải pháp. Họ cũng đề xuất rằng những tuyên bố từ chối trách nhiệm rõ ràng về quy trình thu thập tập dữ liệu và khả năng sai lệch dẫn đến có thể cải thiện các đánh giá cho mục đích sử dụng lâm sàng.

VentureBeat

Nhiệm vụ của VentureBeat là trở thành một quảng trường thành phố kỹ thuật số cho những người ra quyết định kỹ thuật có được kiến ​​thức về công nghệ chuyển đổi và giao dịch. Trang web của chúng tôi cung cấp thông tin cần thiết về công nghệ và chiến lược dữ liệu để hướng dẫn bạn khi bạn lãnh đạo tổ chức của mình. Chúng tôi mời bạn trở thành thành viên của cộng đồng của chúng tôi, để truy cập:

  • thông tin cập nhật về các chủ đề mà bạn quan tâm
  • bản tin của chúng tôi
  • nội dung dẫn dắt tư tưởng được kiểm soát và giảm giá quyền truy cập vào các sự kiện được đánh giá cao của chúng tôi, chẳng hạn như Chuyển đổi
  • các tính năng mạng và hơn thế nữa

Trở thành thành viên

Nguồn: https://vojibeat.com/2021/02/18/studies-find-racial-and-gender-bias-in-ai-models-that-recommend-ventilator-usage-and-diagnose-diseases/

tại chỗ_img

Tin tức mới nhất

tại chỗ_img