شعار زيفيرنت

تعلم الآلة والذكاء الاصطناعي وإدارة المخاطر: شرح TIR34971

التاريخ:

Machine Learning, AI and Risk Management- TIR34971 Explained

TIR34971:2023, تطبيق ISO 14971 على التعلم الآلي في الذكاء الاصطناعي، تم نشره في مارس 2023.

يعد التقرير الفني استجابة لازدهار الذكاء الاصطناعي، الذي أضاف طبقة من التعقيد إلى الامتثال للوائح والمعايير في صناعة MedTech التي لا تغطي على وجه التحديد التقنيات الأحدث مثل الذكاء الاصطناعي. 

و كما التعلم الآلي (ML) أصبحت صناعة MedTech أكثر انتشارًا في توصيات التشخيص والعلاج، وتحتاج صناعة MedTech إلى إرشادات حول كيفية البقاء متوافقًا مع معايير مثل ISO 14971 أثناء تصميم وتطوير الأجهزة التي تستخدم التعلم الآلي.

وهنا يأتي دور TIR34971:2023. ويهدف هذا التقرير إلى تزويد الشركات المصنعة للأجهزة الطبية بإرشادات حول كيفية متابعة عملية إدارة المخاطر في ISO 14971 أثناء بناء الأجهزة التي تستخدم التعلم الآلي.

موارد إضافية: اضغط هنا لتنزيل أداة تحليل الفجوة ISO 14971:2019 مجانًا لضمان الامتثال وتحسين عملية إدارة المخاطر لديك.

ما هو TIR34971 ومن يجب أن يستخدمه؟

TIR34971 هو تقرير فني يهدف إلى أن يكون بمثابة مصاحب لـ ISO 14971: 2019. التقرير الفني يفعل ليس توفير عملية جديدة لإدارة المخاطر أو توسيع المتطلبات المنصوص عليها في ISO 14971:2019.

ومع ذلك، فهو يوفر إرشادات للمصنعين الذين يحتاجون إلى فهم كيفية تطبيق ISO 14971 على التقنيات الطبية المنظمة للذكاء الاصطناعي. بمعنى آخر، إذا كان جهازك يستخدم التعلم الآلي، فسيساعدك هذا التوجيه في النظر في المخاطر الفريدة المرتبطة بمكون تعلم الآلة في جهازك وكيف يجب عليك تقييم تلك المخاطر والتحكم فيها.

ما هي بعض الاعتبارات الرئيسية في عملية إدارة مخاطر الذكاء الاصطناعي؟

يتبع هيكل TIR34971 عملية إدارة المخاطر الموضحة في ISO 14971. مرة أخرى، لا يوجد شيء جديد هنا فيما يتعلق بالمتطلبات المدرجة في ISO 14971:2019. وكما يشير التقرير الفني، "تنطبق أساليب إدارة المخاطر الكلاسيكية على أنظمة تعلم الآلة."

ومع ذلك، فإن استخدام التعلم الآلي في منتج ما يخلق قدرًا كبيرًا من المخاطر الجديدة وغير المألوفة للمستخدمين النهائيين. 

على سبيل المثال، لا يزال تحليل المخاطر يبدأ بتحديد وتوثيق وصف واضح لجهازك والاستخدام المقصود منه. ولكن إذا كان جهازك يستخدم التعلم الآلي، فإن الأسئلة التي تطرحها حول الاستخدام المقصود وسوء الاستخدام المتوقع تختلف قليلاً عما قد تكون عليه بالنسبة لجهاز طبي تقليدي. 

يشير TIR34971 إلى أنك قد تحتاج إلى طرح أسئلة، مثل:

  • هذا هو برنامج يقدم توصيات التشخيص أو العلاج؟ ما مدى أهمية هذه المعلومات في التأثير على المستخدم؟ هل يقوم بإعلام أو قيادة الإدارة السريرية؟

  • هل يقدم النظام تطبيقًا غير تعلم الآلة لنفس الوظيفة؟

  • هل هذا الجهاز لديه أي وظائف مستقلة؟ ما هو مستوى الحكم الذاتي؟

  • هل هذا الجهاز لديه القدرة على التعلم مع مرور الوقت؟ هل يستطيع تعديل خصائص أدائه، وإذا كان الأمر كذلك، ما هي حدود هذا التعديل؟

  • إذا كان المقصود من النظام أن يتعلم مع مرور الوقت، فهل من المحتمل أن يؤثر ذلك على الاستخدام المقصود؟

القسم 5.3 من التقرير، تحديد الخصائص المتعلقة بالسلامة، يحتوي على قدر كبير من المعلومات حول ما يجب الانتباه إليه عند العمل مع الذكاء الاصطناعي والتعلم الآلي. 

إدارة البيانات 

نظرًا لأن الأجهزة الطبية القائمة على التعلم الآلي تحتاج إلى "التدريب" على البيانات قبل استخدامها مع المرضى، فهناك عدد من المخاطر المرتبطة بإدارة البيانات. هذا قسم طويل، ولكن تتضمن بعض المشكلات الأكثر أهمية المتعلقة بإدارة البيانات ما يلي:

  • بيانات غير صحيحة

  • بيانات غير مكتملة

  • معالجة غير صحيحة للقيم المتطرفة في البيانات

  • على سبيل المثال، بيانات غير متناسقة تختلف من مصدر لآخر

  • البيانات الشخصية التي تأثرت بالمعتقدات أو الآراء الشخصية

  • بيانات غير نمطية ولا تمثل جودة البيانات في الاستخدام الفعلي للجهاز

انحياز

يعد التحيز مصدرًا رئيسيًا للمخاطر المحتملة عندما يتعلق الأمر بأداء الجهاز الطبي الذي يستخدم التعلم الآلي. على الرغم من أنه ليس كل التحيز سلبيًا بطبيعته، إلا أن هناك عددًا من الطرق المختلفة التي يمكن من خلالها البيانات المستخدمة لتدريب خوارزميات ML يمكن أن تكون متحيزة بطريقة تؤثر على سلامتها وفعاليتها. 

وتشمل هذه التحيزات ما يلي:

  • التحيز الضمني

  • الإنحياز في الإختيار 

  • عدم الحياة الطبيعية

  • متغيرات الوكيل

  • انحياز المجرب

  • تحيز إسناد المجموعة

  • متغيرات مربكة

تخزين البيانات والأمن والخصوصية

يشير هذا إلى حقيقة أن البيانات المستخدمة أثناء تطوير واختبار وتدريب تطبيق تعلم الآلة قد تكون هدفًا جذابًا للجهات الفاعلة الخبيثة. 

وكما يشير TIR34971، "على الرغم من أن العديد من التقنيات لضمان الأمن السيبراني ستنطبق على تعلم الآلة، نظرًا للطبيعة الغامضة لتعلم الآلة، قد يكون من الصعب اكتشاف متى تم اختراق الأمان." وهذا يعني أن أي شركة MedTech تستخدم التعلم الآلي في أجهزتها ستحتاج إلى مراقبة أداء منتجاتها واتخاذ التدابير المناسبة لضمان الخصوصية، مثل استخدام البيانات الاصطناعية

الثقة المفرطة

تشير الثقة المفرطة إلى ميل المستخدمين إلى تطوير الثقة في التكنولوجيا إلى درجة أنهم يصبحون معتمدين عليها بشكل مفرط ويثقون في التكنولوجيا حتى عندما تشير الظروف إلى أنهم يجب أن يكونوا متشككين.

يمكن أن تحدث الثقة المفرطة عندما يقوم المستخدمون بما يلي:

  • تطوير الكثير من الثقة في قدرة التطبيق.

  • إدراك أن المخاطر أقل مما هي عليه وتفويض التطبيق.

  • لديك عبء عمل ثقيل. من المرجح أن تثق في التطبيق عندما لا تشعر أن لديك الوقت للقيام بشيء ما بنفسك أو التحقق مرة أخرى من عمله. 

  • لديهم ثقة منخفضة في قدراتهم الخاصة ويؤجلون الطلب.

الأنظمة التكيفية

إن النظام التكيفي الذي يتعلم بمرور الوقت مع استمراره في جمع البيانات يخلق تحديات جديدة فيما يتعلق بالتحكم في التغيير للجهاز الطبي. يقترح TIR34971 أنه يجب على الشركات المصنعة اعتماد أساليب تدعم التحقق المستمر من هذه الخوارزميات التكيفية، مما قد يسمح لها بالعودة إلى النماذج السابقة التي تم التحقق من صحتها إذا كان الأداء خارج المقاييس المقبولة. 

تذكر، على الرغم من أن هذه الخصائص المتعلقة بالسلامة قد تكون فريدة بالنسبة للأجهزة التي تستخدم التعلم الآلي، فإن عملية إدارة المخاطر الموضحة في ISO 14971 لم تتغير. 

يتضمن TIR34971 أيضًا معلومات حول تطبيق ما تعلمته في تحليل المخاطر الخاص بك لتقييم المخاطر، وضوابط المخاطر، وتقييم المخاطر المتبقية، ومراجعة إدارة المخاطر، وأنشطة الإنتاج وما بعد الإنتاج. 

ما الذي تم تضمينه في ملحقات TIR34971؟

وكما هو الحال غالبًا، توفر الملاحق في TIR34971 توضيحًا للمفاهيم وأمثلة لما تمت مناقشته في الجزء الرئيسي من النص.

  • المرفق ألف هي مجرد نظرة عامة على عملية إدارة المخاطر طبقاً للمواصفة ISO 14971، والذي قد يبدو أساسيًا، ولكن من الرائع أن يكون مرجعًا لك أثناء العمل على التقرير الفني. 

  • الملحق ب يقدم أمثلة على المخاطر المتعلقة بالتعلم الآلي، بالإضافة إلى العلاقات بين تلك المخاطر وتسلسل الأحداث المتوقع والمواقف الخطرة والأضرار وتدابير التحكم في المخاطر.

  • الملحق ج يحدد بعض مؤهلات الموظفين التي قد تكون مطلوبة لتنفيذ عملية إدارة المخاطر بشكل مناسب باستخدام جهاز يحتوي على مكون تعلم الآلة.

وأخيرا، الملحق د يغطي الاعتبارات المتعلقة بالأنظمة المستقلة. يعد هذا عنصرًا مهمًا في إدارة المخاطر لديك لأن مستوى الاستقلالية في النظام يؤثر على مخاطر الجهاز. ستحتاج الأجهزة الطبية التي تتمتع بدرجة من الاستقلالية إلى تدابير محددة للتحكم في المخاطر لضمان سلامتها وفعاليتها.

موارد إضافية: اضغط هنا لتنزيل أداة تحليل الفجوة ISO 14971:2019 مجانًا لضمان الامتثال وتحسين عملية إدارة المخاطر لديك.

اختر حلاً لإدارة المخاطر مدعومًا بالذكاء الاصطناعي ومصممًا حصريًا للأجهزة الطبية

في Greenlight Guru، نعلم أن إدارة المخاطر هي أكثر من مجرد نشاط مربع اختيار آخر؛ إنه جزء لا يتجزأ من دورة حياة الجهاز الطبي بأكملها. 

ولهذا السبب قمنا ببناء أداة هي الأولى من نوعها لإدارة المخاطر، وهي مصممة خصيصًا لشركات MedTech. حلول المخاطر التي يقدمها Greenlight Guru يوفر طريقة أكثر ذكاءً لفرق MedTech لإدارة المخاطر المتعلقة بأجهزتهم (أجهزتهم) وأعمالهم. 

بالتوافق مع كل من ISO 14971:2019 والمتطلبات القائمة على المخاطر لـ ISO 13485:2016، يجمع حلنا الكامل بين الرؤى التي تم إنشاؤها بواسطة الذكاء الاصطناعي وسير عمل إدارة المخاطر البديهية والمصممة لهذا الغرض من أجل الامتثال المبسط وتقليل المخاطر طوال دورة حياة الجهاز بأكملها.

هل أنت مستعد لمعرفة كيف يمكن لحلول المخاطر أن تغير الطريقة التي يتعامل بها عملك مع إدارة المخاطر؟ ثم احصل على الخاص بك عرض تجريبي مجاني لـ Greenlight Guru اليوم. 

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة