ការបោះឆ្នោតចុងក្រោយរបស់សភាអ៊ឺរ៉ុបកាលពីម្សិលមិញលើច្បាប់ AI ដែលគ្រោងនឹងចូលជាធរមានក្នុងខែឧសភានេះ ប្រកាសអំពីច្បាប់ AI ដ៏ទូលំទូលាយបំផុតរបស់ពិភពលោក។ ដូច GDPR ដែរ វានឹងមានផលប៉ះពាល់ជាសកលលើសពីសហភាពអឺរ៉ុប។
ច្បាប់ AI ផ្តល់នូវក្របខ័ណ្ឌដ៏ទូលំទូលាយមួយសម្រាប់ធានាការអភិវឌ្ឍន៍ AI ដែលអាចទុកចិត្តបាន និងការប្រើប្រាស់ប្រកបដោយការទទួលខុសត្រូវនៃឧបករណ៍ AI ជាពិសេសតម្លាភាព ភាពលំអៀង ការរំលោភលើឯកជនភាព ហានិភ័យសុវត្ថិភាព និងសក្តានុពលសម្រាប់ការផ្សព្វផ្សាយព័ត៌មានមិនពិតផងដែរ។
ជាការត្រួតពិនិត្យរបស់មនុស្សក្នុងការអភិវឌ្ឍន៍បច្ចេកវិទ្យា AI ។
នៅក្នុងគោលការណ៍ណែនាំទាំងនោះ គោលការណ៍សីលធម៌មិនជាប់កាតព្វកិច្ចចំនួនប្រាំពីរសម្រាប់ AI ត្រូវបានប្រើ ដែលមានបំណងជួយធានាថា AI មានភាពជឿជាក់ និងមានសុជីវធម៌។ គោលការណ៍រួមមាន
- ភ្នាក់ងារមនុស្ស និងការត្រួតពិនិត្យ;
- ភាពរឹងមាំនៃបច្ចេកទេសនិងសុវត្ថិភាព;
- ឯកជនភាព និងការគ្រប់គ្រងទិន្នន័យ;
- តម្លាភាព;
- ភាពចម្រុះ ការមិនរើសអើង និងយុត្តិធម៌;
- សុខុមាលភាពសង្គម និងបរិស្ថាន និងការទទួលខុសត្រូវ។
ជាមួយនឹងវិធីសាស្រ្តផ្អែកលើហានិភ័យកម្រិតមួយ ប្រព័ន្ធ AI ដែលមានហានិភ័យខ្ពស់នៅក្នុងវិស័យដូចជាធនាគារ និងការថែទាំសុខភាពនឹងត្រូវប្រឈមមុខនឹងកាតព្វកិច្ចផ្លូវច្បាប់ដ៏តឹងរ៉ឹង និងការពិន័យដ៏ច្រើនសម្រាប់ការមិនគោរពតាម។ ច្បាប់នេះបានចាត់ថ្នាក់ AI ទៅជា 4 កម្រិតហានិភ័យ ចាប់ពីតិចតួចបំផុតរហូតដល់មិនអាចទទួលយកបាន។
ជាមួយនឹងកាតព្វកិច្ចកើនឡើង។
ច្បាប់ AI របស់សហភាពអឺរ៉ុបហាមឃាត់ការអភិវឌ្ឍន៍ ការដាក់ពង្រាយ និងការប្រើប្រាស់ប្រព័ន្ធ AI មួយចំនួន រួមទាំង៖
- ប្រព័ន្ធពិន្ទុសង្គម
- វិស្វកម្មសង្គម
- ការកំណត់អត្តសញ្ញាណជីវមាត្រពីចម្ងាយតាមពេលវេលាជាក់ស្តែងនៅកន្លែងសាធារណៈ
- ទម្រង់ដែលមានមូលដ្ឋានលើ AI និងការទស្សន៍ទាយអាកប្បកិរិយា
- ការកោស និងការបង្កើនរូបភាពផ្ទៃមុខ ដើម្បីពង្រីកមូលដ្ឋានទិន្នន័យ
- បច្ចេកទេសឧបាយកលផ្អែកលើ AI បំផ្លាញស្វ័យភាព និងជម្រើសដោយឥតគិតថ្លៃ
មិនមែនគ្រប់ប្រព័ន្ធ AI ទាំងអស់សុទ្ធតែបង្កហានិភ័យយ៉ាងសំខាន់នោះទេ ជាពិសេសប្រសិនបើពួកគេមិនមានឥទ្ធិពលលើការសម្រេចចិត្តជាសម្ភារៈ ឬប៉ះពាល់ដល់ផលប្រយោជន៍ផ្លូវច្បាប់ដែលត្រូវបានការពារយ៉ាងខ្លាំង។ ប្រព័ន្ធ AI ដែលមានផលប៉ះពាល់តិចតួចបំផុតលើការសម្រេចចិត្ត ឬហានិភ័យចំពោះផលប្រយោជន៍ផ្លូវច្បាប់ ដូចជាការអនុវត្តន៍ជាដើម។
កិច្ចការតូចចង្អៀត ឬបង្កើនសកម្មភាពរបស់មនុស្ស ត្រូវបានគេចាត់ទុកថាមានហានិភ័យទាប។ ឯកសារ និងការចុះឈ្មោះសម្រាប់ប្រព័ន្ធទាំងនេះត្រូវបានសង្កត់ធ្ងន់សម្រាប់តម្លាភាព។ ប្រព័ន្ធ AI ដែលមានហានិភ័យខ្ពស់មួយចំនួនរួមមានវិស័យជាច្រើន រួមទាំងធនាគារ និងការធានារ៉ាប់រង (ក៏ដូចជាផ្នែកវេជ្ជសាស្រ្ត
ឧបករណ៍ ធនធានមនុស្ស ការអប់រំ និងច្រើនទៀត)។
តម្រូវការចាំបាច់សម្រាប់ប្រព័ន្ធ AI ដែលមានហានិភ័យខ្ពស់ មានគោលបំណងធានានូវភាពគួរឱ្យទុកចិត្ត និងកាត់បន្ថយហានិភ័យ ដោយពិចារណាលើគោលបំណង និងបរិបទប្រើប្រាស់របស់វា។ វាមានសារៈសំខាន់សម្រាប់សេវាកម្មហិរញ្ញវត្ថុ និងក្រុមហ៊ុន fintech ជាពិសេសអ្នកដែលទាក់ទងជាមួយទិន្នន័យអតិថិជន ដើម្បីរក្សា
ខាងក្រោមក្នុងចិត្តអំពីតម្រូវការទាំងនេះសម្រាប់ប្រព័ន្ធ AI ដែលមានហានិភ័យខ្ពស់៖
- ការគ្រប់គ្រងហានិភ័យជាបន្តបន្ទាប់ និងដដែលៗសម្រាប់ AI ដែលមានហានិភ័យខ្ពស់ ដោយផ្តោតលើសុខភាព សុវត្ថិភាព និងសិទ្ធិ ទាមទារបច្ចុប្បន្នភាព ឯកសារ និងការចូលរួមពីភាគីពាក់ព័ន្ធ។
- អនុវត្តការវាយតម្លៃផលប៉ះពាល់សិទ្ធិជាមូលដ្ឋាន
- អភិបាលកិច្ចយ៉ាងម៉ត់ចត់ ដើម្បីជៀសវាងការរើសអើង និងធានាបាននូវការអនុលោមតាមច្បាប់ការពារទិន្នន័យ
- សំណុំទិន្នន័យបណ្តុះបណ្តាល និងការធ្វើតេស្តត្រូវតែតំណាង ភាពត្រឹមត្រូវ និងគ្មានការលំអៀង ដើម្បីការពារផលប៉ះពាល់អវិជ្ជមានលើសុខភាព សុវត្ថិភាព និងសិទ្ធិជាមូលដ្ឋាន
- ធានានូវការត្រួតពិនិត្យរបស់មនុស្ស និងតម្លាភាព
- ធានាការរកឃើញ និងការកែតម្រូវលំអៀង
- ឯកសារដែលអាចយល់បានសម្រាប់ការតាមដាន ការផ្ទៀងផ្ទាត់អនុលោមភាព ការត្រួតពិនិត្យប្រតិបត្តិការ និងការត្រួតពិនិត្យក្រោយទីផ្សារ រួមទាំងលក្ខណៈប្រព័ន្ធ ក្បួនដោះស្រាយ ដំណើរការទិន្នន័យ និងការគ្រប់គ្រងហានិភ័យនៅក្នុងឯកសារបច្ចេកទេសច្បាស់លាស់ បានធ្វើបច្ចុប្បន្នភាព បូក។
ការកត់ត្រាព្រឹត្តិការណ៍ដោយស្វ័យប្រវត្តិពេញមួយជីវិតរបស់ AI ។
- ប្រព័ន្ធ AI ដែលមានហានិភ័យខ្ពស់គួរតែដំណើរការជាប់លាប់ពេញមួយវដ្តជីវិតរបស់ពួកគេ និងបំពេញតាមកម្រិតសមស្របនៃភាពត្រឹមត្រូវ ភាពរឹងមាំ និងសុវត្ថិភាពតាមអ៊ីនធឺណិត។
អាជីវកម្មត្រូវតែផ្តល់អាទិភាពដល់ការអភិវឌ្ឍន៍ AI ដែលមានទំនួលខុសត្រូវ ដើម្បីអនុលោមតាមបទប្បញ្ញត្តិថ្មីៗ និងការពារការផាកពិន័យយ៉ាងធ្ងន់ធ្ងរចំពោះការមិនគោរពតាម។ នេះគឺជាជំហានមួយចំនួនដែលក្រុមហ៊ុនគួរតែចាប់ផ្តើមជាមួយ ដើម្បីធានាបាននូវការអនុលោមតាម៖
- បង្កើតអភិបាលកិច្ច AI ដើមដំបូង ធានាឱ្យមានការចូលរួម និងទិញចូលគ្នារវាងភាគីពាក់ព័ន្ធ
- អប់រំនិងបណ្តុះបណ្តាល ក្រុមរបស់អ្នកនៅក្នុងគោលការណ៍សីលធម៌នៃ AI ។ ការគ្រប់គ្រងហានិភ័យ AI នឹងតម្រូវឱ្យមានជំនាញថ្មី រាប់ចាប់ពីការវិភាគទិន្នន័យ រហូតដល់សុវត្ថិភាព/ឯកជនភាព ច្បាប់ និងច្រើនទៀត។
- ធ្វើសវនកម្ម AI របស់អង្គការ (និងមិនត្រឹមតែវិស្វកម្មប៉ុណ្ណោះទេ) ប៉ុន្តែផ្នែកច្បាប់ ធនធានមនុស្ស ជាដើម ដើម្បីទទួលបានរូបភាពពេញលេញនៃកន្លែងដែល AI ត្រូវបានប្រើនៅក្នុងអង្គការ
- ពិនិត្យមើលការអនុលោមភាពដែលកំពុងបន្ត
- ត្រូវប្រាកដថាអ្នកផ្តល់សេវា SaaS របស់អ្នកកំពុងប្រើប្រាស់ AI ប្រកបដោយការទទួលខុសត្រូវ
- ធានានូវតម្លាភាព ការយល់ដឹង និងការពន្យល់អំពីគំរូ ដែលត្រូវបានប្រើនៅក្នុងអាជីវកម្មរបស់អ្នក។
ខណៈពេលដែលជំហានដែលត្រូវការច្រើនក្នុងទិសដៅត្រឹមត្រូវ អារក្សស្ថិតនៅក្នុងព័ត៌មានលម្អិត ហើយច្បាប់ AI នឹងមានឥទ្ធិពលយ៉ាងខ្លាំងទៅលើអនាគតនៃអង្គការទាំងប្រពៃណី និង AI-centric ។ នៅពេលដែលយើងរុករកតាមរយៈយុគសម័យដែលឥទ្ធិពលរបស់ AI គឺកាន់តែខ្លាំងឡើង
យ៉ាងជ្រាលជ្រៅ ការអនុលោមតាមស្តង់ដារសីលធម៌ និងតម្រូវការបទប្បញ្ញត្តិ មិនមែនគ្រាន់តែជាបញ្ហានៃការអនុលោមតាមច្បាប់ប៉ុណ្ណោះទេ ប៉ុន្តែជាការចាំបាច់ជាយុទ្ធសាស្ត្រ។ ដោយផ្តោតលើ AI ដែលមានទំនួលខុសត្រូវ អាជីវកម្មមិនត្រឹមតែការពារខ្លួនពីការផាកពិន័យសំខាន់ៗប៉ុណ្ណោះទេ ប៉ុន្តែថែមទាំងកំណត់ទីតាំងរបស់ពួកគេផងដែរ។
ជាអង្គភាពដែលគួរឱ្យទុកចិត្ត និងគិតឆ្ពោះទៅមុខនៅក្នុងទិដ្ឋភាពឌីជីថលដែលកំពុងវិវត្តយ៉ាងឆាប់រហ័ស។ ដំណើរឆ្ពោះទៅរកការទទួលខុសត្រូវ AI គឺជាផ្លូវដ៏លំបាកមួយដែលមិនអាចខ្វះបាន ដែលសន្យាថានឹងកំណត់ឡើងវិញនូវអនាគតនៃបច្ចេកវិទ្យា អភិបាលកិច្ច និងសុខុមាលភាពសង្គម។
- SEO ដែលដំណើរការដោយមាតិកា និងការចែកចាយ PR ។ ទទួលបានការពង្រីកថ្ងៃនេះ។
- PlatoData.Network Vertical Generative Ai. ផ្តល់អំណាចដល់ខ្លួនអ្នក។ ចូលប្រើទីនេះ។
- PlatoAiStream Web3 Intelligence ។ ចំណេះដឹងត្រូវបានពង្រីក។ ចូលប្រើទីនេះ។
- ផ្លាតូអេសជី។ កាបូន CleanTech, ថាមពល, បរិស្ថាន, ពន្លឺព្រះអាទិត្យ ការគ្រប់គ្រងកាកសំណល់។ ចូលប្រើទីនេះ។
- ផ្លាតូសុខភាព។ ជីវបច្ចេកវិទ្យា និង ភាពវៃឆ្លាត សាកល្បងគ្លីនិក។ ចូលប្រើទីនេះ។
- ប្រភព: https://www.finextra.com/blogposting/25899/the-eu-ai-act—what-are-the-implications-for-banking-and-fintech?utm_medium=rssfinextra&utm_source=finextrablogs