អ្នកសិក្សាបានអះអាងថា ភ្នាក់ងារ AI ដែលរួមបញ្ចូលគ្នានូវគំរូភាសាធំៗជាមួយនឹងកម្មវិធីស្វ័យប្រវត្តិកម្ម អាចទាញយកប្រយោជន៍ដោយជោគជ័យនូវភាពងាយរងគ្រោះផ្នែកសុវត្ថិភាពពិភពលោកដោយការអានការណែនាំអំពីសុវត្ថិភាព។
នៅក្នុងការចេញផ្សាយថ្មី។ ក្រដាសអ្នកវិទ្យាសាស្ត្រកុំព្យូទ័រនៃសាកលវិទ្យាល័យ Illinois Urbana-Champaign (UIUC) ចំនួនបួននាក់ - Richard Fang, Rohan Bindu, Akul Gupta និង Daniel Kang - រាយការណ៍ថាគំរូភាសាធំ GPT-4 (LLM) របស់ OpenAI អាចទាញយកភាពងាយរងគ្រោះដោយស្វ័យភាពនៅក្នុងប្រព័ន្ធពិភពពិត ប្រសិនបើផ្តល់ឱ្យ ការណែនាំអំពី CVE ដែលពិពណ៌នាអំពីកំហុស។
អ្នកនិពន្ធដែលមានមូលដ្ឋាននៅសហរដ្ឋអាមេរិកពន្យល់នៅក្នុងក្រដាសរបស់ពួកគេថា "ដើម្បីបង្ហាញវា យើងបានប្រមូលសំណុំទិន្នន័យនៃភាពងាយរងគ្រោះចំនួន 15 ក្នុងមួយថ្ងៃ ដែលរួមបញ្ចូលការចាត់ថ្នាក់ថាជាកម្រិតធ្ងន់ធ្ងរនៅក្នុងការពិពណ៌នា CVE" ។
"នៅពេលដែលបានផ្តល់ការពិពណ៌នា CVE GPT-4 មានសមត្ថភាពទាញយក 87 ភាគរយនៃភាពងាយរងគ្រោះទាំងនេះបើប្រៀបធៀបទៅនឹង 0 ភាគរយសម្រាប់គ្រប់ម៉ូដែលផ្សេងទៀតដែលយើងសាកល្បង (GPT-3.5, open-source LLMs) និង open-source vulnerability scanners (ZAP និង Metasploit) ”
ប្រសិនបើអ្នកបន្ថែមលើអ្វីដែលគំរូនាពេលអនាគតអាចធ្វើបាន វាហាក់ដូចជាពួកវានឹងមានសមត្ថភាពច្រើនជាងអ្វីដែល script kiddies អាចចូលប្រើបាននៅថ្ងៃនេះ។
ពាក្យ "ភាពងាយរងគ្រោះមួយថ្ងៃ" សំដៅទៅលើភាពងាយរងគ្រោះដែលត្រូវបានបង្ហាញ ប៉ុន្តែមិនត្រូវបានជួសជុល។ ហើយដោយការពិពណ៌នាអំពី CVE ក្រុមមានន័យថាការប្រឹក្សាដែលមានស្លាក CVE ដែលចែករំលែកដោយ NIST – ឧ. មួយនេះ សម្រាប់ CVE-2024-28859 ។
ម៉ូដែលដែលមិនជោគជ័យត្រូវបានសាកល្បង - GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B), LLaMA-2 Chat (13B), LLaMA-2 Chat (7B), Mixtral-8x7B Instruct, Mistral (7B) Instruct v0.2, Nous Hermes-2 Yi 34B, និង OpenChat 3.5 – មិនរួមបញ្ចូលគូប្រជែងពាណិជ្ជកម្មឈានមុខពីរនៃ GPT-4, Anthropic's Claude 3 និង Google's Gemini 1.5 Pro ទេ។ UIUC boffins មិនអាចចូលប្រើម៉ូដែលទាំងនោះបានទេ ទោះបីជាពួកគេសង្ឃឹមថានឹងសាកល្បងពួកវានៅចំណុចខ្លះក៏ដោយ។
ការងាររបស់អ្នកស្រាវជ្រាវត្រូវបានបង្កើតឡើង ការរកឃើញមុន។ LLMs អាចត្រូវបានប្រើដើម្បីធ្វើស្វ័យប្រវត្តិកម្មការវាយប្រហារនៅលើគេហទំព័រនៅក្នុងបរិយាកាស sandbox ។
លោក Daniel Kang ជំនួយការសាស្រ្តាចារ្យនៅ UIUC បាននិយាយនៅក្នុងអ៊ីមែលទៅកាន់ GPT-4 ចុះឈ្មោះ"ពិតជាអាចអនុវត្តដោយស្វ័យភាពនូវជំហានដើម្បីអនុវត្តការកេងប្រវ័ញ្ចមួយចំនួនដែលម៉ាស៊ីនស្កេនភាពងាយរងគ្រោះប្រភពបើកចំហមិនអាចរកឃើញ (នៅពេលសរសេរ)។"
Kang បាននិយាយថាគាត់រំពឹងថាភ្នាក់ងារ LLM ដែលបង្កើតឡើងដោយ (ក្នុងឧទាហរណ៍នេះ) ភ្ជាប់គំរូ chatbot ទៅ សកម្មភាពឡើងវិញ ក្របខ័ណ្ឌស្វ័យប្រវត្តិកម្មដែលបានអនុវត្តនៅក្នុង LangChain នឹងធ្វើឱ្យការកេងប្រវ័ញ្ចកាន់តែងាយស្រួលសម្រាប់មនុស្សគ្រប់គ្នា។ ភ្នាក់ងារទាំងនេះអាច, យើងត្រូវបានគេប្រាប់, ធ្វើតាមតំណនៅក្នុងការពិពណ៌នា CVE សម្រាប់ព័ត៌មានបន្ថែម។
គាត់បាននិយាយថា "ផងដែរប្រសិនបើអ្នកបន្ថែមលើអ្វីដែល GPT-5 និងម៉ូដែលនាពេលអនាគតអាចធ្វើបាន វាហាក់ដូចជាថាពួកគេនឹងមានសមត្ថភាពច្រើនជាងអ្វីដែលក្មេងស្គ្រីបអាចចូលប្រើបាននៅថ្ងៃនេះ" ។
ការបដិសេធភ្នាក់ងារ LLM (GPT-4) ចំពោះការពិពណ៌នា CVE ដែលពាក់ព័ន្ធបានកាត់បន្ថយអត្រាជោគជ័យរបស់វាពី 87 ភាគរយមកត្រឹមតែ XNUMX ភាគរយប៉ុណ្ណោះ។ ទោះយ៉ាងណាក៏ដោយ លោក Kang បាននិយាយថា លោកមិនជឿថា ការកំណត់លទ្ធភាពទទួលបានព័ត៌មានសន្តិសុខជាសាធារណៈ គឺជាវិធីដែលអាចសម្រេចបានដើម្បីការពារប្រឆាំងនឹងភ្នាក់ងារ LLM នោះទេ។
លោកបានពន្យល់ថា៖ «ខ្ញុំផ្ទាល់មិនគិតថាសន្តិសុខតាមរយៈភាពមិនច្បាស់លាស់អាចស្ថិតស្ថេរបាននោះទេ ដែលហាក់ដូចជាប្រាជ្ញាទូទៅក្នុងចំណោមអ្នកស្រាវជ្រាវសន្តិសុខ»។ "ខ្ញុំសង្ឃឹមថាការងាររបស់ខ្ញុំ និងការងារផ្សេងទៀតនឹងលើកទឹកចិត្តដល់វិធានការសុវត្ថិភាពសកម្ម ដូចជាការធ្វើបច្ចុប្បន្នភាពកញ្ចប់ជាប្រចាំ នៅពេលដែលបំណះសុវត្ថិភាពចេញមក។"
ភ្នាក់ងារ LLM បានបរាជ័យក្នុងការទាញយកគំរូពីរក្នុងចំណោម 15 គំរូ: Iris XSS (CVE-2024-25640) និង Hertzbeat RCE (CVE-2023-51653) ។ យោងតាមឯកសារនេះ អតីតបានបង្ហាញពីបញ្ហា ដោយសារតែកម្មវិធីបណ្តាញ Iris មានចំណុចប្រទាក់ដែលពិបាកខ្លាំងសម្រាប់ភ្នាក់ងារក្នុងការរុករក។ ហើយក្រោយមកទៀតមានការពិពណ៌នាលម្អិតជាភាសាចិន ដែលសន្មតថាច្រឡំភ្នាក់ងារ LLM ដែលកំពុងប្រតិបត្តិការក្រោមប្រអប់បញ្ចូលជាភាសាអង់គ្លេស។
ភាពងាយរងគ្រោះចំនួន 4 ដែលត្រូវបានសាកល្បងបានកើតឡើងបន្ទាប់ពីការកាត់ផ្តាច់ការបណ្តុះបណ្តាលរបស់ GPT-82 ដែលមានន័យថាគំរូមិនបានសិក្សាទិន្នន័យណាមួយអំពីពួកគេអំឡុងពេលហ្វឹកហាត់។ អត្រាជោគជ័យរបស់វាសម្រាប់ CVEs ទាំងនេះគឺទាបជាងបន្តិចនៅ 9 ភាគរយ ឬ 11 ក្នុងចំណោម XNUMX ។
ចំពោះលក្ខណៈនៃកំហុស ពួកវាទាំងអស់ត្រូវបានរាយបញ្ជីនៅក្នុងក្រដាសខាងលើ ហើយយើងត្រូវបានគេប្រាប់ថា៖ “ភាពងាយរងគ្រោះរបស់យើងលាតសន្ធឹងលើភាពងាយរងគ្រោះនៃគេហទំព័រ ភាពងាយរងគ្រោះនៃកុងតឺន័រ និងកញ្ចប់ Python ដែលងាយរងគ្រោះ។ ជាងពាក់កណ្តាលត្រូវបានចាត់ថ្នាក់ជា 'កម្រិតខ្ពស់' ឬ 'ធ្ងន់ធ្ងរ' ដោយការពិពណ៌នា CVE ។
Kang និងសហការីរបស់គាត់បានគណនាថ្លៃដើមដើម្បីធ្វើការវាយប្រហារភ្នាក់ងារ LLM ដ៏ជោគជ័យ ហើយទទួលបានតួលេខ 8.80 ដុល្លារក្នុងមួយកេងប្រវ័ញ្ច ដែលពួកគេនិយាយថាប្រហែល 2.8x តិចជាងតម្លៃជួលអ្នកសាកល្បងការជ្រៀតចូលរបស់មនុស្សរយៈពេល 30 នាទី។
យោងតាមលោក Kang លេខកូដភ្នាក់ងារមានត្រឹមតែ 91 បន្ទាត់នៃកូដ និង 1,056 សញ្ញាសម្ងាត់សម្រាប់ប្រអប់បញ្ចូល។ អ្នកស្រាវជ្រាវត្រូវបានស្នើដោយ OpenAI ដែលជាអ្នកបង្កើត GPT-4 មិនឱ្យបញ្ចេញការជម្រុញរបស់ពួកគេជាសាធារណៈ ទោះបីជាពួកគេនិយាយថាពួកគេនឹងផ្តល់ឱ្យពួកគេតាមការស្នើសុំក៏ដោយ។
OpenAI មិនបានឆ្លើយតបភ្លាមៗចំពោះសំណើសុំការអត្ថាធិប្បាយទេ។ ®
- SEO ដែលដំណើរការដោយមាតិកា និងការចែកចាយ PR ។ ទទួលបានការពង្រីកថ្ងៃនេះ។
- PlatoData.Network Vertical Generative Ai. ផ្តល់អំណាចដល់ខ្លួនអ្នក។ ចូលប្រើទីនេះ។
- PlatoAiStream Web3 Intelligence ។ ចំណេះដឹងត្រូវបានពង្រីក។ ចូលប្រើទីនេះ។
- ផ្លាតូអេសជី។ កាបូន CleanTech, ថាមពល, បរិស្ថាន, ពន្លឺព្រះអាទិត្យ ការគ្រប់គ្រងកាកសំណល់។ ចូលប្រើទីនេះ។
- ផ្លាតូសុខភាព។ ជីវបច្ចេកវិទ្យា និង ភាពវៃឆ្លាត សាកល្បងគ្លីនិក។ ចូលប្រើទីនេះ។
- ប្រភព: https://go.theregister.com/feed/www.theregister.com/2024/04/17/gpt4_can_exploit_real_vulnerabilities/