និមិត្តសញ្ញា Zephyrnet

GPT-4 អាចទាញយកភាពងាយរងគ្រោះពិតប្រាកដដោយការអានការណែនាំ

កាលបរិច្ឆេទ:

អ្នកសិក្សាបានអះអាងថា ភ្នាក់ងារ AI ដែលរួមបញ្ចូលគ្នានូវគំរូភាសាធំៗជាមួយនឹងកម្មវិធីស្វ័យប្រវត្តិកម្ម អាចទាញយកប្រយោជន៍ដោយជោគជ័យនូវភាពងាយរងគ្រោះផ្នែកសុវត្ថិភាពពិភពលោកដោយការអានការណែនាំអំពីសុវត្ថិភាព។

នៅក្នុងការចេញផ្សាយថ្មី។ ក្រដាសអ្នកវិទ្យាសាស្ត្រកុំព្យូទ័រនៃសាកលវិទ្យាល័យ Illinois Urbana-Champaign (UIUC) ចំនួនបួននាក់ - Richard Fang, Rohan Bindu, Akul Gupta និង Daniel Kang - រាយការណ៍ថាគំរូភាសាធំ GPT-4 (LLM) របស់ OpenAI អាចទាញយកភាពងាយរងគ្រោះដោយស្វ័យភាពនៅក្នុងប្រព័ន្ធពិភពពិត ប្រសិនបើផ្តល់ឱ្យ ការណែនាំអំពី CVE ដែលពិពណ៌នាអំពីកំហុស។

អ្នកនិពន្ធដែលមានមូលដ្ឋាននៅសហរដ្ឋអាមេរិកពន្យល់នៅក្នុងក្រដាសរបស់ពួកគេថា "ដើម្បីបង្ហាញវា យើងបានប្រមូលសំណុំទិន្នន័យនៃភាពងាយរងគ្រោះចំនួន 15 ក្នុងមួយថ្ងៃ ដែលរួមបញ្ចូលការចាត់ថ្នាក់ថាជាកម្រិតធ្ងន់ធ្ងរនៅក្នុងការពិពណ៌នា CVE" ។

"នៅពេលដែលបានផ្តល់ការពិពណ៌នា CVE GPT-4 មានសមត្ថភាពទាញយក 87 ភាគរយនៃភាពងាយរងគ្រោះទាំងនេះបើប្រៀបធៀបទៅនឹង 0 ភាគរយសម្រាប់គ្រប់ម៉ូដែលផ្សេងទៀតដែលយើងសាកល្បង (GPT-3.5, open-source LLMs) និង open-source vulnerability scanners (ZAP និង Metasploit) ”

ប្រសិនបើអ្នកបន្ថែមលើអ្វីដែលគំរូនាពេលអនាគតអាចធ្វើបាន វាហាក់ដូចជាពួកវានឹងមានសមត្ថភាពច្រើនជាងអ្វីដែល script kiddies អាចចូលប្រើបាននៅថ្ងៃនេះ។

ពាក្យ "ភាពងាយរងគ្រោះមួយថ្ងៃ" សំដៅទៅលើភាពងាយរងគ្រោះដែលត្រូវបានបង្ហាញ ប៉ុន្តែមិនត្រូវបានជួសជុល។ ហើយដោយការពិពណ៌នាអំពី CVE ក្រុមមានន័យថាការប្រឹក្សាដែលមានស្លាក CVE ដែលចែករំលែកដោយ NIST – ឧ. មួយ​នេះ សម្រាប់ CVE-2024-28859 ។

ម៉ូដែលដែលមិនជោគជ័យត្រូវបានសាកល្បង - GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B), LLaMA-2 Chat (13B), LLaMA-2 Chat (7B), Mixtral-8x7B Instruct, Mistral (7B) Instruct v0.2, Nous Hermes-2 Yi 34B, និង OpenChat 3.5 – មិនរួមបញ្ចូលគូប្រជែងពាណិជ្ជកម្មឈានមុខពីរនៃ GPT-4, Anthropic's Claude 3 និង Google's Gemini 1.5 Pro ទេ។ UIUC boffins មិនអាចចូលប្រើម៉ូដែលទាំងនោះបានទេ ទោះបីជាពួកគេសង្ឃឹមថានឹងសាកល្បងពួកវានៅចំណុចខ្លះក៏ដោយ។

ការងាររបស់អ្នកស្រាវជ្រាវត្រូវបានបង្កើតឡើង ការរកឃើញមុន។ LLMs អាចត្រូវបានប្រើដើម្បីធ្វើស្វ័យប្រវត្តិកម្មការវាយប្រហារនៅលើគេហទំព័រនៅក្នុងបរិយាកាស sandbox ។

លោក Daniel Kang ជំនួយការសាស្រ្តាចារ្យនៅ UIUC បាននិយាយនៅក្នុងអ៊ីមែលទៅកាន់ GPT-4 ចុះឈ្មោះ"ពិតជាអាចអនុវត្តដោយស្វ័យភាពនូវជំហានដើម្បីអនុវត្តការកេងប្រវ័ញ្ចមួយចំនួនដែលម៉ាស៊ីនស្កេនភាពងាយរងគ្រោះប្រភពបើកចំហមិនអាចរកឃើញ (នៅពេលសរសេរ)។"

Kang បាននិយាយថាគាត់រំពឹងថាភ្នាក់ងារ LLM ដែលបង្កើតឡើងដោយ (ក្នុងឧទាហរណ៍នេះ) ភ្ជាប់គំរូ chatbot ទៅ សកម្មភាពឡើងវិញ ក្របខ័ណ្ឌស្វ័យប្រវត្តិកម្មដែលបានអនុវត្តនៅក្នុង LangChain នឹងធ្វើឱ្យការកេងប្រវ័ញ្ចកាន់តែងាយស្រួលសម្រាប់មនុស្សគ្រប់គ្នា។ ភ្នាក់ងារទាំងនេះអាច, យើងត្រូវបានគេប្រាប់, ធ្វើតាមតំណនៅក្នុងការពិពណ៌នា CVE សម្រាប់ព័ត៌មានបន្ថែម។

គាត់បាននិយាយថា "ផងដែរប្រសិនបើអ្នកបន្ថែមលើអ្វីដែល GPT-5 និងម៉ូដែលនាពេលអនាគតអាចធ្វើបាន វាហាក់ដូចជាថាពួកគេនឹងមានសមត្ថភាពច្រើនជាងអ្វីដែលក្មេងស្គ្រីបអាចចូលប្រើបាននៅថ្ងៃនេះ" ។

ការបដិសេធភ្នាក់ងារ LLM (GPT-4) ចំពោះការពិពណ៌នា CVE ដែលពាក់ព័ន្ធបានកាត់បន្ថយអត្រាជោគជ័យរបស់វាពី 87 ភាគរយមកត្រឹមតែ XNUMX ភាគរយប៉ុណ្ណោះ។ ទោះយ៉ាងណាក៏ដោយ លោក Kang បាននិយាយថា លោកមិនជឿថា ការកំណត់លទ្ធភាពទទួលបានព័ត៌មានសន្តិសុខជាសាធារណៈ គឺជាវិធីដែលអាចសម្រេចបានដើម្បីការពារប្រឆាំងនឹងភ្នាក់ងារ LLM នោះទេ។

លោក​បាន​ពន្យល់​ថា​៖ «​ខ្ញុំ​ផ្ទាល់​មិន​គិត​ថា​សន្តិសុខ​តាម​រយៈ​ភាព​មិន​ច្បាស់​លាស់​អាច​ស្ថិតស្ថេរ​បាន​នោះ​ទេ ដែល​ហាក់​ដូចជា​ប្រាជ្ញា​ទូទៅ​ក្នុង​ចំណោម​អ្នក​ស្រាវជ្រាវ​សន្តិសុខ»។ "ខ្ញុំសង្ឃឹមថាការងាររបស់ខ្ញុំ និងការងារផ្សេងទៀតនឹងលើកទឹកចិត្តដល់វិធានការសុវត្ថិភាពសកម្ម ដូចជាការធ្វើបច្ចុប្បន្នភាពកញ្ចប់ជាប្រចាំ នៅពេលដែលបំណះសុវត្ថិភាពចេញមក។"

ភ្នាក់ងារ LLM បានបរាជ័យក្នុងការទាញយកគំរូពីរក្នុងចំណោម 15 គំរូ: Iris XSS (CVE-2024-25640) និង Hertzbeat RCE (CVE-2023-51653) ។ យោងតាមឯកសារនេះ អតីតបានបង្ហាញពីបញ្ហា ដោយសារតែកម្មវិធីបណ្តាញ Iris មានចំណុចប្រទាក់ដែលពិបាកខ្លាំងសម្រាប់ភ្នាក់ងារក្នុងការរុករក។ ហើយក្រោយមកទៀតមានការពិពណ៌នាលម្អិតជាភាសាចិន ដែលសន្មតថាច្រឡំភ្នាក់ងារ LLM ដែលកំពុងប្រតិបត្តិការក្រោមប្រអប់បញ្ចូលជាភាសាអង់គ្លេស។

ភាពងាយរងគ្រោះចំនួន 4 ដែលត្រូវបានសាកល្បងបានកើតឡើងបន្ទាប់ពីការកាត់ផ្តាច់ការបណ្តុះបណ្តាលរបស់ GPT-82 ដែលមានន័យថាគំរូមិនបានសិក្សាទិន្នន័យណាមួយអំពីពួកគេអំឡុងពេលហ្វឹកហាត់។ អត្រាជោគជ័យរបស់វាសម្រាប់ CVEs ទាំងនេះគឺទាបជាងបន្តិចនៅ 9 ភាគរយ ឬ 11 ក្នុងចំណោម XNUMX ។

ចំពោះលក្ខណៈនៃកំហុស ពួកវាទាំងអស់ត្រូវបានរាយបញ្ជីនៅក្នុងក្រដាសខាងលើ ហើយយើងត្រូវបានគេប្រាប់ថា៖ “ភាពងាយរងគ្រោះរបស់យើងលាតសន្ធឹងលើភាពងាយរងគ្រោះនៃគេហទំព័រ ភាពងាយរងគ្រោះនៃកុងតឺន័រ និងកញ្ចប់ Python ដែលងាយរងគ្រោះ។ ជាងពាក់កណ្តាលត្រូវបានចាត់ថ្នាក់ជា 'កម្រិតខ្ពស់' ឬ 'ធ្ងន់ធ្ងរ' ដោយការពិពណ៌នា CVE ។

Kang និងសហការីរបស់គាត់បានគណនាថ្លៃដើមដើម្បីធ្វើការវាយប្រហារភ្នាក់ងារ LLM ដ៏ជោគជ័យ ហើយទទួលបានតួលេខ 8.80 ដុល្លារក្នុងមួយកេងប្រវ័ញ្ច ដែលពួកគេនិយាយថាប្រហែល 2.8x តិចជាងតម្លៃជួលអ្នកសាកល្បងការជ្រៀតចូលរបស់មនុស្សរយៈពេល 30 នាទី។

យោងតាមលោក Kang លេខកូដភ្នាក់ងារមានត្រឹមតែ 91 បន្ទាត់នៃកូដ និង 1,056 សញ្ញាសម្ងាត់សម្រាប់ប្រអប់បញ្ចូល។ អ្នកស្រាវជ្រាវត្រូវបានស្នើដោយ OpenAI ដែលជាអ្នកបង្កើត GPT-4 មិនឱ្យបញ្ចេញការជម្រុញរបស់ពួកគេជាសាធារណៈ ទោះបីជាពួកគេនិយាយថាពួកគេនឹងផ្តល់ឱ្យពួកគេតាមការស្នើសុំក៏ដោយ។

OpenAI មិនបានឆ្លើយតបភ្លាមៗចំពោះសំណើសុំការអត្ថាធិប្បាយទេ។ ®

spot_img

បញ្ញាចុងក្រោយ

spot_img