និមិត្តសញ្ញា Zephyrnet

ជាមួយនឹង Run: ការទិញយក ai Nvidia មានគោលបំណងគ្រប់គ្រង AI K8s របស់អ្នក។

កាលបរិច្ឆេទ:

Nvidia កាលពីថ្ងៃពុធបានប្រកាសពីការទិញយកអ្នកផ្តល់សេវាវង់ភ្លេង Kubernetes ដែលផ្តោតសំខាន់លើ AI Run:ai ក្នុងកិច្ចខិតខំប្រឹងប្រែងដើម្បីជួយពង្រឹងប្រសិទ្ធភាពនៃចង្កោមកុំព្យូទ័រដែលបង្កើតឡើងនៅលើ GPU ។

ព័ត៌មានលម្អិតរបស់ កិច្ច​ព្រម​ព្រៀង មិនត្រូវបានបង្ហាញទេ ប៉ុន្តែ រាយការណ៍ កិច្ចព្រមព្រៀងនេះអាចមានតម្លៃប្រហែល ៧០០ លានដុល្លារ។ ការចាប់ផ្តើមអាជីវកម្មដែលមានមូលដ្ឋាននៅទីក្រុង Tel Aviv មាន ជាក់ស្តែង រៃអង្គាសប្រាក់បាន 118 លានដុល្លារនៅទូទាំង 2018 ជុំមូលនិធិចាប់តាំងពីវាត្រូវបានបង្កើតឡើងនៅក្នុង XNUMX ។

Run: វេទិការបស់ ai ផ្តល់នូវចំណុចប្រទាក់អ្នកប្រើកណ្តាល និងយន្តហោះបញ្ជាសម្រាប់ធ្វើការជាមួយភាពខុសគ្នានៃ Kubernetes ដ៏ពេញនិយមជាច្រើន។ នេះធ្វើឱ្យវាស្រដៀងនឹង OpenShift របស់ RedHat ឬ Rancher របស់ SUSE ហើយវាមានឧបករណ៍ដូចគ្នាជាច្រើនសម្រាប់គ្រប់គ្រងអ្វីៗដូចជា namespaces ទម្រង់អ្នកប្រើប្រាស់ និងការបែងចែកធនធាន។

ភាពខុសគ្នាសំខាន់គឺថា Run:ai's ត្រូវបានរចនាឡើងដើម្បីរួមបញ្ចូលជាមួយឧបករណ៍ AI និងក្របខ័ណ្ឌភាគីទីបី និងដោះស្រាយជាមួយបរិស្ថានធុងបង្កើនល្បឿន GPU ។ ផលប័ត្រផ្នែកទន់របស់វារួមមានធាតុដូចជា ការកំណត់ពេលបន្ទុកការងារ និងការបែងចែកឧបករណ៍បង្កើនល្បឿន ដែលក្រោយមកទៀតអនុញ្ញាតឱ្យបន្ទុកការងារជាច្រើនត្រូវបានរីករាលដាលនៅលើ GPU តែមួយ។

យោងតាម ​​Nvidia វេទិការបស់ Run:ai គាំទ្រវេទិកាគណនា DGX របស់ខ្លួនរួចហើយ រួមទាំងការកំណត់រចនាសម្ព័ន្ធ Superpod របស់វា ប្រព័ន្ធគ្រប់គ្រងចង្កោម Base Command បណ្ណាល័យកុងតឺន័រ NGC និងឈុតសហគ្រាស AI ។

ទាក់ទងនឹង AI Kubernetes អះអាងនូវអត្ថប្រយោជន៍មួយចំនួនលើការដាក់ពង្រាយលោហៈទទេ ដោយសារបរិស្ថានអាចត្រូវបានកំណត់រចនាសម្ព័ន្ធដើម្បីដោះស្រាយការធ្វើមាត្រដ្ឋានលើធនធានជាច្រើនដែលចែកចាយតាមភូមិសាស្រ្តដែលមានសក្តានុពល។

សម្រាប់ពេលនេះ អតិថិជន Run:ai មិនចាំបាច់ព្រួយបារម្ភអំពី Nvidia ដាក់ការផ្លាស់ប្តូរសំខាន់ៗលើវេទិកានោះទេ។ នៅក្នុង ចេញផ្សាយNvidia បាននិយាយថា ខ្លួននឹងបន្តផ្តល់ជូននូវផលិតផលរបស់ Run:ai ក្រោមគំរូអាជីវកម្មដូចគ្នា សម្រាប់អនាគតភ្លាមៗ ទោះជាវាមានន័យយ៉ាងណា។

ទន្ទឹមនឹងនេះ អ្នកដែលបានជាវ DGX Cloud របស់ Nvidia នឹងទទួលបានសិទ្ធិចូលប្រើមុខងារ Run:ai ដែលកំណត់សម្រាប់បន្ទុកការងារ AI របស់ពួកគេ រួមទាំងការដាក់ពង្រាយគំរូភាសាធំ (LLM) ផងដែរ។

ការ​ប្រកាស​នេះ​កើត​ឡើង​តែ​ជាង​មួយ​ខែ​បន្ទាប់​ពី GPU យក្ស បានបង្ហាញ វេទិកាកុងតឺន័រថ្មីសម្រាប់បង្កើតគំរូ AI ដែលហៅថា Nvidia Inference Microservices (NIM) ។

NIMS គឺជារូបភាពកុងតឺន័រដែលបានកំណត់ជាមុន និងធ្វើឱ្យប្រសើរបំផុតដែលមានគំរូ មិនថាវាជាប្រភពបើកចំហ ឬកំណែកម្មសិទ្ធិទេ ជាមួយនឹងភាពអាស្រ័យទាំងអស់ដែលចាំបាច់ដើម្បីឱ្យវាដំណើរការ។

ដូចកុងតឺន័រភាគច្រើន NIM អាចត្រូវបានដាក់ឱ្យប្រើនៅទូទាំងពេលដំណើរការជាច្រើន រួមទាំងថ្នាំង Kubernetes ដែលបង្កើនល្បឿន CUDA ផងដែរ។

គំនិតនៅពីក្រោយការបង្វែរ LLMs និងម៉ូដែល AI ផ្សេងទៀតទៅជាសេវាកម្មខ្នាតតូចគឺថាពួកគេអាចភ្ជាប់បណ្តាញជាមួយគ្នា និងប្រើដើម្បីបង្កើតគំរូ AI ដ៏ស្មុគស្មាញ និងសម្បូរបែបជាងអ្វីដែលអាចធ្វើទៅបានដោយមិនចាំបាច់បណ្តុះបណ្តាលគំរូផ្ទាល់ខ្លួន ឬយ៉ាងហោចណាស់នោះជារបៀបដែល Nvidia ស្រមៃមើលមនុស្សដែលកំពុងប្រើប្រាស់។ ពួកគេ។

ជាមួយនឹងការទិញយក Run:ai ឥឡូវនេះ Nvidia មានស្រទាប់ Kubernetes orchestration សម្រាប់គ្រប់គ្រងការដាក់ពង្រាយ NIM ទាំងនេះនៅទូទាំងហេដ្ឋារចនាសម្ព័ន្ធ GPU របស់វា។ ®

spot_img

បញ្ញាចុងក្រោយ

spot_img