شعار زيفيرنت

نشر الإجابة على أسئلة الخدمة الذاتية باستخدام حل QnABot on AWS المدعوم من Amazon Lex مع Amazon Kendra ونماذج اللغات الكبيرة | خدمات ويب أمازون

التاريخ:

أمازون ليكسأطلقت حملة QnABot على AWS الحل هو chatbot مفتوح المصدر ومتعدد القنوات ومتعدد اللغات. يسمح لك QnABot بنشر الذكاء الاصطناعي للمحادثة ذات الخدمة الذاتية بسرعة في مركز الاتصال الخاص بك، ومواقع الويب، وقنوات التواصل الاجتماعي، مما يقلل التكاليف، ويختصر أوقات الانتظار، ويحسن تجربة العملاء ومعنويات العلامة التجارية. يرغب العملاء الآن في تطبيق قوة نماذج اللغات الكبيرة (LLMs) لتحسين تجربة العملاء بشكل أكبر من خلال قدرات الذكاء الاصطناعي التوليدية. يتضمن ذلك إنشاء إجابات دقيقة تلقائيًا من مستندات الشركة وقواعد المعرفة الحالية، وجعل روبوتات الدردشة ذاتية الخدمة أكثر تحادثًا.

يمكن الآن لأحدث إصدارات QnABot، v5.4.0+، استخدام LLM لإزالة الغموض عن أسئلة العملاء من خلال أخذ سياق المحادثة في الاعتبار، وإنشاء إجابات ديناميكيًا من الأسئلة الشائعة ذات الصلة أو أمازون كندرا نتائج البحث وتوثيق الممرات. كما أنه يوفر الإسناد والشفافية من خلال عرض روابط للوثائق المرجعية ومقاطع السياق التي استخدمتها LLM لبناء الإجابات.

عند نشر QnABot، يمكنك اختيار النشر التلقائي لنموذج LLM متطور مفتوح المصدر (Falcon-40B-instruct) على الأمازون SageMaker نقطة النهاية. يتطور مشهد LLM باستمرار - يتم إصدار نماذج جديدة بشكل متكرر ويرغب عملاؤنا في تجربة نماذج وموفرين مختلفين لمعرفة ما هو الأفضل لحالات الاستخدام الخاصة بهم. ولهذا السبب يتكامل QnABot أيضًا مع أي ماجستير إدارة أعمال آخر باستخدام AWS لامدا الوظيفة التي تقدمها. لمساعدتك على البدء، قمنا أيضًا بإصدار مجموعة من نماذج وظائف Lambda القابلة للنشر بنقرة واحدة (الإضافات) لدمج QnABot مع اختيارك لمقدمي خدمات LLM الرائدين، بما في ذلك مقدمي خدماتنا أمازون بيدروك الخدمة وواجهات برمجة التطبيقات من موفري الطرف الثالث، Anthropic وAI21.

في هذا المنشور، نقدم ميزات الذكاء الاصطناعي التوليدي الجديدة لـ QnABot ونستعرض برنامجًا تعليميًا لإنشاء QnABot ونشره وتخصيصه لاستخدام هذه الميزات. نناقش أيضًا بعض حالات الاستخدام ذات الصلة.

ميزات الذكاء الاصطناعي التوليدية الجديدة

باستخدام LLM، يتمتع QnABot الآن بميزتين مهمتين جديدتين، سنناقشهما في هذا القسم.

قم بإنشاء إجابات للأسئلة من نتائج بحث Amazon Kendra أو المقاطع النصية

يمكن لـ QnABot الآن إنشاء إجابات موجزة للأسئلة من مقتطفات المستندات المقدمة من خلال بحث Amazon Kendra، أو المقاطع النصية التي تم إنشاؤها أو استيرادها مباشرة. وهذا يوفر المزايا التالية:

  • تم تقليل عدد الأسئلة الشائعة التي تحتاج إلى صيانتها واستيرادها إلى QnABot، لأنه يمكنك الآن تجميع إجابات موجزة بسرعة من مستنداتك الحالية.
  • يمكن تعديل الإجابات التي تم إنشاؤها لإنشاء أفضل تجربة للقناة المقصودة. على سبيل المثال، يمكنك تعيين الإجابات لتكون قصيرة وموجزة ومناسبة لروبوتات مركز اتصال القناة الصوتية، ومن المحتمل أن توفر روبوتات موقع الويب أو الروبوتات النصية معلومات أكثر تفصيلاً.
  • تتوافق الإجابات التي تم إنشاؤها تمامًا مع دعم QnABot متعدد اللغات، حيث يمكن للمستخدمين التفاعل باللغات التي يختارونها وتلقي الإجابات التي تم إنشاؤها بنفس اللغة.
  • يمكن أن تتضمن الإجابات التي تم إنشاؤها روابط إلى المستندات المرجعية ومقاطع السياق المستخدمة، لتوفير الإسناد والشفافية حول كيفية إنشاء LLM للإجابات.

على سبيل المثال، عندما يُسأل "ما هو Amazon Lex؟"، يستطيع QnABot استرداد المقاطع ذات الصلة من فهرس Amazon Kendra (الذي يحتوي على وثائق AWS). ثم يطلب QnABot (يطالب) LLM بالإجابة على السؤال بناءً على سياق المقاطع (والتي يمكن أيضًا عرضها اختياريًا في عميل الويب). تظهر لقطة الشاشة التالية مثالا.

قم بإزالة الغموض عن أسئلة المتابعة التي تعتمد على سياق المحادثة السابقة

يعد فهم اتجاه وسياق المحادثة دائمة التطور أمرًا أساسيًا لبناء واجهات محادثة طبيعية تشبه الإنسان. غالبًا ما تتطلب استعلامات المستخدم روبوتًا لتفسير الطلبات بناءً على ذاكرة المحادثة وسياقها. الآن سيطلب QnABot من LLM إنشاء سؤال واضح بناءً على سجل المحادثة. يمكن بعد ذلك استخدام هذا كاستعلام بحث لاسترداد الأسئلة الشائعة أو المقاطع أو نتائج Amazon Kendra للإجابة على سؤال المستخدم. فيما يلي مثال لسجل الدردشة:

Human: What is Amazon Lex?
AI: "Amazon Lex is an AWS service for building conversational interfaces for applications using voice and text..."
Human: Can it integrate with my CRM?

يستخدم QnABot برنامج LLM لإعادة كتابة سؤال المتابعة لجعل "ذلك" لا لبس فيه، على سبيل المثال، "هل يمكن لـ Amazon Lex التكامل مع نظام إدارة علاقات العملاء (CRM) الخاص بي؟" يتيح ذلك للمستخدمين التفاعل كما لو كانوا في محادثة بشرية، ويقوم QnABot بإنشاء استعلامات بحث واضحة للعثور على الأسئلة الشائعة ذات الصلة أو فقرات المستندات التي تحتوي على المعلومات اللازمة للإجابة على سؤال المستخدم.

تجعل هذه الميزات الجديدة QnABot أكثر قدرة على المحادثة وتوفر القدرة على إنشاء استجابات ديناميكيًا بناءً على قاعدة المعرفة. ولا تزال هذه ميزة تجريبية ذات إمكانات هائلة. نحن نشجع المستخدمين بشدة على التجربة للعثور على أفضل LLM والمطالبات المقابلة ومعلمات النموذج لاستخدامها. QnABot يجعل التجربة سهلة!

البرنامج التعليمي

حان الوقت لمحاولة ذلك! دعونا ننشر أحدث إصدار من QnABot (الإصدار 5.4.0 أو الأحدث) ونقوم بتمكين ميزات الذكاء الاصطناعي التوليدي الجديدة. الخطوات عالية المستوى هي كما يلي:

  1. قم بإنشاء وملء فهرس Amazon Kendra.
  2. اختر ونشر مكونًا إضافيًا لـ LLM (اختياري).
  3. نشر QnABot.
  4. قم بتكوين QnABot لمكون Lambda الإضافي الخاص بك (في حالة استخدام مكون إضافي).
  5. قم بالوصول إلى عميل الويب QnABot وابدأ التجربة.
  6. تخصيص السلوك باستخدام إعدادات QnABot.
  7. أضف أسئلة وأجوبة ومقاطع نصية منسقة إلى قاعدة المعرفة.

قم بإنشاء وملء مؤشر Amazon Kendra

قم بتنزيل واستخدام ما يلي قالب AWS CloudFormation لإنشاء فهرس Amazon Kendra جديد.

يتضمن هذا القالب بيانات نموذجية تحتوي على وثائق AWS عبر الإنترنت لـ Amazon Kendra وAmazon Lex وSageMaker. يتطلب نشر المكدس حوالي 30 دقيقة تليها حوالي 15 دقيقة لمزامنته واستيعاب البيانات في الفهرس.

عندما يتم نشر مكدس فهرس Amazon Kendra بنجاح، انتقل إلى المكدس النواتج علامة التبويب ولاحظ Index Idوالذي ستستخدمه لاحقًا عند نشر QnABot.

وبدلاً من ذلك، إذا كان لديك بالفعل فهرس Amazon Kendra مع المحتوى الخاص بك، فيمكنك استخدامه بدلاً من ذلك مع الأسئلة النموذجية الخاصة بك للبرنامج التعليمي.

اختيار ونشر البرنامج المساعد LLM (اختياري)

يمكن لـ QnABot نشر LLM مضمن (Falcon-40B-instruct on SageMaker) أو استخدام وظائف Lambda للاتصال بأي LLM آخر من اختيارك. في هذا القسم، نعرض لك كيفية استخدام خيار Lambda مع نموذج لوظيفة Lambda تم إنشاؤه مسبقًا. انتقل إلى الخطوة التالية إذا كنت تريد استخدام LLM المدمج بدلاً من ذلك.

أولاً، اختر البرنامج المساعد LLM الذي تريد استخدامه. قم بمراجعة خياراتك من qnabot-on-aws-plugin-samples مستودع README. حتى كتابة هذه السطور، تتوفر المكونات الإضافية لـ Amazon Bedrock (في المعاينة)، ولواجهة برمجة التطبيقات AI21 وAnthropic التابعة لجهات خارجية. نتوقع إضافة المزيد من نماذج المكونات الإضافية بمرور الوقت.

انشر البرنامج المساعد الذي اخترته عن طريق الاختيار قم بتشغيل Stack في ال نشر مكدس البرنامج المساعد الجديد القسم الذي سيتم نشره في us-east-1 المنطقة بشكل افتراضي (للنشر في مناطق أخرى، راجع إنشاء ونشر عناصر CloudFormation الخاصة بمكونات QnABot الإضافية).

عندما يتم نشر مكدس البرنامج المساعد بنجاح، انتقل إلى المكدس النواتج علامة التبويب (انظر لقطة الشاشة التالية) وافحص محتوياتها، والتي ستستخدمها في الخطوات التالية لنشر وتكوين QnABot. أبقِ علامة التبويب هذه مفتوحة في متصفحك.

نشر QnABot

اختار إطلاق الحل من كيونابوت دليل التنفيذ لنشر أحدث قالب QnABot عبر AWS CloudFormation. توفير المعلمات التالية:

  • في حالة DefaultKendraIndexId، استخدم معرف Amazon Kendra Index (المعرف الفريد العمومي) الذي قمت بجمعه مسبقًا
  • في حالة EmbeddingsApi (انظر البحث الدلالي باستخدام التضمين النصي)، اختر واحد من ما يلي:
    • SAGEMAKER (نموذج التضمين الافتراضي المدمج)
    • LAMBDA (لاستخدام واجهة برمجة تطبيقات Amazon Bedrock Embeddings مع ملف BEDROCK-EMBEDDINGS-AND-LLM توصيل في)
      • في حالة EmbeddingsLambdaArn، استخدم EmbeddingsLambdaArn قيمة الإخراج من الخاص بك BEDROCK-EMBEDDINGS-AND-LLM مكدس البرنامج المساعد.
  • في حالة LLMApi (انظر توضيح الاستعلام لاسترجاع المحادثة والإجابة على الأسئلة التوليدية)، اختر واحد من ما يلي:
    • SAGEMAKER (نموذج LLM الافتراضي المدمج)
    • LAMBDA (لاستخدام البرنامج المساعد LLM الذي تم نشره سابقًا)
      • في حالة LLMLambdaArn، استخدم LLMLambdaArn قيمة الإخراج من مكدس البرنامج المساعد الخاص بك

بالنسبة لجميع المعلمات الأخرى، قم بقبول الإعدادات الافتراضية (راجع ملف دليل التنفيذ لتعريفات المعلمات)، ثم تابع تشغيل مكدس QnABot.

قم بتكوين QnABot لمكون Lambda الإضافي الخاص بك (في حالة استخدام مكون إضافي)

إذا قمت بنشر QnABot باستخدام نموذج مكون إضافي LLM Lambda للوصول إلى LLM مختلف، فقم بتحديث معلمات نموذج QnABot وإعدادات قالب المطالبة على النحو الموصى به للمكون الإضافي الذي اخترته. لمزيد من المعلومات، راجع قم بتحديث إعدادات كيو إن إيه بوت. إذا استخدمت خيار SageMaker (المدمج) LLM، فانتقل إلى الخطوة التالية، لأن الإعدادات تم تكوينها لك بالفعل.

قم بالوصول إلى عميل الويب QnABot وابدأ التجربة

في وحدة تحكم AWS CloudFormation، اختر النواتج علامة التبويب الخاصة بمكدس QnABot CloudFormation واختر ClientURL وصلة. وبدلاً من ذلك، قم بتشغيل العميل عن طريق الاختيار QnABot على عميل AWS من قائمة أدوات مصمم المحتوى.

الآن، حاول طرح الأسئلة المتعلقة بخدمات AWS، على سبيل المثال:

  • ما هو أمازون ليكس؟
  • كيف يقوم SageMaker بتوسيع نطاق أعباء عمل الاستدلال؟
  • هل كندرا خدمة بحث؟

ومن ثم يمكنك طرح أسئلة المتابعة دون تحديد الخدمات أو السياق المذكور سابقًا، على سبيل المثال:

  • هل هو آمن؟
  • هل هو مقياس؟

تخصيص السلوك باستخدام إعدادات QnABot

يمكنك تخصيص العديد من الإعدادات على QnABot إعدادات مصمم المحتوى الصفحة - انظر التمهيدي - إعدادات LLM للحصول على قائمة كاملة بالإعدادات ذات الصلة. على سبيل المثال، حاول ما يلي:

  • المجموعات ENABLE_DEBUG_RESPONSES إلى TRUE، قم بحفظ الإعدادات، وحاول الأسئلة السابقة مرة أخرى. ستشاهد الآن مخرجات تصحيح إضافية في أعلى كل استجابة، توضح لك كيفية قيام LLM بإنشاء استعلام بحث Amazon Kendra استنادًا إلى سجل الدردشة، والمدة التي استغرقها تشغيل استنتاجات LLM، والمزيد. على سبيل المثال:
    [User Input: "Is it fast?", LLM generated query (1207 ms): "Does Amazon Kendra provide search results quickly?", Search string: "Is it fast? / Does Amazon Kendra provide search results quickly?"["LLM: LAMBDA"], Source: KENDRA RETRIEVE API

  • المجموعات ENABLE_DEBUG_RESPONSES العودة إلى FALSE، جلس LLM_QA_SHOW_CONTEXT_TEXT و LLM_QA_SHOW_SOURCE_LINKS إلى FALSE، وحاول الأمثلة مرة أخرى. الآن لا يتم عرض روابط السياق والمصادر، ويحتوي الإخراج فقط على الاستجابة التي تم إنشاؤها بواسطة LLM.
  • إذا كنت تشعر بالمغامرة، فجرّب أيضًا إعدادات قالب موجه LLM —LLM_GENERATE_QUERY_PROMPT_TEMPLATE و LLM_QA_PROMPT_TEMPLATE. تشير إلى التمهيدي - إعدادات LLM لمعرفة كيف يمكنك استخدام العناصر النائبة لقيم وقت التشغيل مثل سجل الدردشة والسياق وإدخال المستخدم والاستعلام والمزيد. لاحظ أنه من المرجح تحسين المطالبات الافتراضية وتخصيصها لتناسب حالات الاستخدام الخاصة بك بشكل أفضل، لذلك لا تخف من التجربة! إذا قمت بكسر شيء ما، يمكنك دائمًا العودة إلى الإعدادات الافتراضية باستخدام إعادة التعيين على الافتراضات الخيار في صفحة الإعدادات.

أضف أسئلة وأجوبة ومقاطع نصية منسقة إلى قاعدة المعرفة

يستطيع QnABot، بالطبع، الاستمرار في الإجابة على الأسئلة بناءً على أسئلة وأجوبة منسقة. ويمكنه أيضًا استخدام LLM لإنشاء إجابات من المقاطع النصية التي تم إنشاؤها أو استيرادها مباشرة إلى QnABot، بالإضافة إلى استخدام مؤشر Amazon Kendra.

يحاول QnABot العثور على إجابة جيدة لسؤال المستخدم الواضح بالتسلسل التالي:

  1. عناصر سؤال وجواب
  2. عناصر مرور النص
  3. مؤشر أمازون كندرا

دعونا نجرب بعض الأمثلة.

من قائمة أدوات QnABot Content Designer، اختر استيراد، ثم قم بتحميل حزمتي الأمثلة:

  • TextPassages-NurseryRhymeExamples
  • blog-samples-final

يمكن استخدام QnaBot تضمينات النص لتوفير إمكانية البحث الدلالي (باستخدام فهرس OpenSearch المدمج في QnABot كمخزن متجه)، مما يعمل على تحسين الدقة وتقليل ضبط الأسئلة، مقارنة بالمطابقة القياسية المستندة إلى الكلمات الرئيسية في OpenSearch. لتوضيح ذلك، جرب أسئلة مثل ما يلي:

  • "أخبرني عن جهاز Alexa ذو الشاشة"
  • "أخبرني عن جهاز بث الفيديو من أمازون؟"

يجب أن تتطابق بشكل مثالي مع نموذج QNA الذي قمت باستيراده، على الرغم من أن الكلمات المستخدمة لطرح السؤال هي تطابقات ضعيفة للكلمات الرئيسية (ولكنها مطابقات دلالية جيدة) مع عناصر QnA التي تم تكوينها: Alexa.001 (ما هو عرض صدى أمازون) و FireTV.001 (ما هو تلفزيون أمازون فاير).

حتى لو لم تكن (حتى الآن) تستخدم Amazon Kendra (ويجب عليك ذلك!)، يستطيع QnABot أيضًا الإجابة على الأسئلة بناءً على المقاطع التي تم إنشاؤها أو استيرادها إلى مصمم المحتوى. تمت الإجابة على الأسئلة التالية (وأسئلة المتابعة) من خلال عنصر نص مستورد يحتوي على أغنية الأطفال 0.HumptyDumpty:

  • "أين كان يجلس هامبتي دمبتي قبل أن يسقط؟"
  • "ماذا حدث بعد سقوطه؟ هل كان بخير؟"

عند استخدام التضمينات، فإن الإجابة الجيدة هي الإجابة التي تُرجع درجة تشابه أعلى من الحد المحدد بواسطة إعداد العتبة المقابل. يرى مطابقة الأسئلة الدلالية، باستخدام التضمين النصي لنموذج اللغة الكبير لمزيد من التفاصيل حول كيفية اختبار وضبط إعدادات العتبة.

إذا لم تكن هناك إجابات جيدة، أو إذا كانت استجابة LLM تطابق التعبير العادي المحدد في LLM_QA_NO_HITS_REGEX، ثم يقوم QnABot باستدعاء الملف القابل للتكوين العرف لا أعرف (no_hits) السلوك، والذي يعرض افتراضيًا رسالة تقول "لقد أذهلتني".

جرّب بعض التجارب من خلال إنشاء أسئلة وأجوبة أو عناصر فقرات نصية في QnABot، بالإضافة إلى استخدام فهرس Amazon Kendra للحصول على إجابات توليدية احتياطية. تجربة (باستخدام الاختبار علامة التبويب في المصمم) للعثور على أفضل القيم لاستخدامها في إعدادات حد التضمين للحصول على السلوك الذي تريده. من الصعب الحصول على التوازن المثالي، ولكن انظر ما إذا كان بإمكانك العثور على توازن جيد بما فيه الكفاية ينتج عنه إجابات مفيدة في معظم الأوقات.

تنظيف

يمكنك بالطبع ترك QnABot قيد التشغيل لتجربته وعرضه على زملائك! لكنها تتكبد بعض التكلفة - انظر خطط للنشر – التكلفة لمزيد من التفاصيل. لإزالة الموارد وتجنب التكاليف، احذف مجموعات CloudFormation التالية:

  • مكدس QnABot
  • مكدس البرنامج المساعد LLM (إن أمكن)
  • مكدس مؤشر أمازون كيندرا

استخدم أمثلة الحالة

تجعل هذه الميزات الجديدة QnABot مناسبًا للعديد من حالات استخدام العملاء مثل خدمة العملاء ذاتية الخدمة وروبوتات الدعم وروبوتات الأسئلة والأجوبة الآلية المستندة إلى الويب. نناقش حالتين من حالات الاستخدام هذه في هذا القسم.

التكامل مع مركز الاتصال

توفر إمكانيات الرد الآلي على الأسئلة في QnABot خدمة ذاتية فعالة للمكالمات الصوتية الواردة في مراكز الاتصال، مع نتائج مقنعة. على سبيل المثال، انظر كيف قامت Kentucky Transportation Cabinet بتقليل وقت انتظار المكالمات وتحسين تجربة العملاء من خلال وكلاء افتراضيين للخدمة الذاتية باستخدام Amazon Connect وAmazon Lex. يؤدي دمج ميزات الذكاء الاصطناعي التوليدية الجديدة إلى تعزيز عرض القيمة هذا بشكل أكبر من خلال إنشاء إجابات موثوقة ديناميكيًا من المحتوى الموجود مثل المستندات وقواعد المعرفة ومواقع الويب. وهذا يلغي حاجة مصممي الروبوتات إلى توقع الإجابات وتنظيمها يدويًا لكل سؤال محتمل قد يطرحه المستخدم. لدمج QnABot مع أمازون كونيكت، انظر توصيل QnABot على AWS بمركز اتصال Amazon Connect. للتكامل مع مراكز الاتصال الأخرى، انظر كيف يمكن استخدام Amazon Chime SDK لتوصيل روبوتات Amazon Lex الصوتية مع 3rd مراكز الاتصال الخاصة بالحزب عبر SIPREC و قم ببناء وكيل افتراضي مدعوم بالذكاء الاصطناعي لـ Genesys Cloud باستخدام QnABot و Amazon Lex.

يمكن لـ QnABot الذي يعمل بنظام LLM أن يلعب أيضًا دورًا محوريًا كمساعد وكيل آلي في الوقت الفعلي. في هذا الحل، يستمع QnABot بشكل سلبي إلى المحادثة ويستخدم LLM لإنشاء اقتراحات في الوقت الفعلي للعملاء البشريين بناءً على إشارات معينة. من السهل الإعداد والمحاولة، جرّبها! يمكن استخدام هذا الحل مع كل من Amazon Connect ومراكز الاتصال المحلية والسحابية الأخرى. لمزيد من المعلومات، راجع تحليلات المكالمات الحية ومساعدة الوكيل لمركز الاتصال الخاص بك مع خدمات Amazon Language AI.

التكامل مع موقع على الانترنت

يتيح تضمين QnABot في مواقع الويب والتطبيقات الخاصة بك للمستخدمين الحصول على مساعدة تلقائية في الحوار الطبيعي. لمزيد من المعلومات، راجع انشر واجهة مستخدم ويب لـ Chatbot. بالنسبة لمحتوى الأسئلة والأجوبة المنسق، استخدم بناء الجملة وأزرار واجهة المستخدم وقم بتضمين الروابط والصور ومقاطع الفيديو والعناصر الديناميكية الأخرى التي تُعلم المستخدمين وتسعدهم. قم بدمج واجهة مستخدم الويب QnABot Amazon Lex مع الدردشة المباشرة لـ Amazon Connect لتسهيل التصعيد السريع إلى الوكلاء البشريين عندما لا يتمكن المساعد الآلي من معالجة استفسار المستخدم بشكل كامل من تلقاء نفسه.

QnABot الموجود في مستودع عينات المكونات الإضافية لـ AWS

كما هو موضح في هذا المنشور، فإن QnABot v5.4.0+ لا يوفر فقط دعمًا مدمجًا للتضمينات ونماذج LLM المستضافة على SageMaker، ولكنه يوفر أيضًا القدرة على التكامل بسهولة مع أي LLM أخرى باستخدام وظائف Lambda. يمكنك تأليف وظائف Lambda المخصصة الخاصة بك أو البدء بشكل أسرع باستخدام إحدى العينات التي قدمناها في موقعنا الجديد qnabot-on-aws-plugin-samples مستودع.

يتضمن هذا المستودع مكونًا إضافيًا جاهزًا للنشر لـ Amazon Bedrock، والذي يدعم كلاً من عمليات التضمين وطلبات إنشاء النص. في وقت كتابة هذا التقرير، كان Amazon Bedrock متاحًا من خلال المعاينة الخاصة، ويمكنك ذلك طلب الوصول للمعاينة. عندما يصبح Amazon Bedrock متاحًا بشكل عام، نتوقع دمجه مباشرةً مع QnABot، ولكن لماذا الانتظار؟ تقدم بطلب للحصول على إمكانية الوصول للمعاينة واستخدم نموذج البرنامج المساعد الخاص بنا لبدء التجربة!

تقود دورة الابتكار في LLM اليوم وتيرة مذهلة لإصدارات النماذج الجديدة، حيث يهدف كل منها إلى تجاوز الإصدار الأخير. سيتم توسيع هذا المستودع ليشمل عينات إضافية من مكونات QnABot الإضافية بمرور الوقت. حتى كتابة هذه السطور، لدينا دعم لاثنين من موفري نماذج الطرف الثالث: Anthropic وAI21. نحن نخطط لإضافة عمليات تكامل لمزيد من شهادات LLM والتضمينات وأمثلة حالات الاستخدام الشائعة المحتملة التي تتضمن خطافات Lambda وقواعد المعرفة. يتم تقديم هذه المكونات الإضافية كما هي دون ضمان، من أجل راحتك، ويتحمل المستخدمون مسؤولية دعمها وصيانتها بمجرد نشرها.

نأمل أن ينضج مستودع المكونات الإضافية لـ QnABot ليصبح مشروعًا مجتمعيًا مفتوح المصدر ومزدهرًا. شاهد ال qnabot-on-aws-plugin-samples GitHub repo لتلقي التحديثات على المكونات الإضافية والميزات الجديدة، استخدم قضايا منتدى للإبلاغ عن المشكلات أو تقديم التعليقات والمساهمة في التحسينات عبر سحب الطلبات. المساهمات هي موضع ترحيب!

وفي الختام

في هذا المنشور، قدمنا ​​ميزات الذكاء الاصطناعي التوليدية الجديدة لـ QnABot وتطرقنا إلى حل لإنشاء ونشر وتخصيص QnABot لاستخدام هذه الميزات. ناقشنا أيضًا بعض حالات الاستخدام ذات الصلة. تعمل أتمتة الاستفسارات المتكررة على تحرير العاملين من البشر وتعزيز الإنتاجية. الاستجابات الغنية تخلق تجارب جذابة. يمكن أن يساعدك نشر QnABot الذي يعمل بنظام LLM في رفع مستوى تجربة الخدمة الذاتية للعملاء والموظفين.

لا تفوت هذه الفرصة — ابدأ اليوم وأحدث ثورة في تجربة المستخدم عند نشر QnABot الخاص بك!


عن المؤلفين

كليستر تيو هو أحد كبار مهندسي حلول الشركاء في AWS، ويركز على النظام البيئي الشريك للقطاع العام. إنه يستمتع ببناء النماذج الأولية، والبقاء نشيطًا في الهواء الطلق، وتجربة المأكولات الجديدة. لدى Clevester شغف بتجربة التقنيات الناشئة ومساعدة شركاء AWS على الابتكار وتقديم خدمة أفضل لعملاء القطاع العام.

ويندريش هو مهندس حلول في AWS ويعمل مع العملاء في صناعات مثل التمويل والنقل، للمساعدة في تسريع رحلة اعتماد السحابة الخاصة بهم. وهو مهتم بشكل خاص بالتقنيات بدون خوادم وكيف يمكن للعملاء الاستفادة منها لجلب القيم إلى أعمالهم. خارج العمل، يستمتع ويندريش بممارسة الرياضة ومشاهدة الألعاب الرياضية، فضلاً عن استكشاف المأكولات المختلفة حول العالم.

بوب ستراهان بوب ستراهان هو مهندس حلول رئيسي في فريق خدمات الذكاء الاصطناعي للغة AWS.

بقعة_صورة

أحدث المعلومات الاستخباراتية

بقعة_صورة