تصحيح أخطاء طلبات نموذج اللغة الكبيرة باستخدام أداة تفسير التعلّم (LIT) على Google Cloud Platform

1. نظرة عامة

يوفّر هذا المختبر شرحًا مفصّلاً حول نشر خادم تطبيقات LIT على Google Cloud Platform (GCP) للتفاعل مع نماذج Vertex AI Gemini الأساسية والنماذج اللغوية الكبيرة (LLM) المستضافة ذاتيًا التابعة لجهات خارجية. كما تتضمّن إرشادات حول كيفية استخدام واجهة مستخدم LIT لتصحيح الأخطاء بسرعة وتفسير النموذج.

من خلال اتباع هذا التمرين، سيتعلم المستخدمون كيفية:

  • اضبط خادم LIT على GCP.
  • ربط خادم LIT بنماذج Vertex AI Gemini أو نماذج أخرى من النماذج اللغوية الكبيرة المستضافة ذاتيًا
  • استخدِم واجهة مستخدم LIT لتحليل الطلبات وتصحيح الأخطاء وتفسيرها من أجل تحسين أداء النماذج والإحصاءات.

ما هو LIT؟

LIT هي أداة مرئية تفاعلية لفهم النماذج تتيح استخدام البيانات النصية والصور والجداول. ويمكن تشغيله كخادم مستقل أو داخل بيئات تطبيقات "دفتر ملاحظات"، مثل Google Colab وJupyter وGoogle Cloud Vertex AI. يتوفّر LIT من خلال PyPI وGitHub.

تم إنشاء هذه الميزة في الأصل لفهم نماذج التصنيف والانحدار، وقد أضافت التحديثات الأخيرة أدوات لتصحيح أخطاء طلبات النماذج اللغوية الكبيرة، ما يتيح لك استكشاف كيفية تأثير محتوى المستخدم والنموذج والنظام في سلوك الإنشاء.

ما هو Vertex AI وModel Garden؟

Vertex AI هي منصّة تعلُّم آلة تتيح لك تدريب نماذج تعلُّم الآلة وتطبيقات الذكاء الاصطناعي ونشرها، وتخصيص النماذج اللغوية الكبيرة لاستخدامها في تطبيقاتك المستندة إلى الذكاء الاصطناعي. تجمع Vertex AI بين سير عمل هندسة البيانات وعلم البيانات وهندسة تعلُّم الآلة، ما يتيح لفِرقك التعاون باستخدام مجموعة أدوات مشتركة وتوسيع نطاق تطبيقاتك باستخدام مزايا Google Cloud.

Vertex Model Garden هي مكتبة لنماذج تعلُّم الآلة تساعدك في اكتشاف نماذج ومواد عرض تابعة لجهات خارجية واختبارها وتخصيصها ونشرها.

الإجراءات التي ستنفّذها

ستستخدم Cloud Shell وCloud Run من Google لنشر حاوية Docker من صورة LIT المُنشأة مسبقًا.

Cloud Run هو نظام أساسي مُدار للحوسبة يتيح لك تشغيل الحاويات مباشرةً فوق بنية Google الأساسية القابلة للتطور، بما في ذلك وحدات معالجة الرسومات.

مجموعة البيانات

يستخدم الإصدار التجريبي نموذج مجموعة البيانات لتحديد أخطاء طلبات LIT وتصحيحها تلقائيًا، أو يمكنك تحميل مجموعة البيانات الخاصة بك من خلال واجهة المستخدم.

قبل البدء

لاستخدام هذا الدليل المرجعي، تحتاج إلى مشروع على Google Cloud. يمكنك إنشاء مشروع جديد أو اختيار مشروع سبق أن أنشأته.

2. افتح Google Cloud Console وCloud Shell.

ستطلق Google Cloud Console وستستخدم Google Cloud Shell في هذه الخطوة.

2(أ): تشغيل Google Cloud Console

افتح متصفّحًا وانتقِل إلى Google Cloud Console.

Google Cloud Console هي واجهة مشرف ويب فعّالة وآمنة تتيح لك إدارة موارد Google Cloud بسرعة. وهي أداة DevOps أثناء التنقل.

2-ب: تشغيل Google Cloud Shell

Cloud Shell هي بيئة تطوير وعمليات على الإنترنت يمكن الوصول إليها من أي مكان باستخدام المتصفّح. يمكنك إدارة مواردك باستخدام الوحدة الطرفية الخاصة بها على الإنترنت والتي تم تحميلها مسبقًا بأدوات مساعدة، مثل أداة سطر الأوامر gcloud وkubectl وغير ذلك. يمكنك أيضًا تطوير تطبيقات مستندة إلى السحابة الإلكترونية وإنشائها وتصحيح أخطائها ونشرها باستخدام "محرِّر Cloud Shell" على الإنترنت. توفّر Cloud Shell بيئة إلكترونية جاهزة للمطوّرين مع مجموعة من الأدوات المفضَّلة المثبَّتة مسبقًا ومساحة التخزين الدائمة التي تبلغ 5 غيغابايت. ستستخدم موجّه الأوامر في الخطوات التالية.

افتح Google Cloud Shell باستخدام الرمز في أعلى يسار شريط القوائم، والذي تم وضع دائرة حوله باللون الأزرق في لقطة الشاشة التالية.

إطلاق Google Cloud Console

من المفترض أن تظهر لك نافذة طرفية بهيكل باش في أسفل الصفحة.

Google Cloud Console

2-ج: ضبط مشروع Google Cloud

يجب ضبط معرّف المشروع ومنطقة المشروع باستخدام الأمر gcloud.

# Set your GCP Project ID.
gcloud config set project your-project-id

# Set your GCP Project Region.
gcloud config set run/region your-project-region

3- نشر صورة Docker الخاصة بخادم تطبيق LIT باستخدام Cloud Run

3-أ: نشر تطبيق LIT على التشغيل في السحابة الإلكترونية

عليك أولاً ضبط أحدث إصدار من LIT-App على أنّه الإصدار المطلوب نشره.

# Set latest version as your LIT_SERVICE_TAG.
export LIT_SERVICE_TAG=latest
# List all the public LIT GCP App server docker images.
gcloud container images  list-tags  us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-lit-app

بعد إعداد علامة الإصدار، عليك تسمية الخدمة.

# Set your lit service name. While 'lit-app-service' is provided as a placeholder, you can customize the service name based on your preferences.
export LIT_SERVICE_NAME=lit-app-service

بعد ذلك، يمكنك تنفيذ الأمر التالي لنشر الحاوية على Cloud Run.

# Use below cmd to deploy the LIT App to Cloud Run.
gcloud run deploy $LIT_SERVICE_NAME \
--image us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-lit-app:$LIT_SERVICE_TAG \
--port 5432 \
--cpu 8 \
--memory 32Gi \
--no-cpu-throttling \
--no-allow-unauthenticated

تتيح لك أداة LIT أيضًا إضافة مجموعة البيانات عند بدء تشغيل الخادم. لإجراء ذلك، اضبط المتغيّر DATASETS لتضمين البيانات التي تريد تحميلها، باستخدام التنسيق name:path، على سبيل المثال، data_foo:/bar/data_2024.jsonl. يجب أن يكون تنسيق مجموعة البيانات ‎ .jsonl، حيث يحتوي كل سجلّ على حقل prompt وحقول target وsource اختيارية. لتحميل مجموعات بيانات متعددة، افصل بينها باستخدام فاصلة. في حال عدم ضبط القيمة، سيتم تحميل مجموعة بيانات نموذجية لتصحيح أخطاء طلبات LIT.

# Set the dataset.
export DATASETS=[DATASETS]

بتعيين MAX_EXAMPLES، يمكنك تعيين أقصى عدد من الأمثلة لتحميلها من كل مجموعة تقييم.

# Set the max examples.
export MAX_EXAMPLES=[MAX_EXAMPLES]

بعد ذلك، يمكنك إضافة

--set-env-vars "DATASETS=$DATASETS" \
--set-env-vars "MAX_EXAMPLES=$MAX_EXAMPLES" \

3-ب: عرض خدمة LIT App Service

بعد إنشاء خادم تطبيق LIT، يمكنك العثور على الخدمة في قسم Cloud Run في Cloud Console.

اختَر خدمة LIT App التي أنشأتها للتو. تأكَّد من أنّ اسم الخدمة هو نفسه LIT_SERVICE_NAME.

قائمة Cloud Run في Google Cloud Console

يمكنك العثور على عنوان URL للخدمة بالنقر على الخدمة التي نشرتها للتو.

عنوان URL لخدمة Google Cloud Find

بعد ذلك، يُفترض أن تتمكن من عرض واجهة مستخدم LIT. إذا ظهرت لك رسالة خطأ، يُرجى الاطّلاع على قسم "تحديد المشاكل وحلّها".

الصفحة الرئيسية لعرض LIT التجريبي

يمكنك الاطّلاع على قسم "السجلّات" لمراقبة النشاط وعرض رسائل الخطأ وتتبُّع مستوى تقدّم عملية النشر.

سجلّ تشغيل السحابة الإلكترونية في Google Cloud Console

يمكنك الانتقال إلى قسم "المقاييس" للاطّلاع على مقاييس الخدمة.

مقاييس Cloud Run في Google Cloud Console

3-ج: تحميل مجموعات البيانات

انقر على الخيار Configure في واجهة مستخدم LIT، ثم انقر على Dataset. حمِّل مجموعة البيانات من خلال تحديد اسم وتقديم عنوان URL الخاص بها. يجب أن يكون تنسيق مجموعة البيانات ‎ .jsonl، حيث يحتوي كل سجلّ على حقل prompt وحقول target وsource اختيارية.

مجموعة بيانات تحميل LIT

4. إعداد نماذج Gemini في Model Garden في Vertex AI

تتوفّر نماذج Gemini الأساسية من Google من خلال واجهة برمجة التطبيقات Vertex AI API. توفّر LIT حزمة VertexAIModelGarden لتغليف النماذج لاستخدام هذه النماذج في عملية الإنشاء. ما عليك سوى تحديد الإصدار المطلوب (مثلاً، "gemini-1.5-pro-001") من خلال مَعلمة اسم النموذج. ومن المزايا الرئيسية لاستخدام هذه النماذج أنّها لا تتطلّب أي جهد إضافي للنشر. يمكنك الوصول فورًا إلى نماذج مثل Gemini 1.0 Pro وGemini 1.5 Pro على Google Cloud Platform، ما يغنيك عن اتّباع خطوات ضبط إضافية.

4(أ): منح أذونات Vertex AI

لطلب بحث Gemini في Google Cloud Platform، يجب منح Vertex AI أذونات الوصول إلى حساب الخدمة. تأكَّد من أنّ اسم حساب الخدمة هو Default compute service account. انسخ عنوان البريد الإلكتروني لحساب الخدمة.

حسابات الخدمة في Google Cloud Platform

أضِف عنوان البريد الإلكتروني لحساب الخدمة كمستخدم أساسي لديه الدور Vertex AI User في قائمة السماح في إدارة الهوية وإمكانية الوصول.

إضافة عنوان البريد الإلكتروني لحسابات الخدمة

4-ب: تحميل نماذج Gemini

ستحمّل نماذج Gemini وتُعدّل مَعلماتها باتّباع الخطوات أدناه.

    1. انقر على الخيار Configure في واجهة مستخدم LIT.
    1. حدِّد الخيار gemini ضمن الخيار Select a base model.
    1. عليك تسمية النموذج في new_name.
    1. أدخِل نماذج Gemini التي اخترتها على أنّها model_name.
    1. انقر على Load Model.
    1. انقر على Submit.

نموذج LIT Load Gemini

5- نشر خادم نماذج LLMs المستضافة ذاتيًا على Google Cloud Platform

يتيح لك استضافة النماذج اللغوية الكبيرة ذاتيًا باستخدام صورة Docker لخادم النماذج في LIT استخدام وظائف تمييز المحتوى وتحليله إلى وحدات في LIT للحصول على إحصاءات أكثر تفصيلاً حول سلوك النموذج. تعمل صورة خادم النماذج مع نماذج KerasNLP أو Hugging Face Transformers، بما في ذلك الأوزان المقدَّمة من المكتبة والذاتية الاستضافة، مثل Google Cloud Storage.

5-أ: ضبط النماذج

تحمِّل كل حاوية نموذجًا واحدًا يتم ضبطه باستخدام متغيّرات البيئة.

يجب تحديد نماذج لتحميلها عن طريق تعيين MODEL_CONFIG. يجب أن يكون التنسيق name:path، على سبيل المثال model_foo:model_foo_path. يمكن أن يكون المسار عنوان URL أو مسار ملف محلي أو اسم إعداد مُسبَق لإطار عمل التعلّم العميق الذي تم ضبطه (اطّلِع على الجدول التالي لمعرفة المزيد). تم اختبار هذا الخادم باستخدام Gemma وGPT2 وLlama وMistral على جميع قيم DL_FRAMEWORK المتوافقة. ومن المفترض أن تعمل نماذج أخرى، ولكن قد تكون هناك حاجة إلى إجراء تعديلات.

# Set models you want to load. While 'gemma2b is given as a placeholder, you can load your preferred model by following the instructions above.
export MODEL_CONFIG=gemma2b:gemma_2b_en

بالإضافة إلى ذلك، يسمح خادم نموذج LIT بضبط متغيّرات البيئة المختلفة باستخدام الأمر أدناه. يُرجى الاطّلاع على الجدول للحصول على التفاصيل. يُرجى العلم أنّه يجب ضبط كل متغيّر على حدة.

# Customize the variable value as needed.
export [VARIABLE]=[VALUE]

متغير

القيم

الوصف

DL_FRAMEWORK

kerasnlp، transformers

مكتبة وضع النماذج المستخدَمة لتحميل أوزان النماذج على وقت التشغيل المحدّد الإعداد التلقائي هو kerasnlp.

DL_RUNTIME

torch، tensorflow

إطار عمل الخلفية للتعرّف العميق الذي يعمل عليه النموذج ستستخدم جميع النماذج التي يحمّلها هذا الخادم الخلفية نفسها، وستؤدي عدم التوافق إلى حدوث أخطاء. الإعداد التلقائي هو torch.

الدقة

bfloat16، float32

دقة النقطة العائمة لنماذج النصوص اللغوية الكبيرة وتكون القيمة التلقائية هي bfloat16.

BATCH_SIZE

الأعداد الصحيحة الموجبة

عدد الأمثلة المطلوب معالجتها لكل دفعة الإعداد التلقائي هو 1.

SEQUENCE_LENGTH

الأعداد الصحيحة الموجبة

الحد الأقصى لطول التسلسل في طلب الإدخال بالإضافة إلى النص الذي تم إنشاؤه وتكون القيمة التلقائية هي 512.

5-ب: نشر "خادم النماذج" على Cloud Run

عليك أولاً ضبط أحدث إصدار من Model Server على أنّه الإصدار المطلوب نشره.

# Set latest as MODEL_VERSION_TAG.
export MODEL_VERSION_TAG=latest
# List all the public LIT GCP model server docker images.
gcloud container images  list-tags  us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-model-server

بعد ضبط علامة الإصدار، عليك تسمية خادم النماذج.

# Set your Service name.
export MODEL_SERVICE_NAME='gemma2b-model-server'

بعد ذلك، يمكنك تنفيذ الأمر التالي لنشر الحاوية على Cloud Run. في حال عدم ضبط متغيّرات البيئة، سيتم تطبيق القيم التلقائية. ننصح باستخدام وحدة معالجة الرسومات لأنّ معظم النماذج اللغوية الكبيرة تتطلب موارد حوسبة باهظة الثمن. إذا كنت تفضّل التشغيل على وحدة المعالجة المركزية فقط (وهو ما يعمل بشكل جيد مع النماذج الصغيرة مثل GPT2)، يمكنك إزالة الوسيطات ذات الصلة --gpu 1 --gpu-type nvidia-l4 --max-instances 7.

# Deploy the model service container.
gcloud beta run deploy $MODEL_SERVICE_NAME \
--image us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-model-server:$MODEL_VERSION_TAG \
--port 5432 \
--cpu 8 \
--memory 32Gi \
--no-cpu-throttling \
--gpu 1 \
--gpu-type nvidia-l4  \
--max-instances 7  \
--set-env-vars "MODEL_CONFIG=$MODEL_CONFIG" \
--no-allow-unauthenticated

بالإضافة إلى ذلك، يمكنك تخصيص متغيرات البيئة عن طريق إضافة الأوامر التالية. لا تُدرِج سوى متغيّرات البيئة الضرورية لاحتياجاتك المحدّدة.

--set-env-vars "DL_FRAMEWORK=$DL_FRAMEWORK" \
--set-env-vars "DL_RUNTIME=$DL_RUNTIME" \
--set-env-vars "PRECISION=$PRECISION" \
--set-env-vars "BATCH_SIZE=$BATCH_SIZE" \
--set-env-vars "SEQUENCE_LENGTH=$SEQUENCE_LENGTH" \

قد تكون متغيّرات البيئة الإضافية ضرورية للوصول إلى نماذج معيّنة. اطّلِع على التعليمات من Kaggle Hub (المستخدَمة لنماذج KerasNLP) وHugging Face Hub حسب الاقتضاء.

5-ج: الوصول إلى خادم النماذج

بعد إنشاء خادم النماذج، يمكن العثور على الخدمة التي تم تشغيلها في قسم Cloud Run ضمن مشروعك على Google Cloud Platform.

اختَر خادم النماذج الذي أنشأته للتو. تأكَّد من أنّ اسم الخدمة هو نفسه MODEL_SERVICE_NAME.

قائمة Cloud Run في Google Cloud Console

يمكنك العثور على عنوان URL للخدمة بالنقر على نموذج الخدمة الذي نشرته للتو.

عنوان URL لخدمة Google Cloud Find

يمكنك الاطّلاع على قسم "السجلّات" لمراقبة النشاط وعرض رسائل الخطأ وتتبُّع مستوى تقدّم عملية النشر.

سجلّ تشغيل السحابة الإلكترونية في Google Cloud Console

يمكنك الانتقال إلى قسم "المقاييس" للاطّلاع على مقاييس الخدمة.

مقاييس Cloud Run في Google Cloud Console

5-د: تحميل النماذج المستضافة ذاتيًا

إذا كنت تستخدم خادم LIT كوكيل في الخطوة 3 (راجِع قسم تحديد المشاكل وحلّها)، عليك الحصول على رمز تعريف Google Cloud Platform من خلال تنفيذ الأمر التالي.

# Find your GCP identity token.
gcloud auth print-identity-token

سيتم تحميل نماذج مستضافة ذاتيًا وتعديل مَعلماتها باتّباع الخطوات أدناه.

  1. انقر على الخيار Configure في واجهة مستخدم LIT.
  2. حدِّد الخيار LLM (self hosted) ضمن الخيار Select a base model.
  3. عليك تسمية النموذج في new_name.
  4. أدخِل عنوان URL لخادم النماذج على أنّه base_url.
  5. أدخِل الرمز المميّز للهوية الذي تم الحصول عليه في identity_token إذا كنت تستخدم خادمًا وكيلاً لتطبيق LIT (راجِع الخطوة 3 والخطوة 7). وبخلاف ذلك، اترك هذا الحقل فارغًا.
  6. انقر على Load Model.
  7. انقر على Submit.

تحميل نماذج النماذج اللغوية الكبيرة (LLM) في LIT

6- التفاعل مع LIT على Google Cloud Platform

يوفّر LIT مجموعة غنية من الميزات لمساعدتك في تصحيح أخطاء سلوكيات النماذج وفهمها. يمكنك إجراء عملية بسيطة مثل طلب المعلومات من النموذج، وذلك من خلال كتابة نص في مربّع والاطّلاع على توقّعات النموذج، أو فحص النماذج بالتفصيل باستخدام مجموعة ميزات LIT القوية، بما في ذلك:

6-أ: طلب بيانات النموذج من خلال واجهة برمجة التطبيقات LIT

تستعلم LIT تلقائيًا من مجموعة البيانات بعد تحميل النموذج ومجموعة البيانات. يمكنك الاطّلاع على ردّ كل نموذج من خلال اختيار الردّ في الأعمدة.

عرض ردّ LIT

ردّ LIT

6-ب: استخدام أسلوب "تمييز التسلسل"

لا تتيح تقنية "تمييز التسلسل" في LIT حاليًا استخدام النماذج المستضافة ذاتيًا إلا.

"تمييز التسلسل" هي أداة مرئية تساعد في تصحيح أخطاء طلبات الذكاء الاصطناعي اللغوي الكبير (LLM) من خلال إبراز الأجزاء الأكثر أهمية من الطلب للحصول على نتيجة معيّنة. لمزيد من المعلومات عن ميزة "تمييز التسلسل"، يمكنك الاطّلاع على الدليل التعليمي الكامل لمعرفة المزيد عن كيفية استخدام هذه الميزة.

للوصول إلى نتائج العناصر البارزة، انقر على أي إدخال أو إخراج في الطلب أو الاستجابة، وسيتم عرض نتائج العناصر البارزة.

نتائج تمييز تسلسل LIT

6-c: طلب تعديل Manullay والهدف

تتيح لك LIT تعديل أي prompt وtarget يدويًا لنقطة البيانات الحالية. عند النقر على Add، ستتم إضافة الإدخال الجديد إلى مجموعة البيانات.

تعديل LIT يدويًا

6-د: مقارنة الطلبَين جنبًا إلى جنب

يتيح لك LIT مقارنة الطلب جنبًا إلى جنب مع الأمثلة الأصلية المعدَّلة. يمكنك تعديل مثال يدويًا وعرض نتيجة التوقّع وتحليل "مدى بروز التسلسل" لكل من الإصدار الأصلي والإصدار المعدَّل في الوقت نفسه. يمكنك تعديل الطلب لكل نقطة بيانات، وستنشئ LIT الرد المقابل عن طريق الاستعلام عن النموذج.

مقارنة مجموعات البيانات في LIT

6-هـ: مقارنة نماذج متعددة جنبًا إلى جنب

تتيح لك أداة LIT مقارنة النماذج جنبًا إلى جنب استنادًا إلى أمثلة فردية لإنشاء النصوص وتقييمها، بالإضافة إلى أمثلة مجمّعة لمقاييس محدّدة. من خلال طلب نماذج مختلفة تم تحميلها، يمكنك بسهولة مقارنة الاختلافات في ردود هذه النماذج.

LIT Compare Model Response

6-و: أدوات إنشاء السيناريوهات البديلة التلقائية

يمكنك استخدام أدوات إنشاء عكسية تلقائية لإنشاء مدخلات بديلة ومعرفة سلوك نموذجك عليها في الحال.

إنشاء الإدخال تلقائيًا في ميزة "الترجمة الفورية"

6-(ز): تقييم أداء النموذج

يمكنك تقييم أداء النموذج باستخدام المقاييس (تتيح حاليًا نتائج BLEU وROUGE لإنشاء النصوص) على مستوى مجموعة البيانات بالكامل أو أي مجموعات فرعية من الأمثلة التي تمّت فلترتها أو اختيارها.

مقاييس نموذج عرض الإعلانات المتجاوبة

7- تحديد المشاكل وحلّها

7-أ: المشاكل المحتملة في الوصول إلى البيانات والحلول

بما أنّه يتم تطبيق --no-allow-unauthenticated عند النشر على Cloud Run، قد تواجه أخطاء محظورة كما هو موضّح أدناه.

خطأ "محظور" في Google Cloud

هناك طريقتان للوصول إلى خدمة LIT App.

1. خادم وكيل للخدمة المحلّية

يمكنك إنشاء وكيل للخدمة مع مضيف محلي باستخدام الأمر أدناه.

# Proxy the service to local host.
gcloud run services proxy $LIT_SERVICE_NAME

بعد ذلك، من المفترض أن تتمكّن من الوصول إلى خادم LIT من خلال النقر على رابط الخدمة الوكيل.

2. مصادقة المستخدمين مباشرةً

يمكنك اتّباع هذا الرابط لمصادقة المستخدمين، ما يتيح الوصول المباشر إلى خدمة LIT App. ويمكن أن تتيح هذه الطريقة أيضًا لمجموعة من المستخدمين الوصول إلى الخدمة. بالنسبة إلى التطوير الذي ينطوي على تعاون مع عدة أشخاص، يُعدّ هذا الخيار أكثر فعالية.

7-ب: عمليات التحقّق للتأكّد من إطلاق "خادم النماذج" بنجاح

للتأكّد من تشغيل خادم النماذج بنجاح، يمكنك الاستعلام عن خادم النماذج مباشرةً من خلال إرسال طلب. يقدّم خادم النماذج ثلاث نقاط نهاية، وهي predict وtokenize وsalience. احرص على تقديم الحقلين prompt وtarget في طلبك.

# Query the model server predict endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/predict -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

# Query the model server tokenize endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/tokenize -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

# Query the model server salience endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/salience -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

إذا واجهت مشكلة في الوصول إلى الحساب، اطّلِع على القسم 7(أ) أعلاه.

8. تهانينا

أحسنت في إكمال الدرس التطبيقي حول الترميز. حان وقت الاسترخاء.

تَنظيم

لتنظيف المختبر، احذف جميع خدمات Google Cloud التي تم إنشاؤها للمختبر. استخدِم Google Cloud Shell لتشغيل الأوامر التالية.

إذا انقطع الاتصال بخدمة Google Cloud بسبب عدم النشاط، عليك إعادة ضبط المتغيّرات باتّباع الخطوات السابقة.

# Delete the LIT App Service.
gcloud run services delete $LIT_SERVICE_NAME

إذا كنت قد بدأت خادم النماذج، عليك أيضًا حذفه.

# Delete the Model Service.
gcloud run services delete $MODEL_SERVICE_NAME

مراجع إضافية

يمكنك الاطّلاع على المزيد من المعلومات عن ميزات أداة LIT من خلال المراجع التالية:

  • جميلة: رابط
  • قاعدة الرموز البرمجية المفتوحة المصدر في LIT: مستودع Git
  • ورقة LIT: ArXiv
  • مقالة تصحيح أخطاء طلبات البحث في "مساعد Google": ArXiv
  • عرض توضيحي لفيديو LIT: YouTube
  • عرض توضيحي لتصحيح أخطاء طلبات LIT: YouTube
  • مجموعة أدوات الذكاء الاصطناعي التوليدي المسؤول: الرابط

التواصل

إذا كانت لديك أي أسئلة أو مشاكل بشأن هذا الدليل التعليمي حول الرموز البرمجية، يُرجى التواصل معنا على GitHub.

الترخيص

يخضع هذا العمل رخصة المشاع الإبداعي العامة 4.0 مع نسب العمل إلى مؤلفه.