اشکال زدایی سریع LLM با ابزار تفسیرپذیری یادگیری (LIT) در GCP

۱. مرور کلی

این آزمایشگاه، یک آموزش جامع در مورد استقرار یک سرور برنامه LIT بر روی پلتفرم ابری گوگل (GCP) برای تعامل با مدل‌های پایه Vertex AI Gemini و مدل‌های زبان بزرگ (LLM) شخص ثالث خود-میزبان ارائه می‌دهد. همچنین شامل راهنمایی در مورد نحوه استفاده از رابط کاربری LIT برای اشکال‌زدایی سریع و تفسیر مدل است.

با دنبال کردن این آزمایشگاه، کاربران یاد خواهند گرفت که چگونه:

  • یک سرور LIT را روی GCP پیکربندی کنید.
  • سرور LIT را به مدل‌های Vertex AI Gemini یا سایر LLM های خود میزبان متصل کنید.
  • از رابط کاربری LIT برای تجزیه و تحلیل، اشکال‌زدایی و تفسیر اعلان‌ها برای عملکرد و بینش بهتر مدل استفاده کنید.

LIT چیست؟

LIT یک ابزار درک مدل بصری و تعاملی است که از متن، تصویر و داده‌های جدولی پشتیبانی می‌کند. این ابزار می‌تواند به عنوان یک سرور مستقل یا درون محیط‌های نوت‌بوک مانند Google Colab، Jupyter و Google Cloud Vertex AI اجرا شود. LIT از طریق PyPI و GitHub در دسترس است.

در ابتدا برای درک مدل‌های طبقه‌بندی و رگرسیون ساخته شده بود، اما به‌روزرسانی‌های اخیر ابزارهایی برای اشکال‌زدایی از دستورات LLM اضافه کرده‌اند که به شما امکان می‌دهد بررسی کنید که چگونه محتوای کاربر، مدل و سیستم بر رفتار تولید تأثیر می‌گذارد.

هوش مصنوعی ورتکس و مدل گاردن چیست؟

Vertex AI یک پلتفرم یادگیری ماشین (ML) است که به شما امکان می‌دهد مدل‌های ML و برنامه‌های هوش مصنوعی را آموزش داده و مستقر کنید و LLMها را برای استفاده در برنامه‌های مبتنی بر هوش مصنوعی خود سفارشی کنید. Vertex AI گردش‌های کاری مهندسی داده، علم داده و مهندسی ML را ترکیب می‌کند و تیم‌های شما را قادر می‌سازد تا با استفاده از یک مجموعه ابزار مشترک همکاری کنند و برنامه‌های خود را با استفاده از مزایای Google Cloud مقیاس‌بندی کنند.

Vertex Model Garden یک کتابخانه مدل یادگیری ماشین است که به شما کمک می‌کند مدل‌ها و دارایی‌های اختصاصی گوگل و منتخب شخص ثالث را کشف، آزمایش، سفارشی‌سازی و پیاده‌سازی کنید.

کاری که انجام خواهید داد

شما از Google Cloud Shell و Cloud Run برای استقرار یک کانتینر Docker از تصویر از پیش ساخته شده LIT استفاده خواهید کرد.

Cloud Run یک پلتفرم محاسباتی مدیریت‌شده است که به شما امکان می‌دهد کانتینرها را مستقیماً روی زیرساخت مقیاس‌پذیر گوگل، از جمله روی پردازنده‌های گرافیکی ، اجرا کنید.

مجموعه داده‌ها

این نسخه آزمایشی به طور پیش‌فرض از مجموعه داده‌های نمونه اشکال‌زدایی اعلان LIT استفاده می‌کند، یا می‌توانید مجموعه داده‌های خودتان را از طریق رابط کاربری بارگذاری کنید.

قبل از اینکه شروع کنی

برای این راهنمای مرجع، به یک پروژه Google Cloud نیاز دارید. می‌توانید یک پروژه جدید ایجاد کنید یا پروژه‌ای را که قبلاً ایجاد کرده‌اید انتخاب کنید.

۲. کنسول ابری گوگل و یک پوسته ابری را راه‌اندازی کنید

در این مرحله، شما یک کنسول ابری گوگل (Google Cloud Console) راه‌اندازی کرده و از پوسته ابری گوگل (Google Cloud Shell) استفاده خواهید کرد.

۲-الف: کنسول ابری گوگل را راه‌اندازی کنید

یک مرورگر باز کنید و به کنسول ابری گوگل بروید.

کنسول گوگل کلود یک رابط کاربری تحت وب قدرتمند و امن است که به شما امکان می‌دهد منابع گوگل کلود خود را به سرعت مدیریت کنید. این یک ابزار DevOps در حال حرکت است.

۲-ب: راه‌اندازی پوسته ابری گوگل

Cloud Shell یک محیط توسعه و عملیات آنلاین است که از هر مکانی با مرورگر شما قابل دسترسی است. می‌توانید منابع خود را با ترمینال آنلاین آن که از قبل با ابزارهایی مانند ابزار خط فرمان gcloud، kubectl و موارد دیگر بارگذاری شده است، مدیریت کنید. همچنین می‌توانید برنامه‌های مبتنی بر ابر خود را با استفاده از ویرایشگر آنلاین Cloud Shell توسعه، ساخت، اشکال‌زدایی و مستقر کنید. Cloud Shell یک محیط آنلاین آماده برای توسعه‌دهنده با مجموعه‌ای از ابزارهای مورد علاقه از پیش نصب شده و 5 گیگابایت فضای ذخیره‌سازی پایدار فراهم می‌کند. در مراحل بعدی از خط فرمان استفاده خواهید کرد.

با استفاده از آیکونی که در سمت راست بالای نوار منو قرار دارد و در تصویر زیر با دایره آبی مشخص شده است، یک پوسته ابری گوگل (Google Cloud Shell) راه‌اندازی کنید.

کنسول ابری گوگل راه‌اندازی شد

شما باید یک ترمینال با پوسته Bash در پایین صفحه ببینید.

کنسول ابری گوگل

۲-ج: تنظیم پروژه ابری گوگل

شما باید شناسه پروژه و منطقه پروژه را با استفاده از دستور gcloud تنظیم کنید.

# Set your GCP Project ID.
gcloud config set project your-project-id

# Set your GCP Project Region.
gcloud config set run/region your-project-region

۳. ایمیج داکر سرور برنامه LIT را با Cloud Run مستقر کنید

۳-الف: اپلیکیشن LIT را روی Cloud Run مستقر کنید

ابتدا باید آخرین نسخه LIT-App را به عنوان نسخه‌ای که قرار است مستقر شود، تنظیم کنید.

# Set latest version as your LIT_SERVICE_TAG.
export LIT_SERVICE_TAG=latest
# List all the public LIT GCP App server docker images.
gcloud container images  list-tags  us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-lit-app

پس از تنظیم برچسب نسخه، باید سرویس را نامگذاری کنید.

# Set your lit service name. While 'lit-app-service' is provided as a placeholder, you can customize the service name based on your preferences.
export LIT_SERVICE_NAME=lit-app-service

پس از آن، می‌توانید دستور زیر را برای استقرار کانتینر در Cloud Run اجرا کنید.

# Use below cmd to deploy the LIT App to Cloud Run.
gcloud run deploy $LIT_SERVICE_NAME \
--image us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-lit-app:$LIT_SERVICE_TAG \
--port 5432 \
--cpu 8 \
--memory 32Gi \
--no-cpu-throttling \
--no-allow-unauthenticated

LIT همچنین به شما امکان می‌دهد هنگام راه‌اندازی سرور، مجموعه داده‌ها را اضافه کنید. برای انجام این کار، متغیر DATASETS را طوری تنظیم کنید که داده‌هایی را که می‌خواهید بارگذاری کنید، با استفاده از فرمت name:path ، مثلاً data_foo:/bar/data_2024.jsonl ، شامل کند. فرمت مجموعه داده‌ها باید .jsonl باشد، که در آن هر رکورد شامل فیلدهای prompt و target و source اختیاری است. برای بارگذاری چندین مجموعه داده، آنها را با کاما از هم جدا کنید. در صورت عدم تنظیم، مجموعه داده‌های نمونه اشکال‌زدایی prompt LIT بارگذاری خواهد شد.

# Set the dataset.
export DATASETS=[DATASETS]

با تنظیم MAX_EXAMPLES، می‌توانید حداکثر تعداد مثال‌ها را برای بارگذاری از هر مجموعه ارزیابی تعیین کنید.

# Set the max examples.
export MAX_EXAMPLES=[MAX_EXAMPLES]

سپس، در دستور deploy، می‌توانید اضافه کنید

--set-env-vars "DATASETS=$DATASETS" \
--set-env-vars "MAX_EXAMPLES=$MAX_EXAMPLES" \

۳-ب: مشاهده سرویس اپلیکیشن LIT

پس از ایجاد سرور LIT App، می‌توانید این سرویس را در بخش Cloud Run از Cloud Console پیدا کنید.

سرویس LIT App که ایجاد کرده‌اید را انتخاب کنید. مطمئن شوید که نام سرویس با LIT_SERVICE_NAME یکسان باشد.

لیست اجرای ابری کنسول ابری گوگل

شما می‌توانید با کلیک روی سرویسی که اخیراً مستقر کرده‌اید، آدرس اینترنتی سرویس را پیدا کنید.

آدرس اینترنتی سرویس جستجوی ابری گوگل

سپس باید بتوانید رابط کاربری LIT را مشاهده کنید. اگر با خطایی مواجه شدید، بخش عیب‌یابی را بررسی کنید.

نسخه آزمایشی LIT

شما می‌توانید بخش LOGS را برای نظارت بر فعالیت، مشاهده پیام‌های خطا و پیگیری پیشرفت استقرار بررسی کنید.

گزارش اجرای ابری کنسول گوگل کلود

برای مشاهده معیارهای سرویس، می‌توانید بخش METRICS را بررسی کنید.

معیارهای اجرای ابری کنسول ابری گوگل

۳-ج: بارگذاری مجموعه داده‌ها

روی گزینه Configure در رابط کاربری LIT کلیک کنید، Dataset انتخاب کنید. با مشخص کردن یک نام و ارائه URL مجموعه داده، مجموعه داده را بارگذاری کنید. فرمت مجموعه داده باید .jsonl باشد، که در آن هر رکورد شامل فیلدهای prompt و target و source اختیاری است.

مجموعه داده بارگذاری LIT

۴. مدل‌های Gemini را در Vertex AI Model Garden آماده کنید

مدل‌های پایه Gemini گوگل از طریق API هوش مصنوعی Vertex در دسترس هستند. LIT بسته‌بندی مدل VertexAIModelGarden را برای استفاده از این مدل‌ها برای تولید ارائه می‌دهد. کافیست نسخه مورد نظر (مثلاً "gemini-1.5-pro-001") را از طریق پارامتر نام مدل مشخص کنید. مزیت کلیدی استفاده از این مدل‌ها این است که برای استقرار نیازی به تلاش اضافی ندارند. به طور پیش‌فرض، شما به مدل‌هایی مانند Gemini 1.0 Pro و Gemini 1.5 Pro در GCP دسترسی فوری دارید و نیاز به مراحل پیکربندی اضافی را از بین می‌برید.

۴-الف: مجوزهای هوش مصنوعی Vertex را اعطا کنید

برای پرس‌وجو از Gemini در GCP، باید مجوزهای Vertex AI را به حساب سرویس اعطا کنید. مطمئن شوید که نام حساب سرویس Default compute service account باشد. ایمیل حساب سرویس را کپی کنید.

حساب‌های سرویس GCP

ایمیل حساب سرویس را به عنوان یک مدیر با نقش Vertex AI User در لیست مجاز IAM خود اضافه کنید.

افزودن حساب‌های کاربری سرویس ایمیل

۴-ب: بارگذاری مدل‌های جمینی

شما مدل‌های Gemini را بارگذاری کرده و پارامترهای آن را طبق مراحل زیر تنظیم خواهید کرد.

    1. روی گزینه Configure در رابط کاربری LIT کلیک کنید.
    1. گزینه‌ی gemini را در زیر گزینه‌ی Select a base model انتخاب کنید.
    1. شما باید مدل را در new_name نامگذاری کنید.
    1. مدل‌های جمینی انتخابی خود را به عنوان model_name وارد کنید.
    1. روی Load Model کلیک کنید.
    1. Submit کلیک کنید.

مدل Gemini با بار LIT

۵. سرور مدل LLM های خود-میزبان را روی GCP مستقر کنید

LLM های خود میزبان با تصویر داکر سرور مدل LIT به شما امکان می دهد از توابع salience و tokenize LIT برای به دست آوردن بینش عمیق تر در مورد رفتار مدل استفاده کنید. تصویر سرور مدل با مدل های KerasNLP یا Hugging Face Transformers ، از جمله وزن های ارائه شده توسط کتابخانه و خود میزبان، به عنوان مثال، در Google Cloud Storage، کار می کند.

۵-الف: پیکربندی مدل‌ها

هر کانتینر یک مدل را بارگذاری می‌کند که با استفاده از متغیرهای محیطی پیکربندی شده است.

شما باید مدل‌هایی را که می‌خواهید بارگذاری کنید با تنظیم MODEL_CONFIG مشخص کنید. فرمت باید name:path باشد، برای مثال model_foo:model_foo_path . مسیر می‌تواند یک URL، یک مسیر فایل محلی یا نام یک پیش‌تنظیم برای چارچوب یادگیری عمیق پیکربندی شده باشد (برای اطلاعات بیشتر به جدول زیر مراجعه کنید). این سرور با Gemma، GPT2، Llama و Mistral روی تمام مقادیر DL_FRAMEWORK پشتیبانی شده آزمایش شده است. مدل‌های دیگر باید کار کنند، اما ممکن است نیاز به تنظیماتی باشد.

# Set models you want to load. While 'gemma2b is given as a placeholder, you can load your preferred model by following the instructions above.
export MODEL_CONFIG=gemma2b:gemma_2b_en

علاوه بر این، سرور مدل LIT امکان پیکربندی متغیرهای محیطی مختلف را با استفاده از دستور زیر فراهم می‌کند. لطفاً برای جزئیات بیشتر به جدول مراجعه کنید. توجه داشته باشید که هر متغیر باید به صورت جداگانه تنظیم شود.

# Customize the variable value as needed.
export [VARIABLE]=[VALUE]

متغیر

ارزش‌ها

توضیحات

چارچوب DL

kerasnlp ، transformers

کتابخانه مدل‌سازی مورد استفاده برای بارگذاری وزن‌های مدل در زمان اجرای مشخص شده. مقدار پیش‌فرض kerasnlp است.

زمان اجرای DL

torch ، tensorflow

چارچوب بک‌اند یادگیری عمیق که مدل روی آن اجرا می‌شود. تمام مدل‌های بارگذاری شده توسط این سرور از بک‌اند یکسانی استفاده می‌کنند، ناسازگاری‌ها منجر به خطا می‌شوند. مقدار پیش‌فرض torch است.

دقت

bfloat16 ، float32

دقت اعشاری برای مدل‌های LLM. پیش‌فرض روی bfloat16 است.

اندازه دسته

اعداد صحیح مثبت

تعداد مثال‌هایی که باید در هر دسته پردازش شوند. پیش‌فرض 1 است.

طول توالی

اعداد صحیح مثبت

حداکثر طول توالی اعلان ورودی به علاوه متن تولید شده. مقدار پیش‌فرض 512 است.

۵-ب: استقرار سرور مدل در Cloud Run

ابتدا باید آخرین نسخه Model Server را به عنوان نسخه‌ای که قرار است مستقر شود، تنظیم کنید.

# Set latest as MODEL_VERSION_TAG.
export MODEL_VERSION_TAG=latest
# List all the public LIT GCP model server docker images.
gcloud container images  list-tags  us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-model-server

پس از تنظیم برچسب نسخه، باید نامی برای مدل-سرور خود تعیین کنید.

# Set your Service name.
export MODEL_SERVICE_NAME='gemma2b-model-server'

پس از آن، می‌توانید دستور زیر را برای استقرار کانتینر در Cloud Run اجرا کنید. اگر متغیرهای محیطی را تنظیم نکنید، مقادیر پیش‌فرض اعمال می‌شوند. از آنجایی که اکثر LLMها به منابع محاسباتی گران‌قیمتی نیاز دارند، اکیداً توصیه می‌شود از GPU استفاده کنید. اگر ترجیح می‌دهید فقط روی CPU اجرا شود (که برای مدل‌های کوچک مانند GPT2 خوب کار می‌کند)، می‌توانید آرگومان‌های مرتبط --gpu 1 --gpu-type nvidia-l4 --max-instances 7 را حذف کنید.

# Deploy the model service container.
gcloud beta run deploy $MODEL_SERVICE_NAME \
--image us-east4-docker.pkg.dev/lit-demos/lit-app/gcp-model-server:$MODEL_VERSION_TAG \
--port 5432 \
--cpu 8 \
--memory 32Gi \
--no-cpu-throttling \
--gpu 1 \
--gpu-type nvidia-l4  \
--max-instances 7  \
--set-env-vars "MODEL_CONFIG=$MODEL_CONFIG" \
--no-allow-unauthenticated

علاوه بر این، می‌توانید متغیرهای محیطی را با اضافه کردن دستورات زیر سفارشی کنید. فقط متغیرهای محیطی را که برای نیازهای خاص شما ضروری هستند، اضافه کنید.

--set-env-vars "DL_FRAMEWORK=$DL_FRAMEWORK" \
--set-env-vars "DL_RUNTIME=$DL_RUNTIME" \
--set-env-vars "PRECISION=$PRECISION" \
--set-env-vars "BATCH_SIZE=$BATCH_SIZE" \
--set-env-vars "SEQUENCE_LENGTH=$SEQUENCE_LENGTH" \

ممکن است برای دسترسی به مدل‌های خاص، متغیرهای محیطی اضافی لازم باشد. در صورت لزوم، به دستورالعمل‌های Kaggle Hub (مورد استفاده برای مدل‌های KerasNLP) و Hugging Face Hub مراجعه کنید.

۵-ج: سرور مدل دسترسی

پس از ایجاد سرور مدل، سرویس آغاز شده را می‌توانید در بخش Cloud Run پروژه GCP خود پیدا کنید.

سرور مدلی که ایجاد کرده‌اید را انتخاب کنید. مطمئن شوید که نام سرویس با MODEL_SERVICE_NAME یکسان باشد.

لیست اجرای ابری کنسول ابری گوگل

شما می‌توانید با کلیک روی سرویس مدلی که اخیراً مستقر کرده‌اید، آدرس اینترنتی سرویس را پیدا کنید.

آدرس اینترنتی سرویس جستجوی ابری گوگل

شما می‌توانید بخش LOGS را برای نظارت بر فعالیت، مشاهده پیام‌های خطا و پیگیری پیشرفت استقرار بررسی کنید.

گزارش اجرای ابری کنسول گوگل کلود

برای مشاهده معیارهای سرویس، می‌توانید بخش METRICS را بررسی کنید.

معیارهای اجرای ابری کنسول ابری گوگل

۵-د: بارگذاری مدل‌های خود-میزبان

اگر در مرحله ۳ (بخش عیب‌یابی را بررسی کنید) سرور LIT خود را پروکسی کرده‌اید، باید با اجرای دستور زیر، توکن هویت GCP خود را دریافت کنید.

# Find your GCP identity token.
gcloud auth print-identity-token

شما مدل‌های خود-میزبان را بارگذاری کرده و پارامترهای آن را طبق مراحل زیر تنظیم خواهید کرد.

  1. روی گزینه Configure در رابط کاربری LIT کلیک کنید.
  2. گزینه LLM (self hosted) را در زیر گزینه Select a base model انتخاب کنید.
  3. شما باید مدل را در new_name نامگذاری کنید.
  4. آدرس سرور مدل خود را به عنوان base_url وارد کنید.
  5. اگر سرور برنامه LIT را پروکسی می‌کنید، توکن هویت به‌دست‌آمده را در identity_token وارد کنید (به مرحله ۳ و مرحله ۷ مراجعه کنید). در غیر این صورت، آن را خالی بگذارید.
  6. روی Load Model کلیک کنید.
  7. Submit کلیک کنید.

مدل‌های LLM بار LIT

۶. تعامل با LIT در GCP

LIT مجموعه‌ای غنی از ویژگی‌ها را برای کمک به شما در اشکال‌زدایی و درک رفتارهای مدل ارائه می‌دهد. می‌توانید کاری به سادگی پرس‌وجو از مدل، با تایپ متن در یک کادر و مشاهده پیش‌بینی‌های مدل، انجام دهید یا مدل‌ها را با مجموعه ویژگی‌های قدرتمند LIT، از جمله موارد زیر، به طور عمیق بررسی کنید:

۶-الف: از طریق LIT مدل را جستجو کنید

LIT پس از بارگذاری مدل و مجموعه داده، به طور خودکار از مجموعه داده پرس و جو می‌کند. می‌توانید با انتخاب پاسخ در ستون‌ها، پاسخ هر مدل را مشاهده کنید.

پاسخ نمای LIT

پاسخ LIT

۶-ب: از تکنیک برجستگی توالی استفاده کنید

در حال حاضر، تکنیک Sequence Salience در LIT فقط از مدل‌های self-hosted پشتیبانی می‌کند.

Sequence Salience ابزاری بصری است که با برجسته کردن بخش‌هایی از یک prompt که برای یک خروجی مشخص مهم‌تر هستند، به اشکال‌زدایی از LLM promptها کمک می‌کند. برای اطلاعات بیشتر در مورد Sequence Salience، آموزش کامل را برای نحوه استفاده از این ویژگی بررسی کنید.

برای دسترسی به نتایج برجستگی، روی هر ورودی یا خروجی در اعلان یا پاسخ کلیک کنید تا نتایج برجستگی نمایش داده شود.

نتایج برجستگی توالی LIT

۶-ج: دستور و هدف ویرایش مانولای

LIT به شما امکان می‌دهد هرگونه prompt و target برای نقطه داده موجود به صورت دستی ویرایش کنید. با کلیک روی Add ، ورودی جدید به مجموعه داده اضافه می‌شود.

ویرایش LIT مانولی

۶-د: مقایسه سریع در کنار هم

LIT به شما امکان می‌دهد تا پاسخ (prompt) را در نمونه‌های اصلی و ویرایش‌شده، در کنار هم مقایسه کنید. می‌توانید یک نمونه را به صورت دستی ویرایش کنید و نتیجه پیش‌بینی و تحلیل برجستگی توالی (Sequence Salience) را برای هر دو نسخه اصلی و ویرایش‌شده به طور همزمان مشاهده کنید. می‌توانید پاسخ (prompt) را برای هر نقطه داده تغییر دهید و LIT با پرس‌وجو از مدل، پاسخ مربوطه را تولید می‌کند.

مجموعه داده‌های مقایسه‌ای LIT

۶-ه: مقایسه چندین مدل در کنار هم

LIT امکان مقایسه پهلو به پهلو مدل‌ها را در نمونه‌های تولید متن و امتیازدهی منفرد، و همچنین در نمونه‌های تجمیع‌شده برای معیارهای خاص فراهم می‌کند. با پرس‌وجو از مدل‌های بارگذاری‌شده مختلف، می‌توانید به راحتی تفاوت‌های موجود در پاسخ‌های آنها را مقایسه کنید.

پاسخ مدل مقایسه LIT

۶-ج: مولدهای خودکار خلاف واقع

شما می‌توانید از مولدهای خودکار خلاف واقع برای ایجاد ورودی‌های جایگزین استفاده کنید و بلافاصله ببینید که مدل شما چگونه روی آنها رفتار می‌کند.

LIT به طور خودکار ورودی تولید می‌کند

۶-ز: ارزیابی عملکرد مدل

شما می‌توانید عملکرد مدل را با استفاده از معیارها (در حال حاضر از نمرات BLEU و ROUGE برای تولید متن پشتیبانی می‌شود) در کل مجموعه داده‌ها یا هر زیرمجموعه‌ای از نمونه‌های فیلتر شده یا انتخاب شده ارزیابی کنید.

معیارهای مدل مشاهده LIT

۷. عیب‌یابی

۷-الف: مشکلات احتمالی دسترسی و راه‌حل‌ها

از آنجایی که هنگام استقرار در Cloud Run، از --no-allow-unauthenticated استفاده می‌شود، ممکن است با خطاهای ممنوعه مانند آنچه در زیر نشان داده شده است، مواجه شوید.

خطای ممنوعه گوگل کلود

دو روش برای دسترسی به سرویس اپلیکیشن LIT وجود دارد.

۱. پروکسی به سرویس محلی

شما می‌توانید با استفاده از دستور زیر، سرویس را به میزبان محلی پروکسی کنید.

# Proxy the service to local host.
gcloud run services proxy $LIT_SERVICE_NAME

سپس باید بتوانید با کلیک روی لینک سرویس پروکسی به سرور LIT دسترسی پیدا کنید.

۲. احراز هویت مستقیم کاربران

شما می‌توانید برای تأیید اعتبار کاربران و دسترسی مستقیم به سرویس برنامه LIT، از این لینک استفاده کنید. این رویکرد همچنین می‌تواند گروهی از کاربران را قادر به دسترسی به سرویس کند. برای توسعه‌هایی که شامل همکاری با چندین نفر است، این گزینه مؤثرتری است.

۷-ب: بررسی می‌کند تا از راه‌اندازی موفقیت‌آمیز سرور مدل اطمینان حاصل شود.

برای اطمینان از راه‌اندازی موفقیت‌آمیز سرور مدل، می‌توانید با ارسال یک درخواست، مستقیماً از سرور مدل پرس‌وجو کنید. سرور مدل سه نقطه پایانی، predict ، tokenize و salience را ارائه می‌دهد. مطمئن شوید که هم فیلد prompt و هم فیلد target را در درخواست خود ارائه می‌دهید.

# Query the model server predict endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/predict -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

# Query the model server tokenize endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/tokenize -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

# Query the model server salience endpoint.
curl -X POST  http://YOUR_MODEL_SERVER_URL/salience -H "Content-Type: application/json" -d '{"inputs":[{"prompt":"[YOUR PROMPT]", "target":[YOUR TARGET]}]}'

اگر با مشکل دسترسی مواجه شدید، بخش ۷-الف بالا را بررسی کنید.

۸. تبریک

آفرین که آزمایشگاه کد رو تموم کردی! وقت استراحته!

تمیز کردن

برای پاکسازی آزمایشگاه، تمام سرویس‌های ابری گوگل که برای آزمایشگاه ایجاد شده‌اند را حذف کنید. از پوسته ابری گوگل برای اجرای دستورات زیر استفاده کنید.

اگر اتصال Google Cloud به دلیل عدم فعالیت قطع شد، متغیرها را طبق مراحل قبلی تنظیم مجدد کنید.

# Delete the LIT App Service.
gcloud run services delete $LIT_SERVICE_NAME

اگر model server را اجرا کرده‌اید، باید model server را نیز حذف کنید.

# Delete the Model Service.
gcloud run services delete $MODEL_SERVICE_NAME

مطالعه بیشتر

یادگیری ویژگی‌های ابزار LIT را با مطالب زیر ادامه دهید:

  • جما: لینک
  • پایه کد متن‌باز LIT: مخزن گیت
  • مقاله LIT: ArXiv
  • مقاله اشکال‌زدایی سریع LIT: ArXiv
  • نسخه نمایشی ویدیوی بلند LIT: یوتیوب
  • نسخه آزمایشی اشکال‌زدایی اعلان LIT: یوتیوب
  • جعبه ابزار GenAI مسئول: لینک

تماس

برای هرگونه سوال یا مشکلی در مورد این آزمایشگاه کد، لطفاً از طریق گیت‌هاب با ما در ارتباط باشید.

مجوز

این اثر تحت مجوز عمومی Creative Commons Attribution 4.0 منتشر شده است.