داده‌های CSV را با استفاده از Cloud Data Fusion - انتقال دسته‌ای به BigQuery وارد کنید

1. مقدمه

12fb66cc134b50ef.png

آخرین به روز رسانی: 2020-02-28

این آزمایشگاه کد یک الگوی دریافت داده را برای وارد کردن داده های مراقبت بهداشتی با فرمت CSV در BigQuery به صورت انبوه نشان می دهد. ما از Cloud Data fusion Batch Data Pipeline برای این آزمایشگاه استفاده خواهیم کرد. داده‌های واقعی آزمایش مراقبت‌های بهداشتی در سطل فضای ذخیره‌سازی Google Cloud ( gs://hcls_testing_data_fhir_10_patients/csv/ ) برای شما ایجاد و در دسترس قرار گرفته است.

در این آزمایشگاه کد یاد خواهید گرفت:

  • نحوه دریافت داده‌های CSV (بارگیری دسته‌ای برنامه‌ریزی‌شده) از GCS به BigQuery با استفاده از Cloud Data Fusion .
  • نحوه ایجاد بصری خط لوله یکپارچه سازی داده در Cloud Data Fusion برای بارگیری، تبدیل و پوشاندن داده های مراقبت های بهداشتی به صورت انبوه .

برای اجرای این کد لبه به چه چیزی نیاز دارید؟

  • شما نیاز به دسترسی به یک پروژه GCP دارید.
  • باید نقش مالک برای پروژه GCP به شما اختصاص داده شود.
  • داده های مراقبت های بهداشتی در قالب CSV، از جمله هدر.

اگر پروژه GCP ندارید، این مراحل را برای ایجاد یک پروژه GCP جدید دنبال کنید.

داده های مراقبت های بهداشتی در قالب CSV از قبل در سطل GCS در gs://hcls_testing_data_fhir_10_patients/csv/ بارگذاری شده است. هر فایل CSV منبع دارای ساختار طرحواره منحصر به فرد خود است. برای مثال Patients.csv طرحی متفاوت از Providers.csv دارد. فایل های طرحواره از پیش بارگذاری شده را می توانید در gs://hcls_testing_data_fhir_10_patients/csv_schemas پیدا کنید.

اگر به یک مجموعه داده جدید نیاز دارید، همیشه می توانید آن را با استفاده از SyntheaTM ایجاد کنید. سپس، به جای کپی کردن آن از سطل در مرحله Copy input data، آن را در GCS آپلود کنید.

2. راه اندازی پروژه GCP

متغیرهای پوسته را برای محیط خود راه اندازی کنید.

برای یافتن PROJECT_ID ، به شناسایی پروژه ها مراجعه کنید.

<!-- CODELAB: Initialize shell variables ->
<!-- Your current GCP Project ID ->
export PROJECT_ID=<PROJECT_ID>
<!-- A new GCS Bucket in your current Project  - INPUT ->
export BUCKET_NAME=<BUCKET_NAME>
<!-- A new BQ Dataset ID - OUTPUT ->
export DATASET_ID=<DATASET_ID>

سطل GCS را برای ذخیره داده های ورودی و گزارش خطا با استفاده از ابزار gsutil ایجاد کنید .

gsutil mb -l us gs://$BUCKET_NAME

به مجموعه داده مصنوعی دسترسی پیدا کنید.

  1. از آدرس ایمیلی که برای ورود به کنسول Cloud استفاده می‌کنید، یک ایمیل به hcls-solutions-external+subscribe@google.com ارسال کنید تا بپیوندید.
  2. شما یک ایمیل حاوی دستورالعمل هایی در مورد نحوه تایید عمل دریافت خواهید کرد. 525a0fa752e0acae.png
  3. برای عضویت در گروه از گزینه پاسخ به ایمیل استفاده کنید. روی دکمه کلیک نکنید.
  4. پس از دریافت ایمیل تأیید، می‌توانید به مرحله بعدی در لبه کد بروید.

کپی کردن داده های ورودی

gsutil -m cp -r gs://hcls_testing_data_fhir_10_patients/csv gs://$BUCKET_NAME

یک مجموعه داده BigQuery ایجاد کنید.

bq mk --location=us --dataset $PROJECT_ID:$DATASET_ID

3. Cloud Data Fusion Environment Setup

برای فعال کردن Cloud Data Fusion API و دادن مجوزهای لازم، این مراحل را دنبال کنید:

API ها را فعال کنید

  1. به کتابخانه GCP Console API بروید.
  2. از لیست پروژه ها، پروژه خود را انتخاب کنید.
  3. در کتابخانه API، API مورد نظر برای فعال کردن را انتخاب کنید. اگر برای یافتن API به کمک نیاز دارید، از قسمت جستجو و/یا فیلترها استفاده کنید.
  4. در صفحه API، روی ENABLE کلیک کنید.

یک نمونه Cloud Data Fusion ایجاد کنید .

  1. در کنسول GCP، ID Project خود را انتخاب کنید.
  2. Data Fusion را از منوی سمت چپ انتخاب کنید، سپس روی دکمه CREATE AN INSTANCE در وسط صفحه کلیک کنید (اولین ایجاد)، یا روی دکمه CREATE INSTANCE در منوی بالا کلیک کنید (ایجاد اضافی).

a828690ff3bf3c46.png

8372c944c94737ea.png

  1. نام نمونه را وارد کنید. Enterprise را انتخاب کنید.

5af91e46917260ff.png

  1. روی دکمه CREATE کلیک کنید.

راه اندازی مجوزهای نمونه

پس از ایجاد یک نمونه، از مراحل زیر برای اعطای مجوز به حساب سرویس مرتبط با مجوزهای نمونه در پروژه خود استفاده کنید:

  1. با کلیک کردن روی نام نمونه، به صفحه جزئیات نمونه بروید.

76ad691f795e1ab3.png

  1. حساب سرویس را کپی کنید.

6c91836afb72209d.png

  1. به صفحه IAM پروژه خود بروید.
  2. در صفحه مجوزهای IAM، اکنون حساب سرویس را به عنوان یک عضو جدید اضافه می کنیم و نقش Cloud Data Fusion API Service Agent را به آن می دهیم. روی دکمه افزودن کلیک کنید، سپس «حساب سرویس» را در قسمت اعضای جدید جای‌گذاری کنید و Service Management -> Cloud Data Fusion API Server Agent را انتخاب کنید.
  3. ea68b28d917a24b1.png
  4. روی ذخیره کلیک کنید.

پس از انجام این مراحل، می‌توانید با کلیک کردن روی پیوند View Instance در صفحه نمونه‌های Cloud Data Fusion یا صفحه جزئیات یک نمونه، استفاده از Cloud Data Fusion را شروع کنید.

قانون فایروال را تنظیم کنید.

  1. برای بررسی اینکه آیا قانون پیش فرض-allow-ssh وجود دارد یا خیر، به کنسول GCP -> VPC Network -> قوانین فایروال بروید.

102adef44bbe3a45.png

  1. اگر نه، یک قانون فایروال اضافه کنید که به تمام ترافیک SSH ورودی به شبکه پیش فرض اجازه می دهد.

با استفاده از خط فرمان:

gcloud beta compute --project={PROJECT_ID} firewall-rules create default-allow-ssh --direction=INGRESS --priority=1000 --network=default --action=ALLOW --rules=tcp:22 --source-ranges=0.0.0.0/0 --enable-logging

با استفاده از UI: روی ایجاد قانون فایروال کلیک کنید و اطلاعات را پر کنید:

d9c69ac10496b3d9.png

2dc4971594b82a1f.png

4. یک طرحواره برای تبدیل بسازید

اکنون که محیط Cloud Fusion را در GCP داریم، بیایید یک طرح واره بسازیم. ما به این طرح برای تبدیل داده های CSV نیاز داریم.

  1. در پنجره Cloud Data Fusion، روی پیوند View Instance در ستون Action کلیک کنید. به صفحه دیگری هدایت خواهید شد. برای باز کردن نمونه Cloud Data Fusion، روی URL ارائه شده کلیک کنید. انتخاب شما برای کلیک بر روی دکمه "شروع تور" یا "نه، متشکرم" در پنجره بازشو خوش آمدید.
  2. منوی "همبرگر" را گسترش دهید، Pipeline -> Studio را انتخاب کنید

6561b13f30e36c3a.png

  1. در قسمت Transform در پالت Plugin در سمت چپ، روی گره Wrangler دوبار کلیک کنید، که در UI Data Pipelines ظاهر می شود.

aa44a4db5fe6623a.png

  1. به گره Wrangler اشاره کنید و روی Properties کلیک کنید. روی دکمه Wrangle کلیک کنید، سپس یک فایل منبع .csv (به عنوان مثال، بیماران.csv) را انتخاب کنید، که باید دارای تمام فیلدهای داده برای ساخت طرح مورد نظر باشد.
  2. روی فلش رو به پایین (تغییر ستون) در کنار نام هر ستون (مثلاً بدنه) کلیک کنید. 802edca8a97da18.png
  3. به طور پیش فرض، واردات اولیه فرض می کند که فقط یک ستون در فایل داده شما وجود دارد. برای تجزیه آن به عنوان CSV، ParseCSV را انتخاب کنید، سپس جداکننده را انتخاب کنید و کادر "Set first row as header" را علامت بزنید. روی دکمه Apply کلیک کنید.
  4. روی فلش پایین کنار فیلد بدنه کلیک کنید، برای حذف قسمت بدنه، گزینه Delete Column را انتخاب کنید. علاوه بر این، می‌توانید تبدیل‌های دیگری مانند حذف ستون‌ها، تغییر نوع داده برای برخی از ستون‌ها (پیش‌فرض نوع «رشته»)، تقسیم ستون‌ها، تنظیم نام ستون‌ها و غیره را امتحان کنید.

e6d2cda51ff298e7.png

  1. برگه‌های «ستون‌ها» و «مراحل تبدیل» طرح خروجی و دستور Wrangler را نشان می‌دهند. روی Apply در گوشه سمت راست بالا کلیک کنید. روی دکمه Validate کلیک کنید. علامت سبز "هیچ خطایی یافت نشد" نشان دهنده موفقیت است.

1add853c43f2abee.png

  1. در ویژگی‌های Wrangler، روی منوی کرکره‌ای Actions کلیک کنید تا در صورت نیاز، طرح مورد نظر را در فضای ذخیره‌سازی محلی خود برای واردات آینده صادر کنید .
  2. دستور غذای Wrangler را برای استفاده در آینده ذخیره کنید.
parse-as-csv :body ',' true
drop body
  1. برای بستن پنجره Wrangler Properties، روی دکمه X کلیک کنید.

5. گره هایی برای خط لوله بسازید

در این بخش اجزای خط لوله را می سازیم.

  1. در رابط کاربری Data Pipelines، در سمت چپ بالا، باید ببینید که Data Pipeline - Batch به عنوان نوع خط لوله انتخاب شده است.

af67c42ce3d98529.png

  1. بخش‌های مختلفی در پنل سمت چپ به‌عنوان فیلتر، منبع، تبدیل، تجزیه و تحلیل، سینک، شرایط و اقدامات، کنترل‌کننده‌های خطا و هشدارها وجود دارد که می‌توانید یک گره یا گره‌ها را برای خط لوله انتخاب کنید.

c4438f7682f8b19b.png

گره منبع

  1. گره منبع را انتخاب کنید.
  2. در قسمت Source در پالت Plugin در سمت چپ، روی گره Google Cloud Storage که در رابط کاربری Data Pipelines ظاهر می شود، دوبار کلیک کنید.
  3. به گره منبع GCS اشاره کنید و روی Properties کلیک کنید.

87e51a3e8dae8b3f.png

  1. فیلدهای مورد نیاز را پر کنید. فیلدهای زیر را تنظیم کنید:
  • برچسب = {هر متن}
  • نام مرجع = {هر متن}
  • شناسه پروژه = شناسایی خودکار
  • مسیر = URL GCS به سطل در پروژه فعلی شما. برای مثال، gs://$BUCKET_NAME/csv/
  • قالب = متن
  • فیلد مسیر = نام فایل
  • فقط نام فایل مسیر = درست است
  • خواندن فایل ها به صورت بازگشتی = درست است
  1. با کلیک بر روی دکمه + ، فیلد "نام فایل" را به طرح خروجی GCS اضافه کنید.
  2. برای توضیح دقیق روی Documentation کلیک کنید. روی دکمه Validate کلیک کنید. علامت سبز "هیچ خطایی یافت نشد" نشان دهنده موفقیت است.
  3. برای بستن ویژگی های GCS، روی دکمه X کلیک کنید.

تبدیل گره

  1. گره Transform را انتخاب کنید.
  2. در قسمت Transform در پالت Plugin در سمت چپ، روی گره Wrangler که در رابط کاربری Data Pipelines ظاهر می شود، دوبار کلیک کنید. گره منبع GCS را به گره تبدیل Wrangler متصل کنید.
  3. به گره Wrangler اشاره کنید و روی Properties کلیک کنید.
  4. روی گزینه Actions کلیک کنید و برای وارد کردن یک طرح ذخیره شده، Import را انتخاب کنید (به عنوان مثال: gs://hcls_testing_data_fhir_10_patients/csv_schemas/ schema (Patients).json )، و دستور العمل ذخیره شده از بخش قبلی را جای‌گذاری کنید .
  5. یا، از گره Wrangler از بخش: Build a schema for transformation استفاده مجدد کنید.
  6. فیلدهای مورد نیاز را پر کنید. فیلدهای زیر را تنظیم کنید:
  • برچسب = {هر متن}
  • نام فیلد ورودی = {*}
  • پیش شرط = {filename != "patients.csv"} برای تشخیص هر فایل ورودی ( به عنوان مثال، بیماران.csv، providers.csv، allergies.csv، و غیره ) از گره منبع.

2426f8f0a6c4c670.png

  1. یک گره جاوا اسکریپت برای اجرای جاوا اسکریپت ارائه شده توسط کاربر که رکوردها را بیشتر تغییر می دهد، اضافه کنید. در این لبه کد، از گره جاوا اسکریپت برای دریافت مهر زمانی برای هر به‌روزرسانی رکورد استفاده می‌کنیم. گره تبدیل Wrangler را به گره تبدیل جاوا اسکریپت متصل کنید. JavaScript Properties را باز کنید و تابع زیر را اضافه کنید:

75212f9ad98265a8.png

function transform(input, emitter, context) {
  input.TIMESTAMP = (new Date()).getTime()*1000;
  emitter.emit(input);
}
  1. فیلدی به نام TIMESTAMP را با کلیک بر روی علامت + به طرح خروجی (اگر وجود ندارد) اضافه کنید. مهر زمانی را به عنوان نوع داده انتخاب کنید.

4227389b57661135.png

  1. برای توضیح دقیق روی Documentation کلیک کنید. بر روی دکمه Validate کلیک کنید تا تمام اطلاعات ورودی تایید شود. سبز "هیچ خطایی یافت نشد" نشان دهنده موفقیت است.
  2. برای بستن پنجره Transform Properties روی دکمه X کلیک کنید.

پوشاندن داده ها و هویت زدایی

  1. می‌توانید با کلیک بر روی فلش رو به پایین در ستون و اعمال قوانین پنهان‌سازی در زیر انتخاب داده‌های ماسک، طبق نیاز خود، ستون‌های داده جداگانه را انتخاب کنید (به عنوان مثال، ستون SSN).

bb1eb067dd6e0946.png

  1. می توانید دستورالعمل های بیشتری را در پنجره Recipe گره Wrangler اضافه کنید. به عنوان مثال، با استفاده از دستورالعمل هش با الگوریتم هش که از این نحو پیروی می کند، برای اهداف شناسایی حذف می شود:
hash <column> <algorithm> <encode>

<column>: name of the column
<algorithm>: Hashing algorithm (i.e. MD5, SHA-1, etc.)
<encode>: default is true (hashed digest is encoded as hex with left-padding zeros). To disable hex encoding, set <encode> to false.

cbcc9a0932f53197.png

گره سینک

  1. گره سینک را انتخاب کنید.
  2. در قسمت Sink در پالت Plugin در سمت چپ، روی گره BigQuery دوبار کلیک کنید، که در رابط کاربری Data Pipeline ظاهر می شود.
  3. به گره سینک BigQuery اشاره کنید و روی Properties کلیک کنید.

1be711152c92c692.png

  1. فیلدهای الزامی را پر کنید. فیلدهای زیر را تنظیم کنید:
  • برچسب = {هر متن}
  • نام مرجع = {هر متن}
  • شناسه پروژه = شناسایی خودکار
  • مجموعه داده = مجموعه داده BigQuery مورد استفاده در پروژه فعلی (یعنی DATASET_ID)
  • جدول = {نام جدول}
  1. برای توضیح دقیق روی Documentation کلیک کنید. بر روی دکمه Validate کلیک کنید تا تمام اطلاعات ورودی تایید شود. سبز "هیچ خطایی یافت نشد" نشان دهنده موفقیت است.

c5585747da2ef341.png

  1. برای بستن BigQuery Properties، روی دکمه X کلیک کنید.

6. خط لوله داده دسته ای بسازید

اتصال تمام گره ها در یک خط لوله

  1. یک فلش اتصال > روی لبه سمت راست گره مبدا را بکشید و روی لبه سمت چپ گره مقصد رها کنید.
  2. یک خط لوله می تواند چندین شاخه داشته باشد که فایل های ورودی را از همان گره منبع GCS دریافت می کند.

67510ab46bd44d36.png

  1. خط لوله را نام ببرید.

همین است. شما به تازگی اولین خط لوله داده دسته ای خود را ایجاد کرده اید و می توانید خط لوله را مستقر کرده و اجرا کنید.

ارسال هشدارهای خط لوله از طریق ایمیل (اختیاری)

برای استفاده از ویژگی Pipeline Alert SendEmail، پیکربندی نیاز به یک سرور ایمیل برای ارسال نامه از یک نمونه ماشین مجازی دارد. برای اطلاعات بیشتر به لینک مرجع زیر مراجعه کنید:

ارسال ایمیل از یک نمونه | مستندات موتور محاسباتی

در این کد لبه، ما با استفاده از مراحل زیر یک سرویس رله نامه را از طریق Mailgun راه اندازی کردیم:

  1. دستورالعمل های ارسال ایمیل با Mailgun | را دنبال کنید برای تنظیم یک حساب کاربری با Mailgun و پیکربندی سرویس رله ایمیل ، مستندات موتور را محاسبه کنید . تغییرات اضافی در زیر آمده است.
  2. آدرس های ایمیل تمام گیرندگان را به لیست مجاز Mailgun اضافه کنید. این لیست را می توانید در گزینه Mailgun>Sending>Overview در پانل سمت چپ پیدا کنید.

7e6224cced3fa4e0.pngfa78739f1ddf2dc2.png

هنگامی که گیرندگان روی ایمیل ارسال شده از support@mailgun.net روی "موافقم" کلیک کنند، آدرس ایمیل آنها در لیست مجاز برای دریافت ایمیل های هشدار خط لوله ذخیره می شود.

72847c97fd5fce0f.png

  1. مرحله 3 از بخش "قبل از شروع" - یک قانون فایروال را به صورت زیر ایجاد کنید:

75b063c165091912.png

  1. مرحله 3 از "پیکربندی Mailgun به عنوان یک رله نامه با Postfix". همانطور که در دستورالعمل ذکر شد، به جای Local Only ، Internet Site یا Internet with smarthost را انتخاب کنید.

8fd8474a4ef18f16.png

  1. مرحله 4 "پیکربندی Mailgun به عنوان یک رله نامه با Postfix". برای افزودن 10.128.0.0/9 در انتهای mynetworks ، vi /etc/postfix/main.cf را ​​ویرایش کنید.

249fbf3edeff1ce8.png

  1. برای تغییر smtp پیش فرض (25) به پورت 587، vi /etc/postfix/master.cf را ​​ویرایش کنید.

86c82cf48c687e72.png

  1. در گوشه سمت راست بالای استودیو Data Fusion، روی Configure کلیک کنید. روی Pipeline alert کلیک کنید و روی دکمه + کلیک کنید تا پنجره Alerts باز شود. SendEmail را انتخاب کنید.

dc079a91f1b0da68.png

  1. فرم پیکربندی ایمیل را پر کنید. تکمیل، موفقیت یا شکست را از منوی کشویی Run Condition برای هر نوع هشدار انتخاب کنید. اگر Include Workflow Token = false ، فقط اطلاعات قسمت Message ارسال می شود. اگر Include Workflow Token = true ، اطلاعات مربوط به قسمت Message و Workflow Token اطلاعات دقیق ارسال می شود. برای پروتکل باید از حروف کوچک استفاده کنید. از هر ایمیل " جعلی " غیر از آدرس ایمیل شرکت خود برای فرستنده استفاده کنید .

1fa619b6ce28f5e5.png

7. پیکربندی، استقرار، اجرای/برنامه ریزی خط لوله

db612e62a1c7ab7e.png

  1. در گوشه سمت راست بالای استودیو Data Fusion، روی Configure کلیک کنید. Spark for Engine Config را انتخاب کنید. روی Save در پنجره Configure کلیک کنید.

8ecf7c243c125882.png

  1. روی پیش‌نمایش برای پیش‌نمایش داده‌**، ** کلیک کنید و دوباره روی **پیش‌نمایش** کلیک کنید تا به پنجره قبلی برگردید. همچنین می توانید خط لوله را در حالت پیش نمایش **اجرا کنید**.

b3c891e5e1aa20ae.png

  1. برای مشاهده گزارش‌ها روی Logs کلیک کنید.
  2. برای ذخیره همه تغییرات روی ذخیره کلیک کنید.
  3. برای وارد کردن پیکربندی ذخیره شده خط لوله هنگام ساخت خط لوله جدید، روی واردات کلیک کنید.
  4. برای صادر کردن پیکربندی خط لوله، روی Export کلیک کنید.
  5. برای استقرار خط لوله روی Deploy کلیک کنید.
  6. پس از استقرار، روی Run کلیک کنید و منتظر بمانید تا خط لوله کامل شود.

bb06001d46a293db.png

  1. با انتخاب Duplicate در زیر دکمه Actions می توانید خط لوله را کپی کنید.
  2. با انتخاب Export در زیر دکمه Actions می توانید پیکربندی خط لوله را صادر کنید.
  3. در لبه چپ یا راست پنجره استودیو، بر روی Inbound triggers یا Outbound triggers کلیک کنید تا در صورت تمایل، محرک های خط لوله را تنظیم کنید.
  4. برای برنامه ریزی خط لوله برای اجرا و بارگیری دوره ای داده ها، روی زمان بندی کلیک کنید.

4167fa67550a49d5.png

  1. خلاصه نمودارهای تاریخچه اجرا، سوابق، سیاهههای مربوط به خطا و هشدارها را نشان می دهد.

8. اعتبار سنجی

  1. خط لوله اعتبارسنجی با موفقیت اجرا شد.

7dee6e662c323f14.png

  1. اگر مجموعه داده BigQuery همه جداول را دارد، اعتبارسنجی کنید.
bq ls $PROJECT_ID:$DATASET_ID
     tableId       Type    Labels   Time Partitioning
----------------- ------- -------- -------------------
 Allergies         TABLE
 Careplans         TABLE
 Conditions        TABLE
 Encounters        TABLE
 Imaging_Studies   TABLE
 Immunizations     TABLE
 Medications       TABLE
 Observations      TABLE
 Organizations     TABLE
 Patients          TABLE
 Procedures        TABLE
 Providers         TABLE
  1. ایمیل های هشدار را دریافت کنید (در صورت پیکربندی).

مشاهده نتایج

برای مشاهده نتایج پس از اجرای خط لوله:

  1. جدول را در رابط کاربری BigQuery جستجو کنید. به UI BIGQUERY بروید
  2. پرس و جو زیر را به نام پروژه، مجموعه داده و جدول خود به روز کنید.

e32bfd5d965a117f.png

9. تمیز کردن

برای جلوگیری از تحمیل هزینه به حساب Google Cloud Platform برای منابع استفاده شده در این آموزش:

پس از پایان آموزش، می‌توانید منابعی را که در GCP ایجاد کرده‌اید پاکسازی کنید تا سهمیه شما را نگیرند و در آینده برای آنها صورت‌حساب دریافت نخواهید کرد. بخش‌های زیر نحوه حذف یا خاموش کردن این منابع را توضیح می‌دهند.

حذف مجموعه داده BigQuery

برای حذف مجموعه داده BigQuery که به عنوان بخشی از این آموزش ایجاد کرده اید، این دستورالعمل ها را دنبال کنید.

حذف سطل GCS

برای حذف سطل GCS که به عنوان بخشی از این آموزش ایجاد کرده اید، این دستورالعمل ها را دنبال کنید.

حذف نمونه Cloud Data Fusion

این دستورالعمل ها را دنبال کنید تا نمونه Cloud Data Fusion خود را حذف کنید .

حذف پروژه

ساده ترین راه برای حذف صورتحساب، حذف پروژه ای است که برای آموزش ایجاد کرده اید.

برای حذف پروژه:

  1. در کنسول GCP، به صفحه پروژه ها بروید. به صفحه پروژه ها بروید
  2. در لیست پروژه، پروژه ای را که می خواهید حذف کنید انتخاب کنید و روی Delete کلیک کنید.
  3. در محاوره، شناسه پروژه را تایپ کنید و سپس روی Shut down کلیک کنید تا پروژه حذف شود.

10. تبریک می گویم

تبریک می‌گوییم، شما با موفقیت آزمایشگاه کد را برای دریافت داده‌های مراقبت‌های بهداشتی در BigQuery با استفاده از Cloud Data Fusion تکمیل کردید.

داده‌های CSV را از Google Cloud Storage به BigQuery وارد کردید.

شما به صورت بصری خط لوله یکپارچه سازی داده ها را برای بارگیری، تبدیل و پوشاندن داده های مراقبت های بهداشتی به صورت انبوه ساخته اید.

اکنون مراحل کلیدی مورد نیاز برای شروع سفر تجزیه و تحلیل داده‌های بهداشت و درمان خود را با BigQuery در Google Cloud Platform می‌دانید.