1. はじめに
最終更新日: 2020 年 2 月 28 日
この Codelab では、CSV 形式の医療データを BigQuery に一括で取り込むためのデータ取り込みパターンについて説明します。このラボでは、Cloud Data Fusion の Batch Data パイプラインを使用します。現実的な医療検査データが生成され、Google Cloud Storage バケット(gs://hcls_testing_data_fhir_10_patients/csv/)で利用できるようになります。
この Codelab では、以下について学びます。
- Cloud Data Fusion を使用して GCS から BigQuery に CSV データを取り込む(バッチ スケジュール読み込み)方法。
- 医療データを一括で読み込み、変換、マスキングするためのデータ統合パイプラインを Cloud Data Fusion で視覚的に構築する方法。
この Codelab を実行するには何が必要ですか?
- GCP プロジェクトへのアクセス権が必要です。
- GCP プロジェクトのオーナーのロールが割り当てられている必要があります。
- ヘッダーを含む CSV 形式の医療データ。
GCP プロジェクトが存在しない場合は、こちらの手順に沿って新しい GCP プロジェクトを作成します。
CSV 形式の医療データは、gs://hcls_testing_data_fhir_10_patients/csv/ で GCS バケットにプリロードされています。各リソースの CSV ファイルには、固有のスキーマ構造があります。たとえば、Patients.csv と Providers.csv のスキーマは異なります。プリロードされたスキーマ ファイルは gs://hcls_testing_data_fhir_10_patients/csv_schemas にあります。
新しいデータセットが必要な場合は、SyntheaTM を使用していつでも生成できます。入力データのコピーのステップでバケットからコピーするのではなく、GCS にアップロードします。
2. GCP プロジェクトの設定
環境のシェル変数を初期化します。
PROJECT_ID を確認するには、プロジェクトの識別をご覧ください。
<!-- CODELAB: Initialize shell variables -> <!-- Your current GCP Project ID -> export PROJECT_ID=<PROJECT_ID> <!-- A new GCS Bucket in your current Project - INPUT -> export BUCKET_NAME=<BUCKET_NAME> <!-- A new BQ Dataset ID - OUTPUT -> export DATASET_ID=<DATASET_ID>
gsutil ツールを使用して、入力データとエラーログを保存する GCS バケットを作成します。
gsutil mb -l us gs://$BUCKET_NAME
合成データセットへのアクセス権を取得します。
- Cloud コンソールへのログインに使用しているメールアドレスから、hcls-solutions-external+subscribe@google.com 宛てにメールを送信し、参加をリクエストします。
- 操作の確認方法が記載されたメールが届きます。
- メールに返信するオプションを使用してグループに参加します。このボタンはクリックしないでください。
- 確認メールが届いたら、Codelab の次のステップに進むことができます。
入力データをコピーする。
gsutil -m cp -r gs://hcls_testing_data_fhir_10_patients/csv gs://$BUCKET_NAME
BigQuery データセットを作成します。
bq mk --location=us --dataset $PROJECT_ID:$DATASET_ID
3. Cloud Data Fusion 環境の設定
次の手順に沿って Cloud Data Fusion API を有効化し、必要な権限を付与します。
API を有効にします。
- GCP Console API ライブラリに移動します。
- プロジェクト リストからプロジェクトを選択します。
- API ライブラリで、有効にする API を選択します。API を検索する場合は、検索フィールドやフィルタを使用します。
- [API] ページで、[有効にする] をクリックします。
Cloud Data Fusion インスタンスを作成します。
- GCP コンソールで、プロジェクト ID を選択します。
- 左側のメニューから [Data Fusion] を選択し、ページの中央にある [インスタンスを作成] ボタンをクリックする(最初の作成)か、上部のメニューにある [インスタンスを作成] ボタンをクリックします(追加作成)。
- インスタンス名を入力します。[Enterprise] を選択します。
- [作成] ボタンをクリックします。
インスタンスの権限を設定する。
インスタンスを作成したら、次の手順に沿って、インスタンスに関連付けられたサービス アカウントにプロジェクトの権限を付与します。
- インスタンス名をクリックして、インスタンスの詳細ページに移動します。
- サービス アカウントをコピーします。
- プロジェクトの IAM ページに移動します。
- IAM の権限のページで、サービス アカウントを新しいメンバーとして追加し、Cloud Data Fusion API サービス エージェントのロールを付与します。[追加] ボタンをクリックし、「サービス アカウント」を貼り付けます。[新しいメンバー] フィールドで [サービス管理] ->Cloud Data Fusion API サーバー エージェントのロール。
- [保存] をクリックします。
これらの手順を完了したら、Cloud Data Fusion インスタンス ページまたはインスタンスの詳細ページで [インスタンスを表示] リンクをクリックして、Cloud Data Fusion の使用を開始できます。
ファイアウォール ルールを設定します。
- GCP コンソール ->VPC ネットワーク ->default-allow-ssh ルールが存在するかどうかを確認するファイアウォール ルール。
- そうでない場合は、デフォルト ネットワークへのすべての上り(内向き)SSH トラフィックを許可するファイアウォール ルールを追加します。
コマンドラインを使用する場合:
gcloud beta compute --project={PROJECT_ID} firewall-rules create default-allow-ssh --direction=INGRESS --priority=1000 --network=default --action=ALLOW --rules=tcp:22 --source-ranges=0.0.0.0/0 --enable-logging
UI を使用する場合: [ファイアウォール ルールを作成] をクリックして、情報を入力します。
4. 変換用のスキーマを構築する
GCP に Cloud Fusion 環境ができたので、スキーマを作成しましょう。このスキーマは CSV データを変換するために必要です。
- Cloud Data Fusion ウィンドウで、[アクション] 列の [インスタンスを表示] リンクをクリックします。別のページにリダイレクトされます。表示された [url] をクリックして、Cloud Data Fusion インスタンスを開きます。[ガイドを見る] をクリックするかどうかの選択または「利用しない」[ようこそ]ポップアップが表示されます
- 「ハンバーガー」セクションを展開します[パイプライン] ->スタジオ
- 左側のプラグイン パレットの [Transform] セクションで、[Wrangler] ノードをダブルクリックします。このノードが Data Pipelines UI に表示されます。
- Wrangler ノードにカーソルを合わせ、[Properties] をクリックします。[Wrangle] ボタンをクリックし、.csv ソースファイル(例: pattals.csv)を選択します。目的のスキーマを構築するには、すべてのデータ フィールドが必要です。
- 各列名(body など)の横にある下矢印(列の変換)をクリックします。
- デフォルトでは、最初のインポートでは、データファイル内に列が 1 つしかないと想定されます。CSV として解析するには、[Parse] → [CSV] の順に選択し、区切り文字を選択して [Set first row as header] チェックボックスをオンにします。選択します。[適用] ボタンをクリックします。
- [Body] フィールドの横の下矢印をクリックし、[Delete Column] を選択して [Body] フィールドを削除します。さらに、列の削除、一部の列のデータ型の変更(デフォルトは「string」型)、列の分割、列名の設定など、他の変換を試すこともできます。
- 「列」ご覧くださいタブには、出力スキーマと Wrangler のレシピが表示されています。右上にある [適用] をクリックします。[検証] ボタンをクリックします。緑色の [No errors found]成功を示します。
- [Wrangler Properties] で [Actions] プルダウンをクリックし、必要に応じて今後 [Import] を選択できるように、目的のスキーマをローカル ストレージにエクスポートします。
- 今後使用するために Wrangler レシピを保存します。
parse-as-csv :body ',' true drop body
- [X] ボタンをクリックして [Wrangler Properties] ウィンドウを閉じます。
5. パイプライン用のノードをビルドする
このセクションでは、パイプライン コンポーネントを構築します。
- Data Pipelines UI の左上で、パイプライン タイプとして [Data Pipeline - Batch] が選択されていることを確認します。
- 左側のパネルには、[フィルタ]、[ソース]、[変換]、[分析]、[シンク]、[条件とアクション]、[エラーハンドラ]、[アラート] などのさまざまなセクションがあり、パイプラインのノードを選択できます。
ソースノード
- ソースノードを選択します。
- 左側のプラグイン パレットの [Source] セクションで、Data Pipelines UI に表示されている [Google Cloud Storage] ノードをダブルクリックします。
- GCS ソースノードにカーソルを合わせて、[Properties] をクリックします。
- 必須項目に入力します。次のフィールドを設定します。
- ラベル = {任意のテキスト}
- 参照名 = {任意のテキスト}
- プロジェクト ID = 自動検出
- パス = 現在のプロジェクト内のバケットへの GCS URL。例: gs://$BUCKET_NAME/csv/
- Format = テキスト
- パス フィールド = ファイル名
- Path Filename Only = true
- Read Files Recursively = true
- フィールド「filename」を追加GCS Output Schema に追加する場合は、[+] ボタンをクリックします。
- 詳しい説明については、[Documentation] をクリックしてください。[検証] ボタンをクリックします。緑色の [No errors found]成功を示します。
- GCS プロパティを閉じるには、[X] ボタンをクリックします。
node を変換する
- 変換ノードを選択します。
- 左側のプラグイン パレットの [Transform] セクションで、Data Pipelines UI に表示される [Wrangler] ノードをダブルクリックします。GCS ソースノードを Wrangler 変換ノードに接続します。
- Wrangler ノードにカーソルを合わせ、[Properties] をクリックします。
- [Actions] プルダウンをクリックして [Import] を選択して、保存したスキーマ(例: gs://hcls_testing_data_fhir_10_patients/csv_schemas/ schema (Patients).json)をインポートし、前のセクションの保存したレシピを貼り付けます。
- または、変換用のスキーマを構築するセクションの Wrangler ノードを再利用します。
- 必須項目に入力します。次のフィールドを設定します。
- ラベル = {任意のテキスト}
- 入力フィールド名 = {*}
- 前提条件 = {filename != "patients.csv"} は、各入力ファイル(例: patient.csv、providers.csv、allergies.csv)とソースノードを区別します。
- レコードをさらに変換するユーザー提供の JavaScript を実行する JavaScript ノードを追加します。この Codelab では、JavaScript ノードを使用してレコードが更新されるたびにタイムスタンプを取得します。Wrangler 変換ノードを JavaScript 変換ノードに接続します。JavaScript の [プロパティ] を開き、次の関数を追加します。
function transform(input, emitter, context) { input.TIMESTAMP = (new Date()).getTime()*1000; emitter.emit(input); }
- + 記号をクリックして、TIMESTAMP という名前のフィールドを出力スキーマに追加します(存在しない場合)。データ型としてタイムスタンプを選択します。
- 詳しい説明については、[Documentation] をクリックしてください。[検証] ボタンをクリックして、すべての入力情報を検証します。緑色: エラーは見つかりませんでした成功を示します。
- [Transform Properties] ウィンドウを閉じるには、[X] ボタンをクリックします。
データのマスキングと匿名化
- 列の下矢印をクリックし、要件に応じて [マスクデータの選択] でマスキング ルールを適用することで、個々のデータ列を選択できます(例: SSN 列)。
- Wrangler ノードの [Recipe] ウィンドウでディレクティブを追加できます。たとえば、匿名化を目的として、次の構文に従うハッシュ アルゴリズムでハッシュ ディレクティブを使用します。
hash <column> <algorithm> <encode> <column>: name of the column <algorithm>: Hashing algorithm (i.e. MD5, SHA-1, etc.) <encode>: default is true (hashed digest is encoded as hex with left-padding zeros). To disable hex encoding, set <encode> to false.
シンクノード
- シンクノードを選択します。
- 左側のプラグイン パレットの [Sink] セクションで BigQuery ノードをダブルクリックすると、データ パイプライン UI に表示されます。
- BigQuery シンクノードにカーソルを合わせて [プロパティ] をクリックします。
- 必須項目に入力します。次のフィールドを設定します。
- ラベル = {任意のテキスト}
- 参照名 = {任意のテキスト}
- プロジェクト ID = 自動検出
- データセット = 現在のプロジェクトで使用されている BigQuery データセット(DATASET_ID)
- テーブル = {テーブル名}
- 詳しい説明については、[Documentation] をクリックしてください。[検証] ボタンをクリックして、すべての入力情報を検証します。緑色: エラーは見つかりませんでした成功を示します。
- BigQuery のプロパティを閉じるには、[X] ボタンをクリックします。
6. バッチ データ パイプラインを構築する
パイプラインのすべてのノードを接続する
- 接続用の矢印をドラッグ >をドロップします。
- パイプラインには、同じ GCS ソースノードから入力ファイルを取得する複数のブランチを設定できます。
- パイプラインに名前を付けます。
以上です。最初の Batch データ パイプラインを作成できました。パイプラインをデプロイして実行できます。
パイプラインのアラートをメールで送信する(省略可)
Pipeline Alert SendEmail 機能を利用するには、仮想マシン インスタンスからメールを送信するようにメールサーバーを設定する必要があります。詳しくは、以下のリファレンス リンクをご覧ください。
インスタンスからのメールの送信 |Compute Engine ドキュメント
この Codelab では、次の手順で Mailgun を介したメールリレー サービスを設定します。
- Mailgun でメールを送信する |Compute Engine のドキュメントを参照して、Mailgun でアカウントを設定し、メールリレー サービスを構成します。その他の変更は以下のとおりです。
- すべての受信者を追加'メールアドレスを Mailgun の承認済みリストに追加します。このリストは、左側のパネルの [Mailgun] > [send] > [Overview] オプションで確認できます。
受信者が [同意する]をクリックしたらsupport@mailgun.net から送信されたメールで、これらのユーザーのメールアドレスが承認済みリストに保存され、パイプライン アラートのメールを受信します。
- 「始める前に」のステップ 3セクション - 次のようにファイアウォール ルールを作成します。
- 「Postfix でメールリレーとして Mailgun を構成する」のステップ 3手順に沿って [Local Only] ではなく、[Internet Site] または [Internet with smarthost] を選択します。
- 「Postfix でメールリレーとして Mailgun を構成する」のステップ 4vi /etc/postfix/main.cf を編集して、mynetworks の最後に 10.128.0.0/9 を追加します。
- vi /etc/postfix/master.cf を編集して、デフォルトの smtp(25)をポート 587 に変更します。
- Data Fusion Studio の右上にある [構成] をクリックします。[Pipeline alert] をクリックし、[+] ボタンをクリックして [Alerts] ウィンドウを開きます。[SendEmail] を選択します。
- [メール] 設定フォームに入力します。各アラートの種類の [Run Condition] プルダウンから、[Complete]、[success]、または [failure] を選択します。[Include Workflow Token] = false の場合は、[Message] フィールドの情報のみが送信されます。[Include Workflow Token] = true の場合、[Message] フィールドの情報とワークフロー トークンの詳細情報が送信されます。[プロトコル] には小文字を使用する必要があります。「架空」を使用する[Sender] の会社以外のメールアドレス。
7. パイプラインの構成、デプロイ、実行/スケジュール
- Data Fusion Studio の右上にある [構成] をクリックします。[エンジン構成] で [Spark] を選択します。[構成] ウィンドウで [保存] をクリックします。
- [プレビュー] をクリックしてデータをプレビューし、もう一度 [**プレビュー**] をクリックして前のウィンドウに戻ります。プレビュー モードでパイプラインを [**実行**] することもできます。
- [ログ] をクリックしてログを表示します。
- [保存] をクリックしてすべての変更を保存します。
- 新しいパイプラインの構築時に保存したパイプライン構成をインポートするには、[インポート] をクリックします。
- [エクスポート] をクリックして、パイプライン構成をエクスポートします。
- [デプロイ] をクリックしてパイプラインをデプロイします。
- デプロイしたら [Run] をクリックし、パイプラインの実行が完了するのを待ちます。
- [アクション] ボタンの下にある [複製] を選択すると、パイプラインを複製できます。
- パイプライン構成をエクスポートするには、[Actions] ボタンで [Export] を選択します。
- 必要に応じてパイプライン トリガーを設定するには、Studio ウィンドウの左端または右端で [インバウンド トリガー] または [アウトバウンド トリガー] をクリックします。
- [Schedule] をクリックして、パイプラインの実行とデータの読み込みをスケジュールします。
- [サマリー] には、実行履歴、レコード、エラーログ、警告のグラフが表示されます。
8. 確認事項
- 検証パイプラインが正常に実行されました。
- BigQuery データセットにすべてのテーブルがあるかどうかを確認します。
bq ls $PROJECT_ID:$DATASET_ID
tableId Type Labels Time Partitioning
----------------- ------- -------- -------------------
Allergies TABLE
Careplans TABLE
Conditions TABLE
Encounters TABLE
Imaging_Studies TABLE
Immunizations TABLE
Medications TABLE
Observations TABLE
Organizations TABLE
Patients TABLE
Procedures TABLE
Providers TABLE
- アラートメールを受信する(構成されている場合)。
結果の表示
パイプラインの実行後、次の手順で結果を確認します。
- BigQuery UI でテーブルにクエリを実行します。BigQuery UI に移動
- 以下のクエリを、実際のプロジェクト名、データセット、テーブルに変更します。
9. クリーンアップ
このチュートリアルで使用したリソースについて、Google Cloud Platform アカウントに課金されないようにする手順は次のとおりです。
チュートリアルが終了したら、GCP で作成したリソースをクリーンアップして、今後料金が発生しないようにします。次のセクションで、このようなリソースを削除または無効にする方法を説明します。
BigQuery データセットの削除
手順に沿って、このチュートリアルで作成した BigQuery データセットを削除します。
GCS バケットの削除
手順に沿って、このチュートリアルで作成した GCS バケットを削除します。
Cloud Data Fusion インスタンスの削除
Cloud Data Fusion インスタンスの削除の手順に沿って操作します。
プロジェクトの削除
課金を停止する最も簡単な方法は、チュートリアル用に作成したプロジェクトを削除することです。
プロジェクトを削除するには、次の操作を行います。
- GCP Console でプロジェクト ページに移動します。プロジェクト ページに移動
- プロジェクト リストで、削除するプロジェクトを選択し、[削除] をクリックします。
- ダイアログでプロジェクト ID を入力し、[シャットダウン] をクリックしてプロジェクトを削除します。
10.完了
これで、Cloud Data Fusion を使用して BigQuery に医療データを取り込む Codelab が完了しました。
CSV データを Google Cloud Storage から BigQuery にインポートしました。
医療データを一括で読み込み、変換、マスキングするためのデータ統合パイプラインを視覚的に構築しました。
ここでは、Google Cloud Platform で BigQuery を使用して医療データ分析の取り組みを開始するために必要な主な手順を学習しました。