DEV Community

Atsumi
Atsumi

Posted on

1

AI Platform Pipelinesを触ってみる

AI Platform Pipelinesとは

Kubeflow pipelinesを、GCP上に簡単にセットアップしてくれるGCPサービス。

Kubeflow Pipelinesとは

Kubeflowは、機械学習にまつわるワークフロー(前処理、モデルビルド、デプロイなど)をKubernetes上で管理するための一連のソフトウェア。

Kubeflow PipelinesはKubeflowが提供するコンポーネントの一つで、機械学習にまつわるジョブの流れ(パイプライン)を管理する。

TFXとの関係

パイプラインの構成

パイプラインは、複数のコンポーネントのDAGから成る。

出典は公式ドキュメント

コンポーネントは、

  • コンテナイメージ
  • インプットパラメータ
  • アウトプット

から成る。

出典は公式ドキュメント

Getting Started!

環境構築

公式ドキュメントの通りに実施。

インストールされたコンポーネント

$ kubectl get deploy
NAME                              READY   UP-TO-DATE   AVAILABLE   AGE
cache-deployer-deployment         1/1     1            1           10m
cache-server                      1/1     1            1           10m
metadata-envoy                    1/1     1            1           10m
metadata-grpc-deployment          1/1     1            1           10m
metadata-writer                   1/1     1            1           9m59s
minio                             1/1     1            1           9m59s
ml-pipeline                       1/1     1            1           10m
ml-pipeline-persistenceagent      1/1     1            1           10m
ml-pipeline-scheduledworkflow     1/1     1            1           10m
ml-pipeline-ui                    1/1     1            1           10m
ml-pipeline-viewer-crd            1/1     1            1           10m
ml-pipeline-visualizationserver   1/1     1            1           10m
mysql                             1/1     1            1           9m59s
proxy-agent                       1/1     1            1           10m
workflow-controller               1/1     1            1           10m

$ kubectl get cm
NAME                            DATA   AGE
cache-configmap                 4      10m
gcp-default-config              3      10m
inverse-proxy-config            3      10m
metadata-grpc-configmap         2      10m
metadata-mysql-configmap        3      10m
workflow-controller-configmap   1      10m

$ kubectl get crd
NAME                                           CREATED AT
applications.app.k8s.io                        2020-05-31T05:19:02Z
backendconfigs.cloud.google.com                2020-05-31T05:19:12Z
capacityrequests.internal.autoscaling.k8s.io   2020-05-31T05:18:57Z
managedcertificates.networking.gke.io          2020-05-31T05:19:05Z
releaserollbacks.app.gke.io                    2020-05-31T05:19:03Z
releasetracks.app.gke.io                       2020-05-31T05:19:02Z
scalingpolicies.scalingpolicy.kope.io          2020-05-31T05:18:59Z
scheduledworkflows.kubeflow.org                2020-05-31T05:23:14Z
storagestates.migration.k8s.io                 2020-05-31T05:19:07Z
storageversionmigrations.migration.k8s.io      2020-05-31T05:19:06Z
updateinfos.nodemanagement.gke.io              2020-05-31T05:19:09Z
viewers.kubeflow.org                           2020-05-31T05:23:14Z
workflows.argoproj.io                          2020-05-31T05:23:14Z

非常に多くのコンポーネントがインストールされています。手動でのインストールは大変そうですね・・・。

実際、Kubeflowの公式インストール手順は多くのステップがあります。クラウドの恩恵を感じます。
https://www.kubeflow.org/docs/gke/deploy/

argo workflowsがインストールされており、kubeflow pipelinesのジョブはargoのジョブとして実際には起動されているようです。

サンプルジョブを動かす

いくつかのサンプルが用意されています。ドキュメントの通り、「[Tutorial] Data passing in python components」を動かします。

ビューからは、パイプラインの状況やログ、IN/OUTなどを確認できます。リトライやジョブ介ジューリグもあり、ジョブフローとして一通りのものは揃っており、完成度は高そうに感じます。単純にairflowの代替としての利用もありえるのではないかなと思いました。

あとはスケジュール実行ジョブの設定を、airflowのように一覧でみられるビューがあればなお良さそう。

job view

サンプルジョブの中身を拝見

動かすだけではつまらないので、サンプルジョブのソースコードを見てみます。

  • kfpというPythonライブラリを利用して作られている。
  • 具体的には、kfp.func_to_container_opというデコレータを利用して、関数をKubeflow pipelinesのコンポーネントとして登録している
  • 上記をkfp.compiler.Compiler.compileすることで、これらのPythonコードをkubeflowで実行可能なyamlに変換している。
    • Pythonコードはyamlの中にベタガキにする、Dockerイメージとしてまとめる、のオプションがある
  • DAGの依存関係については、パラメータの受け渡しから自動的に算出されてるぽいので、airflowのようにマニュアルに管理しなくて良いのがよさそう
  • 今回のサンプルはkfpだけで完結していますが、tfxを使ってDAGを定義することもできるようです。機械学習モデルを作成するための様々な便利ライブラリが用意されているので、実運用ではtfxを多く利用することになりそうと感じました。

まとめ

一旦はここまで。argo workflowsの力もあってか、ジョブフローエンジンとしての完成度がとても高く感じました。また、使いやすそうなSDKも良い。kubeflowのその他様々なコンポーネントとどのくらいシームレスに繋がれるのか確認してみたいと思います。

Image of Datadog

The Future of AI, LLMs, and Observability on Google Cloud

Datadog sat down with Google’s Director of AI to discuss the current and future states of AI, ML, and LLMs on Google Cloud. Discover 7 key insights for technical leaders, covering everything from upskilling teams to observability best practices

Learn More

Top comments (0)

A Workflow Copilot. Tailored to You.

Pieces.app image

Our desktop app, with its intelligent copilot, streamlines coding by generating snippets, extracting code from screenshots, and accelerating problem-solving.

Read the docs

👋 Kindness is contagious

Please leave a ❤️ or a friendly comment on this post if you found it helpful!

Okay