パケット データソース

プロセスの説明

このプロセスでは、情報ソースやその他のビューに基づいて Parquet データソースを作成し、.parquetファイルを Azure Data Lake Gen 2 ストレージ フォルダーに読み込みます。

新しい Parquet データソースを追加します:

IFS Cloud Web を通じて、Parquet データソースを作成して保存できます。ソースの起源ロード タイプの選択は、要件に応じて必要なカラムを実行できます。

Parquet データソースをロードします。

Parquet データソースが作成されると、ターゲット データ レイクの宛先 (セルフホスト データ レイク、IFS.ai プラットフォーム データ レイク) にロードできます。ロードすると、定義されたフォルダーに .parquet ファイルが作成され、Oracle から ADLSG2 にデータが移動されます。読み込みアクションは、分析モデル、ワークロード ジョブ定義を介して、または Parquet データソースを読み込むための明示的なトリガーに基づいてトリガーできます。新しいデータソースを作成するときに、特定の宛先を定義できます。それ以外の場合は、トリガーのケースに基づいて決定されます。

ソース作成中、ロード タイプを選択することができ、Parquet データソースの更新プロセス中に、.parquetファイルは指定のロード タイプに基づいて作成されます。

既存の Parquet データソースを編集します。

Parquet データソースが読み込まれると、Parquet データソースを編集するオプションが表示されます。

  1. 年齢の最大値の編集
  2. カラムの編集
  3. 説明の編集
  4. 宛先の編集
  5. 増分ロードの詳細の編集

編集が完了したら、IFS Cloud Web 経由で明示的なロードを実行し、 ADLS 第 2 世代で変更を反映させる必要がありま。

Parquet データソースのインポート/エクスポート:

読み込んだ Parquet データソースは、ある環境からエクスポートし、別の環境 (DEV、UAT/PROD から) にインポートできます。