データ フロー
Data flowは、1つ以上のソースから1つ以上の送信先にデータを取り込み、処理し、移動させるために使用できる、拡張性と回復力に優れたデータパイプラインです。 各データフローは、パイプライン内のデータを変換するコンポーネントで構成され、イベント戦略、戦略、およびテキスト分析を使用してデータ処理を充実させます。 コンポーネントは、ソースに始まり送信先で終わるデータを処理するために、同時に実行されます。
次のようなさまざまな方法でデータを処理するデータフローを作成できます。
バルクデータフローは、有限のデータセット経由で送受信して、最終的に処理を完了します。 バルクデータフローは、主に大量のデータを処理する場合に使用されます。
リアルタイムデータフローは、無限のデータセット経由で送受信します。 リアルタイムデータフローは常にアクティブで、受信ストリームデータおよびリクエストを処理し続けます。
シングルケースデータフローは、抽象型に設定したデータフローソースを使用して、リクエストに応じて実行されます。 シングルケースデータフローは、主に受信データの処理に使用されます。
データフローを作成して、データソース間でデータを処理および移動します。 データフローシェープの追加や、他のビジネスルールを参照したより複雑なデータ操作を行うことで、データフローをカスタマイズします。 たとえば、シンプルなデータフローでは、1つのデータセットからデータを移動させ、フィルターを適用し、その結果を別のデータセットに保存できます。 より複雑なデータフローでは、他のデータフローによって取得したり、データ処理用の戦略を適用したり、ケースを開いたり、データフローの結果としてアクティビティをトリガーしたりすることができます。
同時に大量のアクティブなデータフローを実行すると、システムリソースを消耗する可能性があります。 データフロー処理を効率的に行うために、ダイナミックシステム設定を設定して、ノードタイプ用に同時に実行するアクティブなデータフローの数を制限できます。
Kafkaを使用したリアルタイムイベント処理
Pega Customer Service™およびPega Customer Decision Hub™には、リアルタイムイベントを処理するデフォルトのイベントストリームサービスがあります。 必要に応じて、Pega MarketingまたはPega Customer Decision Hubを設定して、外部のKafkaクラスターに切り替えることで、Apache Kafkaで提供される高いパフォーマンスとスケーラビリティを利用することもできます。
イベントは、リアルタイムのマーケティング機会に対応するためのメカニズムです。 イベントは、外部または内部のシステムによって開始され、キャンペーンの実行をトリガーすることができます。 たとえば、UPlus Bankに当座預金口座を所有する顧客が銀行のATMにアクセスした場合に、その行動がイベントストリームサービスに認識され、イベントをマッピングしたキャンペーンがトリガーされます。 その結果、ATMの画面にUPlus Bankが広告を出したい新規クレジットカードオファーが顧客に表示されます。 デフォルトでは、イベント処理はイベントストリームサービスで処理されます。
キュープロセッサーは、ストリームデータセットとそれに対応するデータフローを自動的に生成します。 ストリームデータセットは、ストリームサービスとの間でメッセージの送受信を行います。 データフローは、メッセージの処理を確実に行うために、メッセージのサブスクリプションを管理します。
Admin StudioのQueueProcessorsランディングページで、システムのキュープロセッサーのルールに対応するデータフローを表示できます。 このランディングページから、すべてのキュープロセッサールールに関連したデータフローを開き、バックグラウンドプロセスの監視および診断を行うことができます。 また、このランディングページでは、キュープロセッサールールをトレース、有効化、および無効化できるほか、REST APIを使用してこれらと同様の機能も実行できます。
キュープロセッサールールはDSMサービスに依存しています。 ストリームノードは自動的に設定され、Pega Cloud Servicesおよびクライアントマネージドクラウド環境で使用する準備ができています。 オンプレミス環境の場合、-DNodeType=Stream 設定を使用して、クラスター内の1つ以上のノードをストリームノードとして定義するようにしてください。