Ask a question
Limited-Time Offer: 50% off IBM TechXchange Conference 2025
IBM’s largest technical learning event is back October 6-9 in Orlando, FL
IBM Process Miningは、通常、1つまたは複数のITアプリケーションから抽出された履歴データとともに使用され、現状のプロセスを分析し、ビジネス目標を達成するためのプロセス改善を決定します。
IBM Process Mining 1.13.2の新機能データ・ ストリームは、外部プログラムから REST API を使用してイベント ログをプッシュする代わりに使用できます。Kafkaのようなストリームプラットフォームを採用したクライアントにとって、データ・ストリームは、プロセスマイニング・プロジェクトを定期的に新しいイベントで更新するための貴重な方法です。
KafkaはPublish/Subscribeモデルの非同期型の通信基盤トピックと呼ばれるメッセージキューを介してProducerとConsumerがデータをやり取りします。Kafka トピックは、何かイベントが発生するたびにイベント ソースがデータを送信(Push)するバッファーとして使用されます。イベントは Kafka トピックに格納されます。
連携のシナリオとして、Githubでissueをopenしたりコメントを記載したイベントをIBM Process Miningに連携する方法について記載します。
アクションを作成(Github Webhookという名前のアクション)し、Pythonで、IBM Event StreamsのトピックにメッセージをPublishするコードを記述します。
IBM Event Streamsに”ProcessMiningTopic”というトピックを作成します。
Webhookは、何かが発生するたびにサードパーティーのサービスにイベントを送信するために、自動的にトリガーされます。これは、IBM Process Miningにとって、貴重な統合の方法です。IBM FunctionsのWebアクションのURLをGithubのPayload URLに登録する必要があるため、Functionsのエンドポイントの情報を取得します。GithubのWebhookの画面で、FunctionsのパブリックのURLをPayload URLに登録します。今回は、Issueに対するイベントを取りたいので、Issuesにチェックを入れます。Githubから送付されるデータは、以下のようなものになります。IBM Event Streamsの資格情報をIBM Functionsのパラメータとして登録します。上記のJSONの情報を、Functionsのパラメータ(service_credentials)に設定します。
IBM Process Miningのデータストリームの設定箇所は、以下の通り
データ・ストリームを設定するプロセスを開き、管理タブを開きます。新規にデータ・ストリームを追加します。名前を入力しIBM Event Streamsのトピックを指定します。IBM Event Streamsの資格情報から、構成プロパティとAPI Keyを設定します。データ・マッピングでは、GithubのJSONのPayloadを張り付けて、マッピングしていきます。プロセスID,アクティビティ、開始日付など必要な情報をマップします。スケジューリングでは、データを取得するタイミングを指定します。ここでは、最小の値である30分を指定しています。GithubでIssueをOpenするなどイベントを発生させたあと、データ・ストリームをアクティブにし、今すぐフェッチのボタンをクリックすると、IBM Event Streamsからデータの取得が始まります。IBM Process Miningのモデル図を確認すると、GithubのIssueをOpenしたというデータが取り込まれていることがわかります。
IBM Process Miningのデータ・ストリーム機能は、KafkaやIBM Event Streamsなどのストリーミング・プラットフォームからデータを自動で取得して、業務プロセスを可視化することができ、業務プロセスの課題分析に役立てることがわかりました。#IPM #kafka #cloudpackforbusinessautomation