JDBC Sink Connector設定
|
パラメータ |
設定値 |
意味・役割 |
name
|
jdbc-sink-connector
|
このコネクタインスタンスに付ける一意の名前。
|
connector.class
|
io.aiven.connect.jdbc.JdbcSinkConnector
|
使用するコネクタのJavaクラス。Aiven提供のJDBC Sink Connectorを指定しています。
|
tasks.max
|
1
|
コネクタの並列実行タスクの最大数。ここでは1つのタスクで実行されます。
|
driver.class
|
com.microsoft.sqlserver.jdbc.SQLServerDriver
|
接続先のSQL Serverに使用するJDBCドライバクラス。
|
topics
|
es.db2toes.sourcedb.db2admin.employee
|
コネクタがデータを受け取るKafkaトピック名。このトピックのデータがSQL Serverに書き込まれます。
|
SQL Server 接続設定
|
パラメータ |
設定値 |
意味・役割 |
connection.url
|
jdbc:sqlserver://localhost:1433;databaseName=AdventureWorks2022;
integratedSecurity=false;encrypt=false;trustServerCertificate=true
|
SQL Serverへの接続に使用するJDBC接続URL。ターゲットデータベース、ホスト名、ポート、接続オプションを指定します。(一行で記述します)
|
connection.user
|
sa
|
SQL Serverに接続するためのユーザー名。
|
connection.password
|
password
|
SQL Serverに接続するためのパスワード。
|
connection.ds.pool.size
|
5
|
データベース接続プールで保持する最大接続数。コネクタタスクが利用できる接続数を制限します。
|
データ書き込み・テーブル操作設定
|
パラメータ |
設定値 |
意味・役割 |
insert.mode
|
upsert
|
データの書き込みモード。upsertは、ターゲットテーブルに主キーを持つ行が存在すれば更新し、存在しなければ挿入することを意味します (Change Data Captureの一般的な操作)。
|
table.name.format
|
db2_employee
|
Kafkaのトピック名からSQL Serverのテーブル名に変換するフォーマット。ここでは、トピックに関わらず固定でdb2_employeeというテーブル名を使用。
|
pk.mode
|
record_key
|
主キー (Primary Key) の定義方法。ここではKafkaメッセージのキーを主キーとして使用することを指定しています。
|
pk.fields
|
EMPNO
|
pk.mode=record_keyで設定された主キーとして使用するフィールド名。
|
auto.create
|
TRUE
|
ターゲットのSQL Serverにテーブルが存在しない場合、自動的にテーブルを作成することを許可します。
|
insert.mode.databaselevel
|
TRUE
|
insert.modeをデータベースレベルで制御することを示唆しています。
|
コンバータとスキーマレジストリ設定
|
パラメータ |
設定値 |
意味・役割 |
key.converter
|
io.apicurio.registry.utils.converter.AvroConverter
|
メッセージのキーを処理するためのAvroコンバータ。
|
value.converter
|
io.apicurio.registry.utils.converter.AvroConverter
|
メッセージの値を処理するためのAvroコンバータ。
|
key.converter.apicurio.registry.url
|
https://es-development-ibm-es-ac-reg-external-openshift-operators.apps.itz-g5ry1p.infra01-lb.dal14.techzone.ibm.com
|
キーのスキーマを取得するためのSchema RegistryのURL。
|
key.converter.apicurio.registry.auth.username
|
es-user
|
キーのSchema Registryに接続するためのユーザー名。
|
key.converter.apicurio.registry.auth.password
|
LCfM4LMrzArIfTk0VJLJdTtMvFL2FHGD
|
キーのSchema Registryに接続するためのパスワード。
|
value.converter.apicurio.registry.url
|
https://es-development-ibm-es-ac-reg-external-openshift-operators.apps.itz-g5ry1p.infra01-lb.dal14.techzone.ibm.com
|
値のスキーマを取得するためのSchema RegistryのURL。
|
value.converter.apicurio.registry.auth.username
|
es-user
|
値のSchema Registryに接続するためのユーザー名。
|
value.converter.apicurio.registry.auth.password
|
LCfM4LMrzArIfTk0VJLJdTtMvFL2FHGD
|
値のSchema Registryに接続するためのパスワード。
|
Consumer/TLS/SASL 設定 (Kafka Consumer Security)
|
パラメータ |
設定値 |
意味・役割 |
consumer.ssl.protocol
|
TLSv1.2
|
ConsumerがKafkaと通信するためのTLSバージョン。
|
consumer.ssl.truststore.location
|
c:/Users/Administrator/Downloads/es-cert.p12
|
ConsumerがKafka Brokerの証明書を信頼するためのトラストストアのパス。
|
consumer.ssl.truststore.password
|
Rkmej7ekUrI1
|
トラストストアファイルを開くためのパスワード。
|
consumer.ssl.truststore.type
|
PKCS12
|
トラストストアファイルの形式。
|
consumer.override.security.protocol
|
SASL_SSL
|
Consumerの通信プロトコルとしてSASL認証とSSL暗号化を組み合わせたものを使用します。
|
consumer.override.sasl.mechanism
|
SCRAM-SHA-512
|
ConsumerのSASL認証メカニズム。
|
consumer.override.sasl.jaas.config
|
org.apache.kafka.common.security.scram.ScramLoginModule required username="es-user" password="LCfM4LMrzArIfTk0VJLJdTtMvFL2FHGD";
|
ConsumerがSCRAM認証でログインするための認証情報(ユーザー名とパスワード)。
|