1 目的
测试物理standby 作为ogg 源端的可行性,效率及安全性。
2 环境及规划
以下数据库及OGG版本是实际目的的最低版本要求。
-
环境
服务器ip 作用 10.10.100.91 Oracle_primary (zookeeper kafka) 10.10.100.92 Oracle_standby ogg (zookeeper kafka) 10.10.100.98 zookeeper kafka ogg -
版本及路径
软件 版本 路径 oracle 11.2.0.4 /u01/app/oracle zookeeper 3.4.13 /opt/zookeeper-3.4.13 kafka 2.12-2.1.1 /opt/kafka_2.12-2.1.1 ogg for bigdata 12.3.2.1.1 /u01/app/ogg ogg for oracle 12.3.0.1.4 /u01/app/ogg jdk 1.8u181 /opt/jdk1.8.0_181
3 安装配置JDK
在所有节点安装。由于OGG 12以上的版本都要求jdk1.8以上。因此需要单独安装jdk。
3.1 安装jdk
tar -xzvf /opt/jdk-8u181-linux-x64.tar.gz -C /opt/jdk1.8.0_181
3.2 配置环境变量
根据规则,现在我们将每个环境中的环境变量进行配置。 按如下说明修改 $HOME/.bash_profile:
#添加一行
export JAVA_HOME=/opt/jdk1.8.0_181
# 修改PATH变量
PATH=$JAVA_HOME/bin:$PATH
4 安装Dataguard
4.1 安装备库软件
-
上传软件并解压 上传文件请使用ftp或者类ftp方式等。解压安装包示例:
unzip p13390677_112040_Linux-x86-64_1of7.zip
unzip p13390677_112040_Linux-x86-64_2of7.zip
-
编辑响应文件 由于参数过多,此处只列出需要调整的内容. :
oracle.install.option=INSTALL_DB_SWONLY
ORACLE_HOSTNAME=pmo2
UNIX_GROUP_NAME=oinstall
INVENTORY_LOCATION=/u01/app/oraInventory
ORACLE_HOME=/u01/app/oracle/product/11.2.0/dbhome_1
ORACLE_BASE=/u01/app/oracle/
oracle.install.db.DBA_GROUP=dba
oracle.install.db.OPER_GROUP=oper
oracle.install.db.config.starterdb.globalDBName=orcl
oracle.install.db.config.starterdb.SID=orcl
oracle.install.db.config.starterdb.characterSet=AL32UTF8
oracle.install.db.config.starterdb.memoryOption=true
oracle.install.db.config.starterdb.memoryLimit=1384
oracle.install.db.config.starterdb.password.ALL=Sys123passwd
oracle.install.db.config.starterdb.storageType=FILE_SYSTEM_STORAGE
oracle.install.db.config.starterdb.fileSystemStorage.dataLocation=/u01/app/oracle/oradata
oracle.install.db.config.starterdb.fileSystemStorage.recoveryLocation=/u01/app/oracle/arch
-
安装软件
cd ~/database/
./runInstaller -silent -force -ignoreSysprereqs -ignorePrereq -showProgress -responseFile /home/oracle/database/response/db_install.rsp
4.2 配置dataguard
4.2.1 主库
主库开启强制日志
alter database force logging;
主库调整参数
alter system set db_unique_name='orcl' scope=spfile;
alter system set log_archive_config='DG_CONFIG=(primary,standby)' scope=both;
alter system set log_archive_dest_1='LOCATION=/u01/app/oracle/arch VALID_FOR=(ALL_LOGFILES,ALL_ROLES) DB_UNIQUE_NAME=orcl' scope=both;
alter system set log_archive_dest_2='SERVICE=standby LGWR ASYNC VALID_FOR=(ONLINE_LOGFILES,PRIMARY_ROLE) DB_UNIQUE_NAME=orcl' scope=both;
alter system set log_archive_format='%t_%s_%r.arc' scope=spfile;
重启主库, 使参数生效。
主库添加standby 日志
日志添加规则为原有日志组个数为N, 添加的standby 日志组个数为N+1. 默认数据库的日志为3个,大小为50M.
alter database add standby logfile group 4('/u01/app/oracle/oradata/redo04.log') size 50m;
alter database add standby logfile group 5('/u01/app/oracle/oradata/redo05.log') size 50m;
alter database add standby logfile group 6('/u01/app/oracle/oradata/redo06.log') size 50m;
alter database add standby logfile group 7('/u01/app/oracle/oradata/redo07.log') size 50m;
主库创建密码文件
orapwd file=$ORACLE_HOME/dbs/orapworcl entries=5 force=y ignorecase=y password=oracle
创建完密码文件后,记得在主库修改下sys用户密码。此时的密码,以简单便于使用为主。后期再调整为符合密码规则的密码。
sqlplus / as sysdba
alter user sys identified by oracle;
exit
TNS配置
TNS 文件: $ORACLE_HOME/network/admin/tnsnames.ora
文件内容如下:
primary =
(DESCRIPTION =
(ADDRESS = (PROTOCOL = TCP)(HOST = 10.10.100.91)(PORT = 1521))
(CONNECT_DATA =
(SERVER = DEDICATED)
(SERVICE_NAME = orcl)
)
)
standby =
(DESCRIPTION =
(ADDRESS = (PROTOCOL = TCP)(HOST = 10.10.100.92)(PORT = 1521))
(CONNECT_DATA =
(SERVER = DEDICATED)
(SERVICE_NAME = orcl)
(UA=R)
)
)
4.2.2 备库
参数
备库参数文件为$ORACLE_HOME/dbs/initorcl.ora. 内容如下:
*.db_name='orcl'
*.db_unique_name='orcls'
*.compatible='11.2.0.4.0'
*.fal_server='primary'
*.log_archive_config='DG_CONFIG=(orcls,orcl)'
*.log_archive_dest_1='LOCATION=/u01/app/oracle/oradata/arch VALID_FOR=(ALL_LOGFILES,ALL_ROLES) DB_UNIQUE_NAME=orcls'
*.log_archive_dest_state_1='ENABLE'
*.db_file_name_convert='/u01/app/oracle/oradata/orcl/','/u01/app/oracle/oradata/'
*.log_file_name_convert='/u01/app/oracle/oradata/orcl/','/u01/app/oracle/oradata/redo'
*.standby_file_management='AUTO'
启动实例
请注意,备库此时需要启动至nomount状态。
sqlplus / as sysdba
startup nomount;
exit
监听配置并启动
- 监听配置
监听文件: $ORACLE_HOME/network/admin/listener.ora
sid_list_listener =
(sid_list =
(sid_desc =
(global_dbname=orcl )
(sid_name=orcl )
(oracle_home=/u01/app/oracle/product/11.2.0/dbhome_1)
)
)
LISTENER =
(DESCRIPTION_LIST =
(DESCRIPTION =
(ADDRESS = (PROTOCOL = TCP)(HOST = 10.10.100.92)(PORT = 1521))
)
)
ADR_BASE_LISTENER = /u01/app/oracle
-
启动监听
lsnrctl start
密码文件
将主库的密码文件拷贝至备库的$ORACLE_HOME/dbs路径中。
scp 10.10.100.91:$ORACLE_HOME/dbs/orapworcl $ORACLE_HOME/dbs/
TNS配置
将主库的密码文件拷贝至备库的$ORACLE_HOME/network/admin路径中。 使用如下命令,或者通过复制粘贴待方式将文件内容复制到备库环境。
scp 10.10.100.91:$ORACLE_HOME/network/admin/tnsnames.ora $ORACLE_HOME/network/admin/
4.3 完成操作
在主库或者备库均可操作。
-
连接 rman 环境
rman target sys/oracle@primary auxiliary sys/oracle@setandby
-
执行 rman 命令
run
{
allocate channel cl1 type disk;
allocate channel cl2 type disk;
allocate channel cl3 type disk;
allocate auxiliary channel c1 type disk;
allocate auxiliary channel c2 type disk;
allocate auxiliary channel c3 type disk;
duplicate target database for standby from active database dorecover ;
release channel c1;
release channel c2;
release channel c3;
release channel cl1;
release channel cl2;
release channel cl3;
}
4.4 启动实时复制
alter database recover managed standby database using current logfile disconnect from session;
5 zookeeper集群
5.1 上传并解压
可使用ftp 等工具或者其他工具上传。上传后解压. 注意,所有节点都需要安装。所以要上传至所有服务器并解压。
tar -xzvf ~/zookeeper-3.4.13.tar.gz -C /opt/
5.2 配置
zookeeper 集群中所有节点都需要进行配置。
-
规则相关路径
# 日志文件路径
mkdir -p /opt/zookeeper/zkdatalog
# 数据存放路径
mkdir -p /opt/zookeeper/zkdata
-
配置内容 进入到目录中, 查看配置文件.相关的配置文件存储于
/zookeeper-/conf 路径中。
# cd /opt/zookeeper-3.4.13/conf
# ls
configuration.xsl log4j.properties zoo_sample.cfg
# 说明:
# zoo_sample.cfg 这个文件是官方给我们的zookeeper的样板文件,给他复制一份命名为zoo.cfg,zoo.cfg是官方指定的文件命名规则。\\
文件内容如下:
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/opt/zookeeper/zkdata
dataLogDir=/opt/zookeeper/zkdatalog
# 3.4 and later
autopurge.snapRetainCount=60
autopurge.purgeInterval=24
clientPort=12181
server.1=10.10.100.91:12888:13888
server.2=10.10.100.92:12888:13888
server.3=10.10.100.98:12888:13888
5.3 创建myid文件
在每个服务器上,将server.N 中的N 写入dataDir 路径中的myid文件。
# server1
echo "1" > /opt/zookeeper/zkdata/myid
#server2
echo "2" > /opt/zookeeper/zkdata/myid
#server3
echo "3" > /opt/zookeeper/zkdata/myid
5.4 配置环境变量
为了日后管理方便,建议将zookeeper的位置信息配置到用户的环境变量中去。此处使用 .bash_profile ,在文件中添加以下内容。
export ZK_HOME=/opt/zookeeper-3.4.13
PATH=$JAVA_HOME:$ZK_HOME/bin:$PATH
通过 source ~/.bash_profile/ 使修改生效.
5.5 启动和查看服务
#cd $ZK_HOME/bin
zkServer.sh start
zkServer.sh status
经查看,zk 集中,server.2 为leader,server1,server3 为follower。 不同环境这个结果是不一样的。
如果没启动,可以使用./zkServer.sh start-foreground启动,屏幕上会显示日志信息,能看出哪块出了问题。
6 kafka集群
6.1 上传并解压
可使用ftp 等工具或者其他工具上传,然后用解压。所有节点都需要安装,所以要上传至所有服务器。
tar -xzvf kafka_2.12-2.1.1.tgz
6.2 配置
kafka集群所有节点都需要配置。
-
规则相关路径
#消息目录
mkdir -p /opt/kafka_2.12-2.1.1/logs
-
修改配置文件 kafka 的配置文件有很多,存放在
/kafka-version/config中。
对于本环境来讲,路径为:/opt/kafka_2.12-2.1.1/config。
需要调整的配置文件为:server.properties# 每台服务器的broker.id都不能相同
broker.id=0#hostname和port参数,在2.12 2.1.1 版本的server.properties 中已经找不到该参数配置了。
#取而代之的是 listeners参数. 其中的IP 地址, 设置为本主机的IP。
#host.name=10.10.100.91
#port = 9092
listeners=PLAINTEXT://10.10.100.92:9092
# 日志路径
log.dirs=/opt/kafka_2.12-2.1.1/logs
#在log.retention.hours=168 下面新增下面三项
message.max.byte=5242880
default.replication.factor=2
replica.fetch.max.bytes=5242880#设置zookeeper的连接端口,集群中所有节点都需要包含。
zookeeper.connect=10.10.100.91:12181,10.10.100.92:12181,10.10.100.98:12181
6.3 配置环境变量
为了方便日后管理,需要配置kafka的环境变量。在$HOME/.bash_profile 文件中加入以下 两行:
export KFK_HOME=/opt/kafka_2.12-2.1.1/config
export PATCH=$KFK_HOME/bin:$PATH
或者直接修改为以下格式,包含zookeeper与kafka的环境变量:
export ZK_HOME=/opt/zookeeper-3.4.13
export KFK_HOME=/opt/kafka_2.12-2.1.1
export PATH=$JAVA_HOME:$ZK_HOME/bin:$KFK_HOME/bin:$PATH
配置完成后, 使用source 命令使配置生效。
6.4 服务管理
-
启动服务
kafka-server-start.sh -daemon $KFK_HOME/config/server.properties
-
查看服务
# 使用jps查看kafka进程是否有启动, 直接执行jps,正常如下:
22707 QuorumPeerMain
28439 Jps
28314 Kafka
6.5 TOPIC
-
创建Topic
kafka-topics.sh --create --zookeeper 10.10.100.92:12181,10.10.100.91:12181,10.10.100.98:12181 --replication-factor 3 -partitions 3 --topic testogg
成功时提示:Created topic “testogg”.
-
查看Topic
#列出所有可用的topics
kafka-topics.sh --list --zookeeper 10.10.100.91:12181
# 查看指定topic 信息
kafka-topics.sh --describe --zookeeper 10.10.100.91:12181,10.10.100.92:12181,10.10.100.98:12181 --topic testogg
-
创建consumer 这里创建一个consumer,以便在安装配置完ogg 后,进行验证。
kafka-console-consumer.sh -–zookeeper 10.10.100.92:12181,10.10.100.91:12181,10.10.100.98:12181 -–from-beginning –-topic oggtest
6.6 测试集群
-
发布消息 利用kafka自身提供的发布消息的脚本, 来创建发布消息.
kafka-console-producer.sh --broker-list 10.10.100.91:9092,10.10.100.92:9092,10.10.100.98:9092 --topic testogg
-
接收消息
kafka-console-consumer.sh --topic testogg --bootstrap-server 10.10.100.92:9092,10.10.100.91:9092,10.10.100.98:9092 --group testogg1 --from-beginning
-
测试结果
-
消息发送端
[root@pmo02 config]# kafka-console-producer.sh --broker-list 10.10.100.91:9092,10.10.100.92:9092,10.10.100.98:9092 --topic testogg
>1,'This is a test message', `date`
>2,'Second test message',boooooooo
>一人
-
消息接收端
[root@app-01 ~]# kafka-console-consumer.sh --topic testogg --bootstrap-server 10.10.100.92:9092,10.10.100.91:9092,10.10.100.98:9092 --group testogg1 --from-beginning
2,'Second test message',boooooooo
1�,'This is a test message', `date`
一人
-
7 OGG 安装配置
OGG针对不同的软件有不同的版本,我们需要安装针对Oracle 版本和针对大数据的版本。 本次测试的是, oracle 从备库同步数据至kafka集群。因此我们需要将ogg for oracle 安装至备库(10.10.100.92)。
7.1 源端
7.1.1 准备
准备OGG软件
将文件上传至服务器oracle用户的家目录. 并保证Oracle用户对安装包有操作权限:
chown -R oracle:oinstall /home/oracle/123014_fbo_ggs_Linux_x64_shiphome.zip
unzip 123014_fbo_ggs_Linux_x64_shiphome.zip
# 软件解压后的路径为fbo_ggs_Linux_x64_shiphome
修改OGG安装的配置文件
软件安装的配置文件存放于 =
/fbo_ggs_Linux_x64_shiphome/Disk1/response/= 中. 名为oggcore.rsp. 请按下面要求进行设置:
# 保持不变
oracle.install.responseFileVersion=/oracle/install/rspfmt_ogginstall_response_schema_v12_1_2
# 与数据库版本保持一致,分为ORA12c与ORA11g
INSTALL_OPTION=ORA11g
# 配置ogg 的安装路径
SOFTWARE_LOCATION=/u01/app/ogg
# 如果需要启动mgr 需要配置以下 三项,如果不需要启动,则不需要配置,此处不进行配置。
START_MANAGER=
MANAGER_PORT=
DATABASE_LOCATION=
# windows 平台以下两项不需要配置。其他平台需要配置。
INVENTORY_LOCATION=/u01/app/oraInventory
UNIX_GROUP_NAME=oinstall
创建OGG安装路径
# 用Oracle用户创建
mkdir -p /u01/app/ogg
静默安装OGG
# 进入相关路径
cd ~/fbo_ggs_Linux_x64_shiphome/Disk1/
# 执行静默安装
./runInstaller -silent -responseFile `pwd`/response/oggcore.rsp
# 安装过程中会提示安装日志, 可通过日志查看安装过程是否正常。
配置环境变量
#添加OGG_HOME
export OGG_HOME=/u01/app/ogg
# 将OGG_HOME路径添加至PATH
export PATH=$PATH:$OGG_HOME
创建相关路径
ogg 提供了一个命令,用于创建相关的子目录 ,比如数据目录,配置文件存放目录等。
ggsci 'OGG',
privilege_type => 'CAPTURE',
grant_select_privileges => TRUE,
do_grants => TRUE);
END;
/
配置ddl同步
cd $GGATE
sqlplus / as sysdba
@marker_setup.sql;
@ddl_setup.sql;
@role_setup.sql;
grant GGS_GGSUSER_ROLE to ogg;
@ddl_enable.sql;
性能优化
cd $OGG_HOME
sqlplus / as sysdba
@?/rdbms/admin/dbmspool
-- ddl_pin将触发器用到的plsql包放进内存中
sqlplus / as sysdba
@ddl_pin ogg;
exit
7.1.3 配置OGG
配置MGR
edit params mgr
# 输入如下内容,第三行,一般不配置.
PORT 7809
DYNAMICPORTLIST 7810-7860
# AUTORESTART EXTRACT *, RETRIES 5, WAITMINUTES 3, RESETMINUTES 60
PURGEOLDEXTRACTS ./dirdat/*, usecheckpoints, minkeepdays 1
LAGREPORTHOURS 1
LAGINFOMINUTES 30
LAGCRITICALMINUTES 45
数据初始化配置
数据初始化,指的是从源端Oracle 数据库将已存在的需要的数据同步至目标端.
此节中,操作都可在OGG 环境中进行。对OGG的内部逻辑了解的,也可以在shell环境中配置.
配置初始化进程
```
add extract init01, sourceistable
EDIT PARAMS init01
# 编辑参数内容如下:
EXTRACT init01
SETENV (NLS_LANG=AMERICAN_AMERICA.ZHS16GBK)
USERID ogg,PASSWORD ogg123
#USERID c##ggadmin,PASSWORD ggadmin # for oracle 12C,注意用户名格式
RMTHOST 10.10.100.98, MGRPORT 7809
RMTFILE ./dirdat/in,maxfiles 999, megabytes 500,format release 12.3
# SOURCECATALOG PDBNAME # FOR ORACLE 12C,11g does not need.
table oggtest.*;
```
生成表结构
GoldenGate 提供了一个名为 DEFGEN 的专用工具,用于生成数据定义,当源表和目标表中 的定义不同时,Oracle GoldenGate 进程将引用该专用工具。在运行 DEFGEN 之前,需要 为其创建一个参数文件:
```
edit param defgen
USERID ogg,PASSWORD ogg123
defsfile ./dirdef/defgen.def,format release 12.2 # format release 指的是OGG的版本
# SOURCECATALOG orclpdb # for oracle 12C 。11g及之前版本不需要
table oggtest.*;
```
- note
配置中每个 table 行尾都要加上分号。不然会报错。如上面配置:table oggtest.*;
生成表结构文件,需要执行shell命令,如果配置中的文件已经存在,执行下面命令会报错,所以 在执行前需要先删除:
```
rm -f $OGG_HOME/dirdef/defgen.def
defgen paramfile dirprm/defgen.prm
```
将生成的定义文件传送到目标端, 目标端的replicate进程会使用这个文件。
```
scp $OGG_HOME/dirdef/defgen.def 10.10.100.98:/u01/app/ogg/dirdef/
```
实时同步配置
关于集成模式
standby 实例 不支持集成模式 集成模式关键的三个命令:
```
add extract ext_kfk,integrated tranlog,threads 1,begin now
DBLOGIN USERID ,PASSWORD
# for 12C
register extract ext_kfk database container (orclpdb)
# for 11g/ 10G
register extract ext_kfk
```
配置抽取进程
添加抽取进程,OGG命令行:
```
add extract ext_kfk,tranlog,threads 1,begin now
add exttrail ./dirdat/kf, extract ext_kfk, megabytes 500
```
配置抽取进程参数,OGG命令行:
```
edit params ext_kfk
```
以下内容为参数明细
```
EXTRACT ext_kfk
USERID ogg, PASSWORD ogg123
Setenv (NLS_LANG="AMERICAN_AMERICA.ZHS16GBK")
gettruncates
DISCARDFILE ./dirrpt/ext_kfk.dsc, APPEND, MEGABYTES 1024
# RMTHOST 10.10.100.98, MGRPORT 9178
# RMTFILE ./dirdat/kf,maxfiles 999, megabytes 500,format release 12.2
DBOPTIONS ALLOWUNUSEDCOLUMN
REPORTCOUNT EVERY 1 MINUTES, RATE
WARNLONGTRANS 2h,CHECKINTERVAL 300
FETCHOPTIONS NOUSESNAPSHOT
EXTTRAIL ./dirdat/kf
TRANLOGOPTIONS MINEFROMACTIVEDG
# TRANLOGOPTIONS altarchivelogdest primary instance orcl /u01/app/oracle/oradata/arch 配置此行时,将读取归档日志
GETUPDATEBEFORES
NOCOMPRESSUPDATES
NOCOMPRESSDELETES
table oggtest.*;
```
若配置rmthost rmtfile 参数, 可不配置分发进程(pump).
- TABLE 关键词,必须以分号结束。
- TRANLOGOPTIONS altarchivelogdest 是standby 端作为ogg 源端, ogg 读取归档的关键。也适用于RAC环境,不过RAC环境不建议配置。
- 一般情况下,ogg 同步数据有5秒左右的延迟. 为了解决这个问题,有 的同学可能会配置 EOFDELAY或者EOFDELAYCSECS,以及FLUSHCSECS. 有 些情况,配置确实可以减少延迟,但不是所有情况都有用。而且配置 以后,很容易产生control file sequence read 等待。
配置分发进程
OGG 环境添加分发进程:
```
add extract pmp_kfk,exttrailsource ./dirdat/kf
add rmttrail ./dirdat/kf,EXTRACT PMP_kfk,MEGABYTES 500
```
编辑分发进程参数:
```
edit param PMP_KAF1
#内容如下:
extract pmp_kfk
USERID ogg, password ogg123
PASSTHRU
RMTHOST 10.10.100.98, MGRPORT 7809
RMTTRAIL ./dirdat/kf,format release 12.3
# 下面一行适用于12C
# SOURCECATALOG orclpdb
table oggtest.*;
```
7.2 目标端(kafka)
7.2.1 安装
oracle 软件统一安装到/u01/app/路径中,方便日后统一管理.OGG解压到路径/u01/app/ogg.
unzip OGG_BigData_Linux_x64_12.3.2.1.1.zip
tar -xvf OGG_BigData_Linux_x64_12.3.2.1.1.tar -C /u01/app/ogg/
7.2.2 配置环境变量
#su - oracle
#vi .bash_profile
# 内容如下:
JAVA_HOME=/opt/jdk1.8.0_181/
OGG_HOME=/u01/app/ogg
LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64/server/:$JAVA_HOME/lib:$LD_LIBRARY_PATH
PATH=$JAVA_HOME/bin:$PATH:$HOME/bin:$OGG_HOME
export PATH JAVA_HOME ORACLE_HOME OGG_HOME LD_LIBRARY_PATH
修改完环境变量执行: source .bash_profile
7.2.3 目标端OGG配置
创建相关路径
ggsci
create subdirs
示例:
$ ggsci
Oracle GoldenGate Command Interpreter
Version 12.3.0.1.2 OGGCORE_OGGADP.12.3.0.1.2_PLATFORMS_180712.2305
Linux, x64, 64bit (optimized), Generic on Jul 13 2018 00:46:09
Operating system character set identified as UTF-8.
Copyright (C) 1995, 2018, Oracle and/or its affiliates. All rights reserved.
GGSCI (app-01) 1> create subdirs
Creating subdirectories under current directory /home/oracle
Parameter file /u01/app/ogg/dirprm: created.
Report file /u01/app/ogg/dirrpt: created.
Checkpoint file /u01/app/ogg/dirchk: created.
Process status files /u01/app/ogg/dirpcs: created.
SQL script files /u01/app/ogg/dirsql: created.
Database definitions files /u01/app/ogg/dirdef: created.
Extract data files /u01/app/ogg/dirdat: created.
Temporary files /u01/app/ogg/dirtmp: created.
Credential store files /u01/app/ogg/dircrd: created.
Masterkey wallet files /u01/app/ogg/dirwlt: created.
Dump files /u01/app/ogg/dirdmp: created.
复制参数文件
cd $OGG_HOME/AdapterExamples/big-data/kafka
cp * $OGG_HOME/dirprm
参数配置
custom_kafka_producer.properties
```
bootstrap.servers=10.1.1.246:9200,10.1.1.247:9200 --只需要改动这一行就行,指定kafka的地址和端口号
acks=1
reconnect.backoff.ms=1000
value.serializer=org.apache.kafka.common.serialization.ByteArraySerializer
key.serializer=org.apache.kafka.common.serialization.ByteArraySerializer
batch.size=16384
linger.ms=10000
```
kafka.props
该配置文件主要控制着消息输出格式。由参数: *gg.handler.kafkahandler.format* 控制。
- text mode
```
gg.handlerlist = kafkahandler
gg.handler.kafkahandler.type=kafka
gg.handler.kafkahandler.KafkaProducerConfigFile=custom_kafka_producer.properties
#The following resolves the topic name using the short table name
gg.handler.kafkahandler.topicMappingTemplate= testogg -- 此处指定为要同步到的目标testogg名字
gg.handler.kafkahandler.format=delimitedtext
gg.handler.kafkahandler.format.fieldDelimiter=|
gg.handler.kafkahandler.format.insertOpKey=I
gg.handler.kafkahandler.format.updateOpKey=U
gg.handler.kafkahandler.format.deleteOpKey=D
gg.handler.kafkahandler.format.truncateOpKey=T
gg.handler.kafkahandler.SchemaTopicName= testogg --此处指定为要同步到的目标topic名字
gg.handler.kafkahandler.BlockingSend =false
gg.handler.kafkahandler.includeTokens=false
gg.handler.kafkahandler.mode=op
goldengate.userexit.timestamp=utc
goldengate.userexit.writers=javawriter
javawriter.stats.display=TRUE
javawriter.stats.full=TRUE
gg.log=log4j
gg.log.level=INFO
gg.report.time=30sec
gg.classpath=dirprm/:/opt/cloudera/parcels/KAFKA/lib/kafka/libs/ --指定classpath,这里很重要,必须有kafka安装文件的类库。
javawriter.bootoptions=-Xmx512m -Xms32m -Djava.class.path=ggjava/ggjava.jar
```
- json mode
```
gg.handlerlist = kafkahandler
gg.handler.kafkahandler.type=kafka
gg.handler.kafkahandler.KafkaProducerConfigFile=custom_kafka_producer.properties
#The following resolves the topic name using the short table name
gg.handler.kafkahandler.topicMappingTemplate=xiamen_dev
#The following selects the message key using the concatenated primary keys
gg.handler.kafkahandler.keyMappingTemplate=xiamen_dev
gg.handler.kafkahandler.format=json
gg.handler.hdfs.format.jsonDelimiter=CDATA[]
#gg.handler.kafkahandler.format.fieldDelimiter=
#gg.handler.name.format.pkUpdateHandling=delete-insert
gg.handler.kafkahandler.format.insertOpKey=I
gg.handler.kafkahandler.format.updateOpKey=U
gg.handler.kafkahandler.format.deleteOpKey=D
gg.handler.kafkahandler.format.truncateOpKey=T
gg.handler.kafkahandler.SchemaTopicName=xiamen_dev
gg.handler.kafkahandler.BlockingSend =false
gg.handler.kafkahandler.includeTokens=false
gg.handler.kafkahandler.mode=op
goldengate.userexit.timestamp=utc
goldengate.userexit.writers=javawriter
javawriter.stats.display=TRUE
javawriter.stats.full=TRUE
gg.log=log4j
gg.log.level=INFO
gg.report.time=30sec
#Sample gg.classpath for Apache Kafka
gg.classpath=dirprm/:/opt/kafka_2.12-2.1.1/libs/*:/u01/app/ogg/*:/u01/app/ogg/lib/*
#Sample gg.classpath for HDP
#gg.classpath=/etc/kafka/conf:/usr/hdp/current/kafka-broker/libs/*
javawriter.bootoptions=-Xmx512m -Xms32m -Djava.class.path=ggjava/ggjava.jar
```
配置MGR
edit params mgr
# 内容如下(第三行在实际配置时已删除,一般不配置成自动启动):
PORT 7809
DYNAMICPORTLIST 7810-7860
-- AUTORESTART REPLICAT *, RETRIES 5, WAITMINUTES 3, RESETMINUTES 60
PURGEOLDEXTRACTS ./dirdat/*, usecheckpoints, minkeepdays 1
LAGREPORTHOURS 1
LAGINFOMINUTES 30
LAGCRITICALMINUTES 45
配置初始化进程
-
添加并配置初始化进程
# 添加进程
ADD replicat init01, specialrun
# 配置进程
edit params init01
参数内容:
SPECIALRUN
end runtime
setenv(NLS_LANG="AMERICAN_AMERICA.ZHS16GBK")
targetdb libfile libggjava.so set property=./dirprm/kafka.props
SOURCEDEFS ./dirdef/defgen.def --- 如果有多个map ,则需要配置sourcedefs,如果只有一个则可以不配置。
EXTFILE ./dirdat/in
reportcount every 1 minutes, rate
grouptransops 10000
map oggtest.*,target oggtest.*;
如果是12C 数据库, map 后面的格式为pdb.schema.table , target schema.table
-
示例
GGSCI (app-01) 1> ADD replicat init01, specialrun
REPLICAT added.
GGSIC (app-01) 2> exit
cd $OGG_HOME/dirprm
cat >> init01.prm rep1.prm