oceanbase-安装(代码片段)

5ycode 5ycode     2023-03-30     677

关键词:

文章目录

部署规划

本文主要是安装部署oceanbase4.0.
按照官方的要求,测试环境要求最低2C8G(实测可用内存最少10g,虚拟机设置12g采购)我准备了几台centos7.9的虚拟机,配置如下

机器名ip地址配置说明
dev3192.168.1.1534C12G 磁盘80g/app/observer 部署OceanBase ,/data作为数据目录
dev4192.168.1.1544C12G 磁盘80g/app/observer 部署OceanBase ,/data作为数据目录
dev5192.168.1.1554C12G磁盘80g/app/observer 部署OceanBase ,/data作为数据目录
dev6192.168.1.1564C12G中控机、OBD、OBProxy、OCP、NTP服务器

名词解析

  • 中控机:存储Oceanbase数据库安装包和集群配置信息的机器
  • 目标机器:安装OceanBase数据库的机器
  • OBD:Oceanbase Deployer,Oceanbase 开源软件的安装部署工具,简称OBD
  • OBProxy:Oceanbase Database Proxy, OceanBase高性能反向代理服务器,简称OBProxy
  • OCP: OceanBase cloud Platform OceanBase运维管理工具,简称OCP

note: 1,ob数据库的安装需要至少50g的磁盘,如果你计划将ob安装到指定目录,必须保证磁盘空间大于50g,我使用虚拟机,手动分区;2,部署ob虚拟机设置内存最少12g(可用内存得10g,cache不算进去);

机器准备

说明几点:

  • 我物理机48G内存,使用VMware虚拟机;

  • 服务统一使用centos 7.9;

  • 虚拟机创建时,最大磁盘填写100g,将虚拟机磁盘存储为单个文件

  • 内存设置12g,11g内存ob在操作时只识别到5.7,最低要求可用8g内存(4.0应该是至少10G内存);

    • 通过echo 3 > /proc/sys/vm/drop_caches 释放缓存
  • cpu设置为2个处理器,每个处理器2核

  • 网络模式为桥接模式

    特别提醒:安装操作系统时磁盘要选手动设置,如果不选手动设置,自动分区,会平分,导致不够50g,手动分区如下:

统一配置

note: 先在一个虚拟机里把所有的配置都配置好,等配置完成后,再复制出来3台,个性化的修改下,省的一个个的配置了。

hosts设置

[root@dev ~]# vim /etc/hosts 
# 添加的内容
192.168.1.153 dev3
192.168.1.154 dev4
192.168.1.155 dev5
192.168.1.156 dev6  
# 保存并退出

设置机器名和静态ip

#修改主机名,先统一为dev
[root@dev ~]# vim /etc/hostname

# 修改为静态ip
[root@dev ~]#  vim /etc/sysconfig/network-scripts/ifcfg-ens33
#替换为以下内容
TYPE=Ethernet
PROXY_METHOD=none
BROWSER_ONLY=no
BOOTPROTO=static
DEFROUTE=yes
IPV4_FAILURE_FATAL=no
IPV6INIT=no
IPV6_AUTOCONF=no
IPV6_DEFROUTE=no
IPV6_FAILURE_FATAL=no
IPV6_ADDR_GEN_MODE=stable-privacy
NAME=ens33
UUID=7ab82905-739a-4a1a-8784-57f62d25ef32
DEVICE=ens33
ONBOOT=yes
IPADDR=192.168.1.153
NETMASK=255.255.255.0
GATEWAY=192.168.1.1
DNS1=114.114.114.114
DNS2=8.8.8.8

关闭大页

#关闭透明大页
echo never > /sys/kernel/mm/transparent_hugepage/enabled

配置信息查看

# 查看内存
[root@dev ~]# free -g
              total        used        free      shared  buff/cache   available
Mem:             10           1           8           0           1           5
Swap:             5           0           5
#查看磁盘
[root@dev ~]# df -h
文件系统                 容量  已用  可用 已用% 挂载点
devtmpfs                 5.3G     0  5.3G    0% /dev
tmpfs                    5.3G     0  5.3G    0% /dev/shm
tmpfs                    5.3G   13M  5.3G    1% /run
tmpfs                    5.3G     0  5.3G    0% /sys/fs/cgroup
/dev/mapper/centos-root   84G  4.2G   80G    5% /
/dev/mapper/centos-home   10G   33M   10G    1% /home
/dev/sda1               1014M  185M  830M   19% /boot
tmpfs                    1.1G  4.0K  1.1G    1% /run/user/42
tmpfs                    1.1G   24K  1.1G    1% /run/user/0
/dev/sr0                 4.4G  4.4G     0  100% /run/media/root/CentOS 7 x86_64

#查看网卡,网卡为ens33
[root@dev ~]# ifconfig
ens33: flags=4163<UP,BROADCAST,RUNNING,MULTICAST>  mtu 1500
        inet 192.168.1.153  netmask 255.255.255.0  broadcast 192.168.1.255

时钟源ntp配置(需要所有机器root)

先把所有虚拟机的ntp的server都设置为192.168.1.156,等到虚拟机配置调整完毕,复制出几份以后,再调整156的配置

OceanBase集群中的服务器时间必须保持一致。

  • 不一致会导致无法启动,运行时无主
  • 误差在50ms以下认为是同步状态
  • 最大容忍误差不超过100ms,超过100ms会出现无主情况;
#首先在所有的机器上安装ntp服务(默认有)
[root@dev ~]# yum install ntp ntpdate -y

[root@dev ~]# vim /etc/ntp.conf 
#修改内容如下
#默认Centos提供了4个时间同步服务器,都注释掉
#server 0.centos.pool.ntp.org iburst
#server 1.centos.pool.ntp.org iburst
#server 2.centos.pool.ntp.org iburst
#server 3.centos.pool.ntp.org iburst
#以156的ntp服务,作为其他机器的ntp源,prefer优先本地主机
server 192.168.1.156  prefer  
# 保存并退出

# 重启ntp服务端
[root@dev ~]# service ntpd restart

# 设置ntp开启自动启动
[root@dev ~]# chkconfig ntpd on
注意:正在将请求转发到“systemctl enable ntpd.service”。
Created symlink from /etc/systemd/system/multi-user.target.wants/ntpd.service to /usr/lib/systemd/system/ntpd.service.


磁盘规划

生产环境做好划分,测试环境,就自己玩了;

  • /data/ob 为数据盘
  • /redo/ob 存放redo日志(可以不配置,不配置就和数据一起了,注意:配置的话不能放到/data/ob目录下)
  • /app/observer 存放ob数据库的二进制文件和运行日志

创建用户

个人自己玩,直接root即可,如果是生产,最好创建一个账户,并把ob相关的目录授权给该用户;

注意:我直接用root,没有创建用户

# 创建appuser账户
[root@dev ~]# useradd -U appuser -d /home/appuser -s /bin/bash
[root@dev ~]# mkdir -p /home/appuser
[root@dev ~]# sudo chown -R appuser:appuser /home/appuser
# 更改密码
[root@dev ~]# passwd appuser
101790
# 为appuser设置sudo 权限
[root@dev ~]# vim /etc/sudoers
#修改为sudo 的时候不需要密码
%wheel  ALL=(ALL)       NOPASSWD:ALL   # 修改
appuser ALL=(ALL)       NOPASSWD:ALL   #添加

# 查看目录权限
[root@dev ~]# ls -al /home/
总用量 0
drwxr-xr-x.  3 root    root     21 1127 19:40 .
dr-xr-xr-x. 19 root    root    267 1127 19:24 ..
drwx------   5 appuser appuser 128 1127 19:43 appuser
# 将ob的运行目录的所有权改为appuser
[root@dev ~]# chown -R appuser.appuser /data /app /redo

配置limits.conf

调整最大栈空间大小、可打开的最大文件句柄数、core文件大小;(不需要压测的话,不需要调整)

[root@dev ~]# vim /etc/security/limits.conf
# 添加的内容
root soft nofile 655350
root hard nofile 655350
* soft nofile 655350
* hard nofile 655350
* soft stack 20480
* hard stack 20480
* soft nproc 655360
* hard nproc 655360
* soft core unlimited
* hard core unlimited

# 注意下limits.d 目录下的文件,这里的默认值4096,不更改,这个appuser不会生效
[root@dev ~]#  vim /etc/security/limits.d/20-nproc.conf 
# 所有用户默认为4096,我改成了10240
*          soft    nproc     4096

# 切换到appuser账户,查看下max user processes  是否已经变了
[appuser@dev root]$ ulimit -a

配置sysctl.conf

优化服务器,调整服务器的sysctl.conf,以提高linux系统的性能;(不需要压测的话,开发环境不需要调整)

[root@dev ~]# vim /etc/sysctl.conf
# for oceanbase
## 修改内核异步 I/O 限制 (测试环境,可以只设置这里)
fs.aio-max-nr=1048576

## 网络优化
net.core.somaxconn = 2048
net.core.netdev_max_backlog = 10000 
net.core.rmem_default = 16777216 
net.core.wmem_default = 16777216 
net.core.rmem_max = 16777216 
net.core.wmem_max = 16777216

net.ipv4.ip_local_port_range = 3500 65535 
net.ipv4.ip_forward = 0 
net.ipv4.conf.default.rp_filter = 1 
net.ipv4.conf.default.accept_source_route = 0 
net.ipv4.tcp_syncookies = 0 
net.ipv4.tcp_rmem = 4096 87380 16777216 
net.ipv4.tcp_wmem = 4096 65536 16777216 
net.ipv4.tcp_max_syn_backlog = 16384 
net.ipv4.tcp_fin_timeout = 15 
net.ipv4.tcp_max_syn_backlog = 16384 
net.ipv4.tcp_tw_reuse = 1 
net.ipv4.tcp_tw_recycle = 1 
net.ipv4.tcp_slow_start_after_idle=0

vm.swappiness = 0
vm.min_free_kbytes = 2097152
# 此处为 OceanBase 数据库的 data 目录
kernel.core_pattern = /data/ob/core-%e-%p-%t
# 保存退出

# 加载配置
[root@dev ~]# sysctl -p
fs.aio-max-nr = 1048576
net.core.somaxconn = 2048
net.core.netdev_max_backlog = 10000
net.core.rmem_default = 16777216
net.core.wmem_default = 16777216
net.core.rmem_max = 16777216
net.core.wmem_max = 16777216
net.ipv4.ip_local_port_range = 3500 65535
net.ipv4.ip_forward = 0
net.ipv4.conf.default.rp_filter = 1
net.ipv4.conf.default.accept_source_route = 0
net.ipv4.tcp_syncookies = 0
net.ipv4.tcp_rmem = 4096 87380 16777216
net.ipv4.tcp_wmem = 4096 65536 16777216
net.ipv4.tcp_max_syn_backlog = 16384
net.ipv4.tcp_fin_timeout = 15
net.ipv4.tcp_max_syn_backlog = 16384
net.ipv4.tcp_tw_reuse = 1
net.ipv4.tcp_tw_recycle = 1
net.ipv4.tcp_slow_start_after_idle = 0
vm.swappiness = 0
vm.min_free_kbytes = 209715
kernel.core_pattern = /data/ob/core-%e-%p-%t

关闭防火墙

#依次执行以下命令关闭防火墙
systemctl disable firewalld 
systemctl stop firewalld
systemctl status firewalld

[root@dev ~]# systemctl disable firewalld 
Removed symlink /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed symlink /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@dev ~]# systemctl stop firewalld
[root@dev ~]# systemctl status firewalld
● firewalld.service - firewalld - dynamic firewall daemon
   Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
   Active: inactive (dead)
     Docs: man:firewalld(1)

关闭SELinux

[root@dev ~]# vim /etc/selinux/config 
将配置
SELINUX=enforcing 
改为 
SELINUX=disabled
# 保存并退出

# 更改前的状态
[root@dev ~]# sestatus
SELinux status:                 enabled
SELinuxfs mount:                /sys/fs/selinux
SELinux root directory:         /etc/selinux
Loaded policy name:             targeted
Current mode:                   enforcing
Mode from config file:          disabled
Policy MLS status:              enabled
Policy deny_unknown status:     allowed
Max kernel policy version:      31

# 使生效(重启服务器,或执行以下命令)
[root@dev ~]# setenforce 0
# 重启
[root@dev ~]# reboot
# 重启后的状态
[root@dev ~]# sestatus
SELinux status:                 disabled

克隆虚拟机

关闭虚拟机,将配置好的机器再克隆出来3份(注意,是完整克隆)

差异化配置

每次开启一台虚拟机(ip相同,别同时起,这样一个ssh就搞定了),调整主机名和ip地址,一次设置为153、154、155、156

#修改主机名
[root@dev ~]# vim /etc/host
改为对应的dev3、dev4、dev5
# 修改静态ip
[root@dev ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33 
# 修改IPADDR
IPADDR=192.168.1.156

中控机设置无密码SSH登录目标机器

ps: 需要拥有目标机器的root用户权限。原理,就是通过ssh-copy-id将本机的密钥复制到目标机器的authorized_keys文件中,让目标机器信任中控机;

可以跳过这3步,复制下面的脚本

  • 检查中控机上是否有密钥存在(新机器铁定没有)

    ls ~/.ssh/id_rsa.pub
    
  • 中控机生成SSH公钥和私钥(执行命令后后一直回车即可)

    [root@dev6 ~]# ssh-keygen -t rsa
    
  • 在中控机器上登录目标机器(需要输入密码,输入密码后,以后就不用再输密码了)

    [root@dev6 ~]# ssh-copy-id root@192.168.1.153
    /usr/bin/ssh-copy-id: INFO: Source of key(s) to be installed: "/root/.ssh/id_rsa.pub"
    The authenticity of host '192.168.1.153 (192.168.1.153)' can't be established.
    ECDSA key fingerprint is SHA256:/3F5WaADETxAuquKv63YuXs/bAWZu50NOHetNZCKa9o.
    ECDSA key fingerprint is MD5:f8:c0:de:e0:e8:46:80:2f:af:56:fc:14:d7:78:29:7a.
    Are you sure you want to continue connecting (yes/no)? yes
    /usr/bin/ssh-copy-id: INFO: attempting to log in with the new key(s), to filter out any that are already installed
    /usr/bin/ssh-copy-id: INFO: 1 key(s) remain to be installed -- if you are prompted now it is to install the new keys
    root@192.168.1.153's password: 
    
    Number of key(s) added: 1
    
    Now try logging into the machine, with:   "ssh 'root@192.168.1.153'"
    and check to make sure that only the key(s) you wanted were added.
    # 完成以后,就可以直接免密登录了
    [root@dev6 ~]# ssh root@192.168.1.153
    Last failed login: Sun Nov 27 10:33:46 CST 2022 from 192.168.1.156 on ssh:notty
    There was 1 failed login attempt since the last successful login.
    Last login: Sat Nov 26 21:27:10 2022 from 192.168.1.108
    
#在中控机上做appuser免密登录
[root@dev6 ~]# ssh-copy-id appuser@192.168.1.153
[root@dev6 ~]# ssh-copy-id appuser@192.168.1.154
[root@dev6 ~]# ssh-copy-id appuser@192.168.1.155
[root@dev6 ~]# ssh-copy-id appuser@192.168.1.156

注意,用什么用户部署,就需要这个用户做免密登录,执行类似的ssh-copy-id appuser@192.168.1.156

以上的三步可以封装成脚本

我的root和appuser的密码都一样,shell没有进行id_rsa.pub 校验,每次执行都是重新生成

#!/usr/bin/bash
   SERVERS=("root@192.168.1.153" "root@192.168.1.154" "root@192.168.1.155" "appuser@192.168.1.153" "appuser@192.168.1.154" "appuser@192.168.1.155" "appuser@192.168.1.156")
   PASSWORD="101790"
   keygen() 
   yum -y install expect
   expect -c "
      spawn ssh-keygen -t rsa
      expect 
         *(/root/.ssh/id_rsa):*  send -- \\r;exp_continue
         *(y/n)*  send -- y\\r;exp_continue
         *Enter*  send -- \\r;exp_continue
         *(y/n)*  send -- y\\r;exp_continue
         *Enter*  send -- \\r;exp_continue
         eof exit 0
      
      expect eof
   "
   
   copy()
   expect -c "
      set timeout -1
      spawn ssh-copy-id $1
      expect 
         *(yes/no)*  send -- yes\\r; exp_continue 
         *password:*  send -- $PASSWORD\\r; exp_continue
         eof exit 0
      
      expect eof
   "
   
   ssh_copy_id_to_all()
   keygen ;
   for host in $SERVERS[@]
   do
         copy $host
   done
   
   ssh_copy_id_to_all

时钟源ntp配置(需要所有机器root)

修改中控的ntp源

[root@dev6 ~]# vim /etc/ntp.conf 
#将下面一行
server  192.168.1.156
# 修改为 阿里云的ntp服务,作为中控机的ntp源
server  ntp.aliyun.com    
# 保存并退出

# 重启ntp服务端
[root@dev6 ~]# service ntpd restart
# 查看ntp是否启动成功
[root@dev6 ~]# netstat -anp | grep   ntpd
udp        0      0 192.168.122.1:123       0.0.0.0:*                           12498/ntpd          
udp        0      0 192.168.1.156:123       0.0.0.0:*                           12498/ntpd          
udp        0      0 127.0.0.1:123           0.0.0.0:*                           12498/ntpd          
udp        0      0 0.0.0.0:123             0.0.0.0:*                           12498/ntpd          
udp6       0      0 fe80::20c:29ff:fea2:123 :::*                                12498/ntpd          
udp6       0      0 ::1:123                 :::*                                12498/ntpd          
udp6       0      0 :::123                  :::*                                12498/ntpd          
unix  2      [ ]         DGRAM                    140639   12498/ntpd    

#我们看下ntp.aliyun.com的ip地址是什么
[root@dev6 ~]# ping ntp.aliyun.com
PING ntp.aliyun.com (203.107.6.88) 56(84) bytes of data.
64 bytes from 203.107.6.88 (203.107.6.88): icmp_seq=1 ttl=53 time=17.1 ms
#我们看下ntp 服务的源也是203.107.6.88 ,说明配置成功
[root@dev6 ~]# ntpq -p
     remote           refid      st t when poll reach   delay   offset  jitter
==============================================================================
 203.107.6.88    100.107.25.114   2 u    3   64    3   20.746  -145.90   0.787

#刚配置完,并没有同步
[root@dev6 ~]# ntpstat
unsynchronised
  time server re-starting
   polling server every 8 s
#同步成功以后   
[root@dev6 ~]# ntpstat
synchronised to NTP server (203.107.6.88) at stratum 3
   time correct to within 26 ms
   polling server every 64 s   

在目标机器开启NTP客户端服务

ps: NTP 服务端服务启动后,您需要等待 5 分钟再开启 NTP 客户端服务。否则系统会提示 no server suitable for synchronization found

使用ntpdate手动立即同步

# 修改客户端时间
[root@dev3 ~]# date -s "2022-10-30 10:27:16"
20221030日 星期日 10:27:16 CST
# 查看修改后的时间
[root@dev3 ~]# date
20221030日 星期日 10:27:32 CST
#使用ntpdate立即同步ntp服务器时间
[root@dev3 ~]# ntpdate 192.168.1.156
27 Nov 15:51:50 ntpdate[14021]: step time server 192.168.1.156 offset 2438624.076604 sec
# 同步后的时间
[root@dev3 ~]# date
20221127日 星期日 15:52:25 CST

注意:以上只是同步一次时间,可以设置为定时任务,每天进行同步

[root@dev3 ~]# crontab -e
0 12 * * * /usr/sbin/ntpdate 192.168.1.156

自动同步(以ntp作为客户端)

[root@dev3 ~]#  vim /etc/ntp.conf
#修改内容如下
server 192.168.1.156  prefer 
# 保存并退出

# 启动ntpd服务
#[root@dev3 ~]# service ntpd restart
# 查看ntp的状态,可以看到已经指向了192.168.1.156
[root@dev3 ~]# ntpstat
synchronised to NTP server (192.168.1.156) at stratum 4
   time correct to within 37 ms
   polling server every 128 s

部署

从4.0开始,ob提供了统一的安装包all-in-one package。我们可以通过这个包一次性完成OBD、OceanBase数据库、OBProxy、obagent等的安装。

下载&解压

在dev6上下载

# 下载
[root@dev6 ~]# cd /app/
[root@dev6 app]# wget https://obbusiness-private.oss-cn-shanghai.aliyuncs.com/download-center/opensource/oceanbase-all-in-one/7/x86_64/oceanbase-all-in-one.4.0.0.0-beta-100120221102135736.el7.x86_64.tar.gz

#解压
[root@dev6 app]# tar zxvf oceanbase-all-in-one.4.0.0.0-beta-100120221102135736.el7.x86_64.tar.gz

安装OBD

[root@dev6 app]# cd oceanbase-all-in-one/bin/
[root@dev6 bin]# ls
env.sh  install.sh  uninstall.sh
#安装
[root@dev6 bin]# ./install.sh 
# 检验obd
[root@dev6 bin]# which obd
/root/.oceanbase-all-in-one/obd/usr/bin/obd
[root@dev6 bin]# which obclient
/root/.oceanbase-all-in-one/obclient/u01/obclient/bin/obclient

安装数据库

安装成功以后,在 ~/.oceanbase-all-in-one/conf/autodeploy目录下会有相关的配置文件,我们重点看下autodeploy目录下的配置文件。

  • single-example.yaml单机版部署配置文件
  • default-example.yaml集群版部署配置文件

我部署的是集群版

[root@dev6 autodeploy]# cd ~/.oceanbase-all-in-one/conf/autodeploy
[root@dev6 autodeploy]# vim default-example.yaml 
# 说明
##  如果使用root部署,就不需要再改user这里了,我用appuser部署,就改了(root之前已经做了免密登录)
user:
   username: appuser
   password: 101790
## 修改部署的服务器和相关目录
oceanbase-ce:
  servers:
    - name: server1 # 起的名字,在后面可以根据名字配置不同的配置,后面只配置了zone
      # Please don't use hostname, only IP can be supported
      ip: 192.168.1.153
    - name: server2
      ip: 192.168.1.154
    - name: server3
      ip: 192.168.1.155
  global:
    # ob 部署的目录
    home_path: /app/observer
    # 数据目录,数据目录一定要是空的,存储的是sstable的文件
    data_dir: /data/ob
    # ob的 clog, ilog, and slog. 不配置在data目录,测试就放一起了
    #redo_dir: /redo/ob
    # 前面找的网卡名称,跟servers里指定的ip对应的网卡,如果网卡不同,可以参考zone那里,每个server填写
    devname: ens33    
    #进程observer对应的链接端口,默认2181
    #mysql_port: 2881 
    #observer跟其他进程之间的rpc通信端口,默认2182
    #rpc_port: 2882 
    #ob设置的最大内存,最小不少于8G
    #memory_limit: 8G 
    # OB留给集群内部用的保留内存,会占用memory_limit
    #system_memory: 4G
    #运行日志的级别,默认日志级别是INFO,支持 DEBUG, TRACE, INFO, WARN, USER_ERR, ERROR 六种级别
    #syslog_level: WARN
    # 日志是否覆盖,最多保留max_syslog_file_count 数量的日志文件
    #enable_syslog_recycle: TRUE
    #日志文件数量,这里默认保留最多 10 个历史运行日志文件
    #max_syslog_file_count: 10
    #OB集群的超级管理员root@sys的密码,默认为空
    #root_password: 密码
    #OBProxy连接OB集群使用的账户名(proxyro)的密码,默认为空
    #proxyro_password: 密码
  server1:
    zone: zone1 # 逻辑机房的概念
  server2:
    zone: zone2
  server3:
    zone: zone3
obproxy-ce:
  depends:
    - oceanbase-ce
  servers:
    - 192.168.1.156
  global:
    # The working directory for obproxy. Obproxy is started under this directory. This is a required field.
    home_path: /app/obproxy
    skip_proxy_sys_private_check: true
    enable_strict_kernel_release: false
obagent:
  depends:
    #依赖的配置,会自动复用集群的`proxyro`密码、集群名等
    - oceanbase-ce 
  servers:
    - name: server1
      # Please don't use hostname, only IP is supported.
      ip: 192.168.1.153
    - name: server2
      ip: 192.168.1.154
    - name: server3
      ip: 192.168.1.155
  global:
    # The working directory for obagent. obagent is started under this directory. This is a required field.
    home_path: /app/obagent
#prometheus:
#  servers:
#    - 192.168.1.156
#  global:
#    home_path: /app/prometheus    
#grafana:
#  servers:
#    - 192.168.1.156
#  depends:
#    - prometheus
#  global:
#    home_path: /app/grafana
#    login_password: oceanbase    

部署

#在  ~/.oceanbase-all-in-one/conf/autodeploy  目录下执行
[root@dev6 autodeploy]$ obd cluster autodeploy obtest -c default-example.yaml

友情提示:deploy name 使用_命名不要用-命名,否则在ocp中无法显示,ob的命名规范是_

# 如果部署过程中失败,[ERROR] Deploy "obdev" is deployed. You could not deploy an deployed cluster. 
# 通过obd cluster list 查看部署的集群,然后,删除对应的配置
[root@dev6 autodeploy]# obd cluster list
+------------------------------------------------------+
|                     Cluster List                     |
+--------+---------------------------+-----------------+
| Name   | Configuration Path        | Status (Cached) |
+--------+---------------------------+-----------------+
| obtest | /root/.obd/cluster/obtest | deployed        |
| obdev  | /root/.obd/cluster/obdev  | deployed        |
+--------+---------------------------+-----------------+
#删除
[root@dev6 autodeploy]# rm -rf ~/.obd/cluster/obtest

部署成功后,default-example.yaml会复制到/root/.obd/cluster/obtest 目录下,并改名,以后集群读取的就是这个文件了

我们看下obd的语法

#我们可以一层层的使用 -help获取对应命令的帮助文档
[root@dev6 autodeploy]# obd cluster autodeploy -help
Usage: obd cluster autodeploy <deploy name> [options]
- deploy name 为集群名称,友情提示下,如果
Options:
  -c CONFIG, --config=CONFIG  # 指定配置文件
                        Path to the configuration file.
  -f, --force           Force autodeploy, overwrite the home_path.
  -C, --clean           Clean the home path if the directory belong to you.
  -U, --unuselibrepo, --ulp
                        Disable OBD from installing the libs mirror
                        automatically.
  -A, --auto-create-tenant, --act
                        Automatically create a tenant named `test` by using
                        all the available resource of the cluster.
  --force-delete        Force delete, delete the registered cluster.
  -s, --strict-check    Throw errors instead of warnings when check fails.
  -h, --help            Show help and exit.
  -v, --verbose         Activate verbose output.

springboot整合oceanbase,实现oracle无缝切换到oceanbase(代码片段)

...💅开源项目:【轮子之王】文章目录前言Springboot整合Oceanbase一、引入依赖二、添加数据库连接配置三、处理异常Mybatis-plus框架异常四、数据库方言五、设 查看详情

springboot整合oceanbase,实现oracle无缝切换到oceanbase(代码片段)

...💅开源项目:【轮子之王】文章目录前言Springboot整合Oceanbase一、引入依赖二、添加数据库连接配置三、处理异常Mybatis-plus框架异常四、数据库方言五、设 查看详情

猿创征文|国产数据库实战之使用docker部署oceanbase数据库(代码片段)

猿创征文|国产数据库实战之使用Docker部署OceanBase数据库一、OceanBase介绍1.OceanBase介绍2.OceanBase特点3.OceanBase数据库基础概念4.OceanBase相关概念①OBServer②区域(zone)③资源池④租户⑤数据分区⑥副本5.本次实践介绍二、检查... 查看详情

oceanbase创建租户(代码片段)

OceanBase创建租户使用root用户连接sysy租户使用root用户连接sys租户[admin]#mysql-h192.168.1.71-P2881-Doceanbase-uroot@sys-pOceanbase2881-A创建单元规格查看已创有的资源单元规格obclient[oceanbase]>select*from__all_unit_config;+----------------------------+---------... 查看详情

oceanbase安装

背景:OceanBase是阿里巴巴、蚂蚁金服自主研发的可扩展的分布式关系数据库,实现了数千亿条记录、数百 TB 数据上的跨行跨表事务,主要支持支付宝核心的交易、支付、会员和账务系统等 OLTP 和 OLAP 在线... 查看详情

springboot整合oceanbase,实现oracle无缝切换到oceanbase(代码片段)

...💅开源项目:【轮子之王】文章目录前言Springboot整合Oceanbase一、引入依赖二、添加数据库连接配置三、处理异常Mybatis-plus框架异常四、数据库方言五、设置方言的必要性六、数据库驱动与方言写在最后前言  随着去“IOE”... 查看详情

springboot整合oceanbase,实现oracle无缝切换到oceanbase(代码片段)

...💅开源项目:【轮子之王】文章目录前言Springboot整合Oceanbase一、引入依赖二、添加数据库连接配置三、处理异常Mybatis-plus框架异常四、数据库方言五、设置方言的必要性六、数据库驱动与方言写在最后前言  随着去“IOE”... 查看详情

猿创征文|oceanbase社区版集群部署(代码片段)

📢📢📢📣📣📣哈喽!大家好,我是【IT邦德】,江湖人称jeames007,10年DBA工作经验一位上进心十足的【大数据领域博主】!😜😜😜中国DBA联盟(ACDU)成员,目前从 查看详情

一文读懂国产分布式数据库tidb&oceanbase原理(代码片段)

...据库的使用就很好的契合了这个场景。本文分析阿里云的OceanBase和PingCAPTiDB两款分布式数据库,主要从产品架构、数据分片原理、数据同步原理、MVCC多版本并发控制、相关底层的算法分析的层面浅谈两款数据库的特点。  Oce... 查看详情

一文读懂国产分布式数据库tidb&oceanbase原理(代码片段)

...据库的使用就很好的契合了这个场景。本文分析阿里云的OceanBase和PingCAPTiDB两款分布式数据库,主要从产品架构、数据分片原理、数据同步原理、MVCC多版本并发控制、相关底层的算法分析的层面浅谈两款数据库的特点。  Oce... 查看详情

蚂蚁金服庆涛:oceanbase支撑2135亿成交额背后的技术原理

演讲嘉宾简介:梅庆(花名:庆涛)现任蚂蚁金服OceanBase团队技术专家,曾经支持过阿里云数据库和天猫双11大促业务,在分布式数据库的开发和架构上有着丰富的经验。目前主要从事OceanBase对外输出的解决方案设计和技术推广... 查看详情

技术圈热议:阿里github项目被爆"刷star"!这波又摊上事了...(代码片段)

...了。提到国内自研数据库,阿里巴巴推出的云数据库OceanBase肯定不可绕过。OceanBase是阿里巴巴和蚂蚁金服100%自主研发的金融级分布式关系数据库。2019年10月,OceanBase刷榜TPC-C排行榜,打破了由Oracle保持了9年之久的 查看详情

oceanbase的bilibili

..._哔哩哔哩_BilibiliOB小话唠,github:https://github.com/oceanbase/oceanbase欢迎大家star;OB小话唠的主页、动态、视频、专栏、频道、收藏、订阅等。哔哩哔哩Bilibili,你感兴趣的视频都在B站。https://space.bilibili.com/1918759067 查看详情

oceanbase的bilibili

..._哔哩哔哩_BilibiliOB小话唠,github:https://github.com/oceanbase/oceanbase欢迎大家star;OB小话唠的主页、动态、视频、专栏、频道、收藏、订阅等。哔哩哔哩Bilibili,你感兴趣的视频都在B站。https://space.bilibili.com/1918759067 查看详情

oceanbase的bilibili

..._哔哩哔哩_BilibiliOB小话唠,github:https://github.com/oceanbase/oceanbase欢迎大家star;OB小话唠的主页、动态、视频、专栏、频道、收藏、订阅等。哔哩哔哩Bilibili,你感兴趣的视频都在B站。https://space.bilibili.com/1918759067 查看详情

oracle11grac集群安装部署(代码片段)

...作,主要服务于生产制造现拥有Oracle11gOCP/OCM、Mysql、Oceanbase(OBCA)认证分布式TBase\\TDSQL数据库、国产达梦数据库以及红帽子认证从业8年DBA工作,在数据库领域有丰富的经验擅长主流数据Oracle、MySQL、PG运维开发... 查看详情

oceanbase数据库备份恢复描述不正确

参考技术AOceanBase数据库是一个读写分离的系统。OceanBase内部数据按照存储方式,划分为基于SSTable格式的基线数据和基于MemTable格式的增量数据。Oceanbase数据库备份是一个读写分离的系统。OceanBase的物理备份就是把某次合并的基... 查看详情

大名鼎鼎的oceanbase居然在买star了?

OceanBase,相信大家都不陌生了吧?OceanBase是由蚂蚁集团完全自主研发的企业级分布式关系数据库,始创于2010年。OceanBase具有数据强一致、高可用、高性能、在线扩展、高度兼容SQL标准和主流关系数据库、低成本等特... 查看详情