分布式文件系统--------glusterfs最佳实战
1. 背景
GlusterFS 是一个开源的分布式文件系统,具有强大的横向扩展能力,通过扩展能够支持数PB存储容量和处理数千客户端。GlusterFS借助TCP/IP或InfiniBand RDMA(一种支持多并发链接的“转换线缆”技术)网络将物理分布的存储资源聚集在一起,使用单一全局命名空间来管理数据。GlusterFS基于可堆叠的用户空间设计,可为各种不同的数据负载提供优异的性能。
GlusterFS支持运行在任何标准IP网络上标准应用程序的标准客户端
2. 优势
* 线性横向扩展和高性能
* 高可用性
* 全局统一命名空间
* 弹性哈希算法和弹性卷管理
* 基于标准协议
* 完全软件实现(Software Only)
* 用户空间实现(User Space)
* 模块化堆栈式架构(Modular Stackable Architecture)
* 原始数据格式存储(Data Stored in Native Formats)
* 无元数据服务设计(No Metadata with the Elastic Hash Algorithm)
3. 环境
server_1 CentOS 7.2.1511 (Core) 192.168.60.201
server_2 CentOS 7.2.1511 (Core) 192.168.60.202
4. 安装
* server_1 安装centos-release-gluster
[[email protected]_1 ~]# yum install centos-release-gluster -y
* server_1 安装 glusterfs-server
[[email protected]_1 ~]# yum install glusterfs-server -y
* server_1 启动 glusterfs-server 服务
[[email protected]_1 ~]# systemctl start glusterd
* server_2 安装centos-release-gluster
[[email protected]_2 ~]# yum install centos-release-gluster -y
* server_2 安装 glusterfs-server
[[email protected]_2 ~]# yum install glusterfs-server -y
* server_2 启动 glusterfs-server 服务
[[email protected]_2 ~]# systemctl start glusterd
5. 建立信任池 [ 信任单向建立即可 ]
* server_1 对 server_2 建立信任
[[email protected]_1 ~]# gluster peer probe 192.168.60.202 peer probe: success.
* 查看信任池建立情况
[[email protected]_1 ~]# gluster peer status Number of Peers: 1 Hostname: 192.168.60.202 Uuid: 84d98fd8-4500-46d3-9d67-8bafacb5898b State: Peer in Cluster (Connected) [[email protected]_2 ~]# gluster peer status Number of Peers: 1 Hostname: 192.168.60.201 Uuid: 20722daf-35c4-422c-99ff-6b0a41d07eb4 State: Peer in Cluster (Connected)
6. 创建分布式卷
* server_1 和 server_2 创建数据存放目录
[[email protected]_1 ~]# mkdir -p /data/exp1 [[email protected]_2 ~]# mkdir -p /data/exp2
* 使用命令创建分布式卷,命名为test-volume
[[email protected]_1 ~]# gluster volume create test-volume 192.168.60.201:/data/exp1 192.168.60.202:/data/exp2 force volume create: test-volume: success: please start the volume to access data
* 查看卷信息
[[email protected]_1 ~]# gluster volume info test-volume Volume Name: test-volume Type: Distribute Volume ID: 457ca1ff-ac55-4d59-b827-fb80fc0f4184 Status: Created Snapshot Count: 0 Number of Bricks: 2 Transport-type: tcp Bricks: Brick1: 192.168.60.201:/data/exp1 Brick2: 192.168.60.202:/data/exp2 Options Reconfigured: transport.address-family: inet nfs.disable: on [[email protected]_2 ~]# gluster volume info test-volume Volume Name: test-volume Type: Distribute Volume ID: 457ca1ff-ac55-4d59-b827-fb80fc0f4184 Status: Created Snapshot Count: 0 Number of Bricks: 2 Transport-type: tcp Bricks: Brick1: 192.168.60.201:/data/exp1 Brick2: 192.168.60.202:/data/exp2 Options Reconfigured: transport.address-family: inet nfs.disable: on
* 启动卷
[[email protected]_1 ~]# gluster volume start test-volume volume start: test-volume: success
7. 创建复制卷 [ 对比Raid 1 ]
* server_1 和 server_2 创建数据存放目录
[[email protected]_1 ~]# mkdir -p /data/exp3 [[email protected]_2 ~]# mkdir -p /data/exp4
* 使用命令创建复制卷,命名为repl-volume
[[email protected]_1 ~]# gluster volume create repl-volume replica 2 transport tcp 192.168.60.201:/data/exp3 192.168.60.202:/data/exp4 force volume create: repl-volume: success: please start the volume to access data
* 查看卷信息
[[email protected]_1 ~]# gluster volume info repl-volume Volume Name: repl-volume Type: Replicate Volume ID: 1924ed7b-73d4-45a9-af6d-fd19abb384cd Status: Created Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: 192.168.60.201:/data/exp3 Brick2: 192.168.60.202:/data/exp4 Options Reconfigured: transport.address-family: inet nfs.disable: on [[email protected]_2 ~]# gluster volume info repl-volume Volume Name: repl-volume Type: Replicate Volume ID: 1924ed7b-73d4-45a9-af6d-fd19abb384cd Status: Created Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: 192.168.60.201:/data/exp3 Brick2: 192.168.60.202:/data/exp4 Options Reconfigured: transport.address-family: inet nfs.disable: on
* 启动卷
[[email protected]_1 ~]# gluster volume start repl-volume volume start: repl-volume: success
8. 创建条带卷 [ 对比Raid 0 ]
* server_1 和 server_2 创建数据存放目录
[[email protected]_1 ~]# mkdir -p /data/exp5 [[email protected]_2 ~]# mkdir -p /data/exp6
* 使用命令创建复制卷,命名为raid0-volume
[[email protected]_1 ~]# gluster volume create raid0-volume stripe 2 transport tcp 192.168.60.201:/data/exp5 192.168.60.202:/data/exp6 force volume create: raid0-volume: success: please start the volume to access data
* 查看卷信息
[[email protected]_1 ~]# gluster volume info raid0-volume Volume Name: raid0-volume Type: Stripe Volume ID: 13b36adb-7e8b-46e2-8949-f54eab5356f6 Status: Created Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: 192.168.60.201:/data/exp5 Brick2: 192.168.60.202:/data/exp6 Options Reconfigured: transport.address-family: inet nfs.disable: on [[email protected]_2 ~]# gluster volume info raid0-volume Volume Name: raid0-volume Type: Stripe Volume ID: 13b36adb-7e8b-46e2-8949-f54eab5356f6 Status: Created Snapshot Count: 0 Number of Bricks: 1 x 2 = 2 Transport-type: tcp Bricks: Brick1: 192.168.60.201:/data/exp5 Brick2: 192.168.60.202:/data/exp6 Options Reconfigured: transport.address-family: inet nfs.disable: on
* 启动卷
[[email protected]_1 ~]# gluster volume start raid0-volume volume start: raid0-volume: success
9. 客户端应用
* 安装glusterfs-cli
[[email protected] ~]# yum install glusterfs-cli -y
* 创建挂载目录
[[email protected] ~]# mkdir /mnt/g1 /mnt/g2 /mnt/g3
* 挂载卷
[[email protected]_1 ~]# mount.glusterfs 192.168.60.201:/test-volume /mnt/g1 [[email protected]_1 ~]# mount.glusterfs 192.168.60.202:/repl-volume /mnt/g2 [[email protected]_1 ~]# mount.glusterfs 192.168.60.201:/raid0-volume /mnt/g3
10. 扩展卷
* 创建存放目录
[[email protected]_1 ~]# mkdir -p /data/exp9
* 扩展卷
[[email protected]_1 ~]# gluster volume add-brick test-volume 192.168.60.201:/data/exp9 force volume add-brick: success
* 重新均衡
[[email protected]_1 ~]# gluster volume rebalance test-volume start volume rebalance: test-volume: success: Rebalance on test-volume has been started successfully. Use rebalance status command to check status of the rebalance process. ID: 008c3f28-d8a1-4f05-b63c-4543c51050ec
11. 总结
以需求驱动技术,技术本身没有优略之分,只有业务之分。
本文出自 “sea” 博客,请务必保留此出处http://lisea.blog.51cto.com/5491873/1937242
相关内容
56.glusterfs分布式文件系统
GlusterFS分布式文件系统
GlusterFS是一个开源的分布式文件系统,软件的结构设计良好,易于扩展和配置,通过各个模块的灵活搭配得到针对性的解决方案。可解决一下问题:网络存储,联合存储,冗余备份,大文件的负载均衡。可靠性也未经过长时间的考验,还不适合应用于提供24小时不间断服务的产品环境。目前适用于大数据量的离线应用。
GlusterFS通过infiniband RDMA或者TCP/IP的方式将许多廉价的X86主机,通过网络互联成一个并行的网络文件系统。
注释:
Brick:GFS中的存储单元,通过一个受信存储池中的服务器的一个导出目录。
Client:挂在GFS卷的设备。
Node:存放Brick的设备。
RDMA:远程直接内存访问。
GFID:GFS卷中每个文件或目录都有一个唯一的128位的数据相关联。
FUSE:是一个可加载的内核模块,支持非特权用户创建自己的文件系统而不需要修改内核代码。
GlusterFS的部署:
v 安装依赖包
#yum -y install xfsprogs fuse fuse-libs libacl-devel flex bison openssl-devel sqlite-devel libxml2
# rpm -ivh userspace-rcu-0.9.2-2.fc25.x86_64.rpm
# rpm -ivh userspace-rcu-devel-0.9.2-2.fc25.x86_64.rpm
v 安装三部曲
#./configure --prefix=/usr/local/gluster
#make && make install
v 手动指定系统找到URCU
# ldconfig
# pkg-config --libs --cflags liburcu-bp liburcu
v 定义系统变量
# vim /etc/profile
添加内容:
PATH=$PATH:/usr/local/gluster/sbin
v 开启Glusterd服务
# glusterd start
# ps aux |grep glusterd
Gluster的使用:
v Gluster群集关联
#gluster peer probe 1.1.1.1
#gluster peer probe 1.1.1.2
#gluster peer probe 1.1.1.3
v 主机添加一块硬盘,格式化与挂载
#fdisk -l
#fdisk /dev/sdb
#mkfs /dev/sdb1
#mount /dev/sdb1 /a
v 创建卷
多块磁盘组成一个卷,不做RAID
# gluster volume create renvg 1.1.1.1:/a 1.1.1.2:/b 1.1.1.3:/c
多块磁盘组成一个卷,做成RAID1
# gluster volume create renvg replica 2 1.1.1.1:/a 1.1.1.2:/b 1.1.1.3:/c
v 将卷挂载在文件夹即可
#mount -t glusterfs -o acl master:/renvg /opt/a
Gluster基本命令汇总
命令 | 描述 |
Gluster volume stop renvg | 停止卷的使用 |
Gluster volume start renvg | 开始卷的使用 |
Gluster volume delete renvg | 删除卷 |
修复卷中的磁盘
Gluster volume replace-brick renvg 1.1.1.1:/a 1.1.1.3:/new Gluster volume heal renvg full | 修复卷 |
扩展卷容量
Gluster volume add-brick renvg 1.1.1.4:/new | 在线扩展卷的容量 |
Gluster volume rebalance renvg start | 平衡数据 |
减少卷容量
Gluster volume remove-brick renvg 1.1.1.1:/a start | 在线减少卷的容量 |
Gluster volume remove-brick renvg 1.1.1.1:/a status | 查看删除卷的状态 |
Gluster volume remove-brick renvg commit | 提交移除操作 |
磁盘配额
Gluster volume quota renvg enable | 开启磁盘配额 |
Gluster volume quota renvg limit -usage /quo_a 10Gb | 设置该目录只可以使用卷的10Gb |
Gluster volume quota renvg list | 显示当前的配额使用量 |
Gluster volume quota renvg remove /quo_a | 去除目录配额 |
Gluster volume quota renvg disable | 停用磁盘配额 |
创建卷使用RAID
Gluster volume create renvg stripe 3 1.1.1.1:/a 1.1.1.2:/b 1.1.1.3:/c
| RAID0 |
Gluster volume create renvg replica2 stripe 3 1.1.1.1:/a 1.1.1.2:/b 1.1.1.3:/c
| RAID1+0 |
Gluster volume create renvg disperse 6 redundancy 1 1.1.1.1:/a 1.1.1.2:/b 1.1.1.3:/c
| RAID5 |
Gluster volume create renvg disperse 10 redundancy 5 | RAID6 |
注:绿色的为卷的名字。