经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 其他 » TCP/IP和HTTP » 查看文章
CEPH LIO iSCSI Gateway
来源:cnblogs  作者:Netonline  时间:2019/2/26 9:25:03  对本文有异议

参考文档:

  1. Ceph Block Device:http://docs.ceph.com/docs/master/rbd/
  2. CEPH ISCSI GATEWAY:http://docs.ceph.com/docs/master/rbd/iscsi-overview/
  3. USING AN ISCSI GATEWAY:https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/3/html/block_device_guide/using_an_iscsi_gateway
  4. 参考1:https://ceph.com/planet/ceph%E7%9A%84iscsi-gateway/
  5. 参考2:http://blog.51cto.com/devingeng/2125656
  6. 参考3:https://blog.csdn.net/hedongho/article/details/80573989
  7. 参考4:https://www.jianshu.com/p/a6d03fe5290e
  8. 参考5,LIO iSCSI Target:https://blog.csdn.net/shajc0504/article/details/40928923
  9. CEPH ISCSI三种网关:http://xiaqunfeng.cc/2018/02/28/ceph-iscsi%E7%BD%91%E5%85%B3/
  10. tgt方式挂载ceph rbd:https://my.oschina.net/renguijiayi/blog/340666
  11. tgtadm使用(tgt方式):https://blog.csdn.net/chenyulancn/article/details/52993806

一.TGT && LIO

1. Ceph Block框架

2. Ceph iSCSI基本框架

iSCSI gateway的实现主要有TGT && LIO两种方式。

3. TGT

TGTLinux target framework,为创建、维护SCSI target 驱动(包括iSCSI、FC、SRP等)提供支持。

  1. 工作在用户空间;
  2. 在Linux 2.6.38 版本后(含),内核集成了 Linux-IO Target。

在ceph集成原生iscsi之前,通常使用基于用户空间的"scsi-target-utils"套件实现tgt。

基于centos7.x系列,安装"scsi-target-utils"套件后,iscsi并不支持ceph rbd后端存储(通过"tgtadm --lld iscsi --mode system --op show"查看),主要原因是redhat针对套件屏蔽了支持ceph rbd后端存储的代码。

解决方案:通过"rbd map xxx"将ceph rbd挂载到本地后,再通过iscsi tgt的"direct-store"模式发布ceph块存储。

方案缺点:"rbd map xxx"挂载ceph rbd是通过"ceph rbd kernel module"的形式,tgt在用户空间实现,导致发布的ceph rbd在内核态与用户态之间频繁切换,影响性能。

4. LIO

LIOLinux-IO Target,用软件实现各种SCIS Target。

  1. 工作在内核空间;
  2. 支持较多传输协议,如Fibre Channel(Qlogic,linux3.5)、FCoE(linux3.0)、iSCSI(linux 3.1)、iSER (Mellanox InfiniBand,linux3.10), SRP (Mellanox InfiniBand,linux3.3), USB等;
  3. 对 iSCSI RFC 规范的支持非常好,包括完整的错误恢复都有支持;
  4. 从内核 3.17 开始引入用户态后端支持,即 TCMU(Target Core Module in Userspace)
  5. 在Linux 2.6.38 版本后(含),内核集成了 Linux-IO Target。

本文主要介绍基于LIO的ceph原生iscsi 实现方式,LIO利用用户空间直通(即TCMU)与ceph的librbd库进行交互(tcmu-runner处理LIO TCM后端存储的用户空间端的守护进程,在内核之上多了一个用户态的驱动层,这样只需要根据tcmu的标准来对接接口即可,而不用去直接与内核进行交互),并将rbd image暴露给iSCSI客户端。

二.环境准备

1. 内核/软件要求(iscsi gateway)

  1. A running Ceph Luminous or later storage cluster,本文采用:13.2.1 mimic (stable);
  2. RHEL/CentOS 7.5; Linux kernel v4.16 or newer; or the Ceph iSCSI client test kernel,本文采用:CentOS 7.5 with Linux kernel v4.18.8-1.el7.elrepo.x86_64;
  3. The following packages must be installed from your Linux distribution's software repository:

    targetcli-2.1.fb47 or newer package,本文采用:2.1.fb47;

    python-rtslib-2.1.fb64 or newer package,本文采用:2.1.fb64-3;

    tcmu-runner-1.3.0 or newer package,本文采用:1.3.0-0.4.2;

    ceph-iscsi-config-2.4 or newer package,本文采用:2.5-1;

    ceph-iscsi-cli-2.5 or newer package,本文采用:2.5-10。

    以上rpm包并不能直接下载,整理本文采用的rpm包如下,链接:https://pan.baidu.com/s/1i-0GLqxjMv3P3c3YYoyhiQ 密码:ncxv

2. 安装要求(iscsi gateway)

  1. ntp已部署,selinux已禁用;
  2. 除ceph集群需要开放的端口外,另开放tcp 3260(iscsi通信)与tcp 5000(rbd-target-api)端口,本文不启用firewalld或iptables;
  3. ceph集群已部署,可参考:https://www.cnblogs.com/netonline/p/9367802.html
  4. 如果iscsi gateway与osd节点没有融合部署,需要复制ceph的配置文件(即/etc/ceph/目录下相关文件)到iscsi gateway所在节点,本文采用融合部署。

3. 主机

Hostname

IP

Service

Remark

ceph01

publice:172.30.200.57

cluster:192.30.200.57

 

centos7.5 with kernel v4.18.7-1

ceph02

publice:172.30.200.58

cluster:192.30.200.58

 

centos7.5 with kernel v4.18.7-1

ceph03

publice:172.30.200.59

cluster:192.30.200.59

 

centos7.5 with kernel v4.18.7-1

ceph-client

172.30.200.50

 

iscsi-initiator-utils v6.2.0.874-7

device-mapper-multipath v0.4.9-119

4. 修改ceph集群配置参数(option)

针对ceph-mon或osd节点,并没有特殊的iscsi-gateway参数选项,但降低若干默认的检测osd宕机时间,可以有效降低initiator的连接超时。

  1. # 可在ceph-mon节点修改ceph.conf文件后分发到所有节点,如:
  2. [root@ceph01 ~]# su - cephde
  3. [cephde@ceph01 ~]$ cd cephcluster/
  4. [cephde@ceph01 cephcluster]$ cat ceph.conf
  5. # 新增参数
  6. [osd]
  7. osd client watch timeout = 15
  8. osd heartbeat grace = 20
  9. osd heartbeat interval = 5
  10. # 分发,需要重启服务
  11. [cephde@ceph01 cephcluster]$ ceph-deploy admin ceph01 ceph02 ceph03
  12. # 通过ceph-deply节点,在线修改参数,如下:
  13. [cephde@ceph01 cephcluster]$ sudo ceph tell osd.* config set osd_client_watch_timeout 15
  14. [cephde@ceph01 cephcluster]$ sudo ceph tell osd.* config set osd_heartbeat_grace 20
  15. [cephde@ceph01 cephcluster]$ sudo ceph tell osd.* config set osd_heartbeat_interval 5

三.iSCSI Gateway

1. 安装iscsi gateway

  1. # 为了多路径高可用,iscsi gateway在多osd节点部署,下面以ceph01节点为例,其余节点类似,必要时根据节点做调整;
  2. # 下载必需的软件后,利用”yum localinstall *”统一安装,可解决依赖问题
  3. [root@ceph01 ~]# cd ~/ceph-iscsi/
  4. [root@ceph01 ceph-iscsi]# yum localinstall * -y

2. 配置iscsi-gateway.cfg

  1. # 在osd节点/etc/ceph/目录下创建iscsi-gateway.cfg文件,所有iscsi-gateway节点配置内容相同,以ceph01节点为例;
  2. # iscsi-gateway.cfg文件中,只需要根据实际情况修改trusted_ip_list,其是每个iscsi网关上的ip地址列表,用于管理操作,如目标创建,LUN导出等
  3. # trusted_ip_list可与用于iSCSI数据的ip相同,但条件允许时推荐使用分离的IP
  4. [root@ceph01 ~]# touch /etc/ceph/iscsi-gateway.cfg
  5. [root@ceph01 ~]# vim /etc/ceph/iscsi-gateway.cfg
  6. [config]
  7. # Name of the Ceph storage cluster. A suitable Ceph configuration file allowing
  8. # access to the Ceph storage cluster from the gateway node is required, if not
  9. # colocated on an OSD node.
  10. cluster_name = ceph
  11. # Place a copy of the ceph cluster's admin keyring in the gateway's /etc/ceph
  12. # drectory and reference the filename here
  13. gateway_keyring = ceph.client.admin.keyring
  14. # API settings.
  15. # The API supports a number of options that allow you to tailor it to your
  16. # local environment. If you want to run the API under https, you will need to
  17. # create cert/key files that are compatible for each iSCSI gateway node, that is
  18. # not locked to a specific node. SSL cert and key files *must* be called
  19. # 'iscsi-gateway.crt' and 'iscsi-gateway.key' and placed in the '/etc/ceph/' directory
  20. # on *each* gateway node. With the SSL files in place, you can use 'api_secure = true'
  21. # to switch to https mode.
  22.  
  23. # To support the API, the bear minimum settings are:
  24. api_secure = false
  25. # Additional API configuration options are as follows, defaults shown.
  26. # api_user = admin
  27. # api_password = admin
  28. # api_port = 5001
  29. trusted_ip_list = 172.30.200.57,172.30.200.58,172.30.200.59 

3. 创建rbd pool

  1. # rbd-target-api依赖于rbd-target-gw,rbd-target-gw服务依赖于”rbd”池的提前建立,且pool的名字必须是”rbd”
  2. [root@ceph01 ~]# ceph osd pool create rbd 256
  3.  
  4. # 创建pool后需要启动pool的属性,如块存储池”rbd”,属性关键字在最后
  5. [root@ceph01 ~]# ceph osd pool application enable rbd rbd

  1. # 查看pool,或”ceph osd lspools”,” ceph osd pool ls“,”rados df”等
  2. [root@ceph01 ~]# ceph osd pool get rbd all

4. 启动iscsi-gateway api服务

  1. # 服务需要在所有iscsi-gateway节点启动,以ceph01节点为例;
  2. # 在启动”rbd-target-api”服务的同时,会启动”rbd-target-gw”服务;
  3. # 注意提前创建”rbd” pool,rbd-target-api依赖于rbd-target-gw,rbd-target-gw服务依赖于”rbd”池
  4. [root@ceph01 ~]# systemctl daemon-reload
  5. [root@ceph01 ~]# systemctl enable rbd-target-api
  6. [root@ceph01 ~]# systemctl start rbd-target-api
  7. [root@ceph01 ~]# systemctl status rbd-target-api ; systemctl status rbd-target-gw

5. 创建iscsi-target与rbd image

iscsi-gateway命令行工具gwcli用于创建/配置iscsi-target与rbd image;其余较低级别命令行工具,如targetcli或rbd等,可用于查询配置,但不能用于修改gwcli所做的配置。

创建iscsi-target与rbd image在1个节点操作即可,以下操作在ceph01节点完成。

1)gwcli

  1. # 进入gwcli命令行工具后,通过”ls”可查看目录,通过”cd”可切换目录
  2. [root@ceph01 ~]# gwcli
  3. Warning: Could not load preferences file /root/.gwcli/prefs.bin.
  4. /> ls

2)创建iscsi-target

  1. # 在iscsi-target目录下创建iscsi-target;
  2. # iscsi-target命名规则:iqn.yyyy-mm.<reversed domain name>:identifier,即iqn.年-月.反转域名:target-name,这里没有域名,采用ip地址替代;
  3. # 在新创建的iscsi-target下,同步生成gateway,host-groups,hosts目录
  4. /> cd /iscsi-target
  5. /iscsi-target> create iqn.2018-09.172.30.200.5x:iscsi-gw
  6. /iscsi-target> ls

3)创建iscsi-gateway

  1. # 在新创建的iscsi-target下同步生成gateway目录下创建iscsi-gateway;
  2. # iscsi-gateway的ip采用用于iscsi数据的ip,也可与trusted_ip_list设置的ip相同,建议采用前者;
  3. # iscsi-gateway 的名字同主机hostname;
  4. # 为了多路径ha,iscsi-gateway至少配置2个;
  5. # 如果没有使用指定版本的OS或者内核,或者采用ceph-iscsi-test内核时,可在创建iscsi-gateway命令后带上”skipchecks=true”,跳过内核检测
  6. /iscsi-target> cd iqn.2018-09.172.30.200.5x:iscsi-gw/gateways
  7. /iscsi-target...i-gw/gateways> create ceph01 172.30.200.57
  8. /iscsi-target...i-gw/gateways> create ceph02 172.30.200.58
  9. /iscsi-target...i-gw/gateways> create ceph03 172.30.200.59
  10. /iscsi-target...i-gw/gateways> ls

4)创建rbd image

  1. # 在命令行根目录的disks目录下创建image;
  2. # 创建image时,需要指定pool,image-name与size
  3. /iscsi-target...i-gw/gateways> cd /disks
  4. /disks> create pool=rbd image=disk01 size=10G
  5. /disks> ls

6. 设置initiator

  1. # 在新创建的iscsi-target下同步生成hosts目录下设置initiator;
  2. # initiator-name同iscsi-target命名类似,或在已有initiator客户端的情况下,采用客户端默认的initiator-name,centos系统可查看”/etc/iscsi/initiatorname.iscsi”文件获取;
  3. # 创建initiator-name后,自动进入initiator-name目录
  4. /disks> cd /iscsi-target/iqn.2018-09.172.30.200.5x:iscsi-gw/hosts
  5. /iscsi-target...scsi-gw/hosts> create iqn.2018-09.172.30.200.50:iscsi-initiator
  6. /iscsi-target...csi-initiator> ls

  1. # 设置CHAP认证(必须),否则iscsi-target会拒绝initiator的登陆请求;
  2. # 在新建的initiator-name目录下设置认证
  3. /iscsi-target...csi-initiator> auth chap=iscsiname/iscsipassword
  4. /iscsi-target...csi-initiator> ls

7. 添加image到initiator

  1. # 在新建的initiator-name目录下向initiator添加image;
  2. # 添加成功后,对应initiator下有可被挂载的lun设备;
  3. # 此时多台iscsi-gateway主机iscsi-gateway ip的tcp 3260端口被监听
  4. /iscsi-target...csi-initiator> disk add rbd.disk01
  5. /iscsi-target...csi-initiator> ls

  1. # 查看全局目录层级,cluster目录针对ceph集群;
  2. # disk与iscsi-target目录针对iscsi-target与rbd image的创建与配置;
  3. # 同时可通过targetcli命令行工具或者ceph的rbd命令查询已完成的配置
  4. /iscsi-target...csi-initiator> cd /
  5. /> ls

四.iSCSI initiator

查看官网,iscsi initiator目前支持linux,windows与vmware esx,这里只针对linux做验证。

1. 安装initiator与multipath工具

  1. # iscsi-initiator-utils是通用initiator套件;
  2. # device-mapper-multipath是多路径工具
  3. [root@ceph-client ~]# yum install iscsi-initiator-utils device-mapper-multipath -y 

2. 设置multipath服务

  1. # 启用multipath服务,生成”/etc/multipath.conf”文件
  2. [root@ceph-client ~]# mpathconf --enable --with_multipathd y
  3.  
  4. # 在”/etc/multipath.conf”文件新增配置,针对LIO后端存储设置多路径ha
  5. [root@ceph-client ~]# vim /etc/multipath.conf
  6. devices {
  7. device {
  8. vendor "LIO-ORG"
  9. hardware_handler "1 alua"
  10. path_grouping_policy "failover"
  11. path_selector "queue-length 0"
  12. failback 60
  13. path_checker tur
  14. prio alua
  15. prio_args exclusive_pref_bit
  16. fast_io_fail_tmo 25
  17. no_path_retry queue
  18. }
  19. }
  20. # 重新加载multinpath服务
  21. [root@ceph-client ~]# systemctl reload multipathd 

3. iscsi discovery

1)设置chap认证

  1. # 开启initiator的chap认证,并设置username/password,与iscsi-target设置保持一致;
  2. # CHAP Settings部分,涉及57/61/62行
  3. [root@ceph-client ~]# vim /etc/iscsi/iscsid.conf
  4. node.session.auth.authmethod = CHAP
  5. node.session.auth.username = iscsiname
  6. node.session.auth.password = iscsipassword 

2)设置initiatoe-name

  1. # 设置initiator-name,保持与iscsi-target设置的initiator-name一致
  2. [root@ceph-client ~]# vim /etc/iscsi/initiatorname.iscsi
  3. InitiatorName=iqn.2018-09.172.30.200.50:iscsi-initiator 

3)发现iscsi-target

  1. # 发现iscsi存储:iscsiadm -m discovery -t st -p ISCSI_IP,ISCSI_IP默认采用3260端口;
  2. # 查看iscsi发现记录:iscsiadm -m node
  3. # 删除iscsi发现记录:iscsiadm -m node -o delete -T LUN_NAME -p ISCSI_IP
  4. [root@ceph-client ~]# iscsiadm -m discovery -t st -p 172.30.200.57

4)登陆iscsi-target

  1. # 登录iscsi存储:iscsiadm -m node -T LUN_NAME -p ISCSI_IP -l
  2. # 登出iscsi存储:iscsiadm -m node -T LUN_NAME -p ISCSI_IP -u
  3. # 显示会话情况:iscsiadm -m session
  4. [root@ceph-client ~]# iscsiadm -m node -T iqn.2018-09.172.30.200.5x:iscsi-gw -l

  1. # 1个后端存储,通过3条路径连接
  2. [root@ceph-client ~]# multipath -ll

  1. # 通过多路径连接后端存储,生成多个盘符;
  2. # 通过multipath服务汇聚,生成盘符/dev/mapper/mpathx,mount时间直接使用;
  3. # 或:lsscsi
  4. [root@ceph-client ~]# fdisk -l

4. mount验证

  1. # 创建分区,分区类型与大小默认即可;
  2. # 保存退出后会有1个报错,可忽略
  3. [root@ceph-client ~]# fdisk /dev/mapper/mpatha
  4. Command (m for help): n
  5. Select (default p):
  6. Partition number (1-4, default 1):
  7. First sector (8192-20971519, default 8192):
  8. Last sector, +sectors or +size{K,M,G} (8192-20971519, default 20971519):
  9. Command (m for help): w
  10. # 格式化分区
  11. [root@ceph-client ~]# mkfs.xfs /dev/mapper/mpatha1
  12.  
  13. # 挂载分区
  14. [root@ceph-client ~]# mount /dev/mapper/mpatha1 /mnt
  15.  
  16. # 查看挂载情况
  17. [root@ceph-client ~]# df -Th

5. 设置开机启动挂载

  1. # filesystem parameters列设置挂载时间;
  2. # noatime:禁止更新文件与目录的inode访问时间,以获得更快的访问速度;
  3. # _netdev:标识文件系统位于网络上,防止网络启动前挂载
  4. [root@ceph-client ~]# vim /etc/fstab
  5. # rbd
  6. /dev/mapper/mpatha1 /mnt xfs noatime,_netdev 0 0

五.iSCSI Gateway Monitoring

ceph提供了1个监控导出的rbd image的性能的工具gwtop。

gwtop类似top,可显示通过iSCSI导出到客户端的rbd image的聚合性能指标,度量值取自Performance Metrics Domain Agent (PMDA)。Linux-IO target (LIO) PMDA信息列出每个导出的rbd image与客户端的连接,以及关联的I/O值。

1. 安装gwtop

  1. # 在已部署iscsi-gateway的节点安装,以ceph01节点为例;
  2. # pcp是性能采集工具,pcp-pmda-lio是agent
  3. [root@ceph01 ~]# yum install ceph-iscsi-tools pcp pcp-pmda-lio -y
  4.  
  5. # 启动服务
  6. [root@ceph01 ~]# systemctl enable pmcd
  7. [root@ceph01 ~]# systemctl start pmcd
  8. [root@ceph01 ~]# systemctl status pmcd

  1. # 注册pcp-pmda-lio agent
  2. [root@ceph01 ~]# cd /var/lib/pcp/pmdas/lio
  3. [root@ceph01 lio]# ./Install

2. gwtop输出样例

  1. # 在client列中,”(CON)”表示initiator已连接到iscsi-gateway,”-multi-”表示多client连接到单rbd image;
  2. # 可以通过在client写入数据,如”dd”命令查看gwtop的输出
  3. [root@ceph01 lio]# gwtop

原文链接:http://www.cnblogs.com/netonline/p/10432653.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号