标签:iscsi 存储
iSCSI简单来说,就是把SCSI指令通过TCP/IP协议封装起来,在以太网中传输。iSCSI 可以实现在IP网络上传递和运行SCSI协议,使其能够在诸如高速千兆以太网上进行数据存取,实现了数据的网际传递和管理。基于iSCSI建立的存储区域网(SAN)与基于光纤的FC-SAN相比,具有很好的性价比。
iSCSI属于端到端的会话层协议,它定义的是SCSI到TCP/IP的映射(如下图),即Initiator将SCSI指令和数据封装成iSCSI协议数据单元,向下提交给TCP层,最后封装成IP数据包在IP网络上传输,到达Target后通过解封装还原成SCSI指令和数据,再由存储控制器发送到指定的驱动器,从而实现SCSI命令和数据在IP网络上的透明传输。它整合了现有的存储协议SCSI和网络协议TCP/IP,实现了存储与TCP/IP网络的无缝融合。在本文中,将把发起器Initiator称为客户端,将目标器Target称为服务端以方便理解。
iSCSI 服务端和客户端的通讯就是一个在网络上封包和解包的过程,在网络的一端,数据包被封装成包括TCP/IP头、iSCSI 识别包和SCSI 数据三部分内容,传输到网络另一端时,这三部分内容分别被顺序地解开。为了保证安全,iSCSI 有约定操作顺序。在首次运行时,客户端(initiator)设备需要登录到服务端(target)中。任何一个接收到没有执行登录过程的客户端的iSCSI PDU (iSCSI rotocol Data Units,iSCSI 协议数据单元)服务端都将生成一个协议错误,并且关闭连接。在关闭会话之前,服务端可能发送回一个被驳回的iSCSI PDU。
在工作时,iSCSI使SCSI数据块由原来的SCSI总线连接扩展到internet上,这一过程有些产品通过硬件来实现,这种硬件产品被简称为TOE(TCP Offload Engine),随着近年来服务器芯片技术的不断发展,服务器处理能力日益强劲,目前更为普遍的是通过软件来实现SCSI数据块的封装过程。这种软件通常被称为iSCSI Initiator软件/驱动。Initiator软件可以将以太网卡虚拟为iSCSI卡,接受和发送iSCSI数据报文,通过普通以太网卡来进行网络连接,但是需要占用CPU资源。另外的TOE和HBA连接转换方式都需要专门的硬件设备来完成,虽然相对昂贵但执行效率高,也可以减轻主机CPU的负载。本文客户端采用Initiator驱动的连接方式。
在Linux 2.6内核中提供了iscsi驱动,iSCSI 驱动(driver)使主机拥有了通过IP网络访问存储的能力,但还需要一个具体的客户端工具(Linux用户空间组件)初始化iSCSI驱动,即iscsi-initiator-utils
,也是大家常说的open-iscsi。
# rpm -qa|grep iscsiiscsi-initiator-utils-6.2.0.873-10.el6.x86_64 iscsi-initiator-utils-devel-6.2.0.873-10.el6.x86_64# rpm -qi iscsi-initiator-utils(yum install iscsi-initiator-utils iscsi-initiator-utils-devel)
这个安装将iscsid
、iscsiadm
安装到 /sbin 目录下,它还将把默认的配置文件安装到/etc/iscsi/
目录下:
/etc/iscsi/iscsid.conf
:所有刚发起的iSCSI session默认都将使用这个文件中的参数设定。
/etc/iscsi/initiatorname.iscsi
:软件iSCSI initiator的intiator名称配置文件。
确保iscsid和iscsi两个服务器开机自启动,chkconfig --list |grep iscsi
,在iscsi启动的时候,iscsid和iscsiadm会读取这两个配置文件。
service iscsid [status|start]
service iscsi status 查看iscisi的信息,只有在连接成功后才输出
这里可能遇到start始终没有启动成功的信息输出,请继续往下执行discovery,一般会启动iscsid。
open-iscsi包括两个守护进程iscsid和iscsi,其中iscsid是主进程,iscsi进程则主要负责根据配置在系统启动时进行发起端(Initiator)到服务端(target)的登录,建立发起端与服务端的会话,使主机在启动后即可使用通过iSCSI提供服务的存储设备。
iscsid进程实现iSCSI协议的控制路径以及相关管理功能。例如守护进程(指iscsid)可配置为在系统启动时基于持久化的iSCSI数据库内容,自动重新开始发现(discovery)目标设备。
Open-iSCSI是通过以下iSCSI数据库文件来实现永久配置的:
Discovery (/var/lib/iscsi/send_targets
)
在 /var/lib/iscsi/send_targets 目录下包含iSCSI portals的配置信息,每个portal对应一个文件,文件名为“iSCSI portal IP,端口号”(例如172.29.88.61,3260
)。
Node (/var/lib/iscsi/nodes
)
在 /var/lib/iscsi/nodes 目录下,生成一个或多个以iSCSI存储服务器上的Target名命名的文件夹如iqn.2000-01.com.synology:themain-3rd.ittest
,在该文件夹下有一个文件名为“iSCSI portal IP,编号” (例如172.29.88.62,3260,0
)的配置参数文件default,该文件中是initiator登录target时要使用的参数,这些参数的设置是从/etc/iscsi/iscsi.conf
中的参数设置继承而来的,可以通过iscsiadm对某一个参数文件进行更改(需要先注销到target的登录)。
iscsiadm
是用来管理(更新、删除、插入、查询)iSCSI配置数据库文件的命令行工具,用户能够用它对iSCSI nodes、sessions、connections和discovery records进行一系列的操作。
iSCSI node是一个在网络上可用的SCSI设备标识符,在open-iscsi中利用术语node表示目标(target)上的门户(portal)。一个target可以有多个portal,portal 由IP地址和端口构成。
initiator名称用来唯一标识一个iSCSI Initiator端。保存此名称的配置文件为/etc/iscsi/initiatorname.iscsi
:
# vi /etc/iscsi/initiatorname.iscsiInitiatorName=iqn.2000-01.com.synology:themain-3rd.ittest
注意大小写,同时,必须顶格写,xxxx代表要设置的initiator名称,请遵循iqn命名规范,格式为iqn.domaindate.reverse.domain.name:optional_name。
iSCSI Initiator的配置文件为/etc/iscsi/iscsid.conf
,在iSCSI initiator的iscsid进程启动和执行iscsiadm命令时,将读取这个配置文件的内容,获取与SCSI目标进行交互的相关信息。
本组下的各个设置项主要用来指定Initiator与target验证方式。
vi /etc/iscsi/iscsid.conf # To enable CHAP authentication set node.session.auth.authmethod node.session.auth.authmethod = CHAP 去掉注释 # To set a CHAP username and password for initiator node.session.auth.username = ittest 修改为网管提供的认证username/passwordnode.session.auth.password = Storageittest
上面是在我的环境中最为简单的一种CHAP(Challenge Handshake Authentication Protocol)认证方式,而且只验证的节点会话initiator端。其实iSCSI验证可以是双向的,根据服务端的设置,可以验证节点会话的target端(username_in),验证发现会话的CHAP initiator,验证发现会话的CHAP target。(节点会话node.session即登录认证,发现会话discovery.sendtargets即查看)
处理CHAP认证需要关注外,其它的都保持默认即可,但是你需要知道可以修改如:
设置initiator与target端交互的超时时间
设置iscsid重试登录节点的次数
是否开机启动iscsid等待
open-iscsi initiator-utils提供的管理命令为iscsiadm
,此命令包括discovery、node、session几种模式,分别处理不同的情况。在客户端使用Target提供的存储空间前,必须在服务器上通过Initiator软件执行以下步骤:发现目标设备 --> 登录目标设备 --> 与目标设备建立会话,下面分别说明通过各个命令进行说明。
可以通过sendtargets方式(根据iscsi服务器端使用的方式不同还有slp、isns)发现属于你的iqn(iSCSI Qualified Name):
iscsiadm -m discovery -t sendtargets -p 172.29.88.62iscsiadm -m discovery -t sendtargets -p 172.29.88.62:3260 |grep ittest
默认端口3260。discovery之前会自动启动iscsid服务,有时候service iscsid start
启动没反应,可以通过这种方式启动服务。
此命令查询目标门户(Portal)为172.29.88.62:3260上的目标,查找成功后,返回相应的target ID,同时在/var/lib/iscsi/send_targets
和 /var/lib/iscsi/nodes
目录下记录相应的门户和节点信息。使用iscsiadm -m node
命令,可以查看到发现的节点记录。
在完成目标发现后,即可以登录到相应的节点,使用目标设备提供的存储空间:
# iscsiadm -m node -T iqn.2000-01.com.synology:themain-3rd.ittest -p 172.29.88.62 --login
-T
后面跟target名称,--login
等同于-l
,
登录目标节点成功后,即建立了initiator与target之间的会话(session),同时target提供的存储设备也挂载到主机中,在/dev目录下生成一个新的设备文件类似于sdb、sdc等。使用iscsiadm -m session -P 3
(与service iscsi status
相同)来查看连接会话信息。
LVM是非常流行的可修改磁盘分区大小的管理方式,可以根据你的需要使用使用lvm管理磁盘。
假设新存储的设备路径为/dev/sdb
pvcreate /dev/sdb ## 在新存储上建立物理卷pvdisplay ## 查看物理卷状态vgcreate vg_ittest /dev/sdb ## 在该物理卷上建立名为vg_test的卷组vgdisplay ## 查看已建立的卷组状态lvcreate -l 100%FREE -n lv_static vg_ittest
在vg_ittest卷组上建立名为lv_static的逻辑卷,-L可指定分区大小,此处-l表示使用全部空间
vgscan或lvdisplay ## 查看逻辑卷的状态vgchange -ay ## 使卷组处于激活状态mkfs.ext4 /dev/mapper/vg_ittest-lv_static ## 格式化已创建的逻辑卷,文件系统格式为ext4
格式化完毕后,使用mount命令挂载即可:
mount -o acl,rw /dev/mapper/vg_ittest-lv_static /iscsi ## /iscsi为事先建立的挂载点
也可以根据需求划分成多个分区挂载。
开机自动挂载
vi /etc/rc.d/rc.local iscsiadm -m node -T iqn.2000-01.com.synology:themain-3rd.ittest -p 172.29.88.62 --login vgchange -ay && mount -o acl,rw /dev/mapper/vg_ittest-lv_static /iscsi
因为磁盘上就是数据(一般网络存储用于备份),因此尽量减少异常断开存储的可能性,所以保险起见先卸载,再断开连接(-u
)。
# umount /iscsi# vgchange -an && vgscan# iscsiadm -m session# iscsiadm -m node -T iqn.2000-01.com.synology:themain-3rd.ittest -p 172.29.88.62 --logout
如果使用LVM管理磁盘,由于网络中断,或主机突然关机,会导致网络存储异常断开,下次启动后重新连接可能会报如下错误:
# vgscan Reading all physical volumes. This may take a while... /dev/backupdrive1/backup: read failed after 0 of 4096 at 319836585984: Input/output error /dev/backupdrive1/backup: read failed after 0 of 4096 at 319836643328: Input/output error /dev/backupdrive1/backup: read failed after 0 of 4096 at 0: Input/output error /dev/backupdrive1/backup: read failed after 0 of 4096 at 4096: Input/output error Found volume group "backupdrive1" using metadata type lvm2 Found volume group "networkdrive" using metadata type lvm2
产生原因就是,在卷组(VG)失活(deactivate)之前就移除了外部的LVM设备。在你断开连接之前,需要保证以下命令被执行:
# vgchange -an volume_group_name
解决方案就是,(假设你已经用vgchange -ay vg
命令来激活卷组,但仍有 Input/output error 的错误信息。)执行命令vgchange -an volume group name
,移除外部设备,稍候几分钟后再执行以下命令:
# vgscan# vgchange -ay volume_group_name
iscsi存储使用正常,但ps -ef|grep iscsi
则包含200+以上的类似于[iscsi_q_112]
进程,并且无法kill,使用service iscsi status
不断输出类似:
iscsiadm: could not read session targetname: 5iscsiadm: could not find session info for session30iscsiadm: could not read session targetname: 5iscsiadm: could not find session info for session31 ...
这个问题很纠结,但重启服务器是可以解决的。网上资料很少,我猜想是iscsid服务端设置认证方面的问题。
列出所有targetiscsiadm -m node
连接所有targetiscsiadm -m node -L all
连接指定targetiscsiadm -m node -T iqn.... -p 172.29.88.62 --login
使用如下命令可以查看配置信息iscsiadm -m node -o show -T iqn.2000-01.com.synology:rackstation.exservice-bak
查看目前 iSCSI target 连接状态iscsiadm -m session
iscsiadm: No active sessions.
(目前没有已连接的 iSCSI target)
断开所有targetiscsiadm -m node -U all
断开指定targetiscsiadm -m node -T iqn... -p 172.29.88.62 --logout
删除所有node信息iscsiadm -m node --op delete
删除指定节点(/var/lib/iscsi/nodes目录下,先断开session)iscsiadm -m node -o delete -name iqn.2012-01.cn.nayun:test-01
删除一个目标(/var/lib/iscsi/send_targets目录下)iscsiadm --mode discovery -o delete -p 172.29.88.62:3260
参考
本文出自 “梦想照进现实” 博客,请务必保留此出处http://lookingdream.blog.51cto.com/5177800/1825286
标签:iscsi 存储
原文地址:http://lookingdream.blog.51cto.com/5177800/1825286