thin-provisioned卷。
1.3. SVC Cluster
集群是一组共同提供资源给用户的服务器集合,客户不会感知集群的底层物理硬件。如果集群中的一个节点失效或者太忙而不能响应请求时,请求会透明的传送给其他可用节点。
SVC集群是一组可以高达8个节点的集合,管理员可以单点控制这些节点来进行配置和服务管理。
所有活动节点知道它们是集群的成员,这是很重要的一点。特别是在split-brain场景中,当个别节点失去与其他节点的联系时,有一个可靠的机制来决定哪些节点组成活动的集群。最差的场景就是一个集群分裂为2个单独的集群。
在SVC集群内,voting set和quorum disk负责保持集群的完整性。如果有节点加入集群,它们加入到voting set;如果有节点移除,从voting set中移除。SVC集群实施一个动态quorum,在丢失一些节点后,如果集群能继续运行,集群将调整quorum需求,使得以后可以容忍节点失效。
在一个集群中的lowest Node Unique ID成为boss节点,由它决定是否节点能组成集群操作。这个节点最多2个集群IP地址来进行集群的管理。
1.3.1. Quorum disk
集群使用quorum disk有2个目的:
? 当集群遇到SAN错误,还有一半节点可用时,用作tie breaker ? 保存集群配置数据的copy
Quorum disk需要256M以上保留空间。在一个集群中只有一个活动quorum disk,然而有3个MDisk作为quorum disk的候选者。集群从quorum disk候选者池中自动选择活动quorum disk。
当MDisk加入到SVC集群中,SVC检查MDisk是否能用作quorum disk,如果满足要求,SVC将加入集群的前3个MDisk用作quorum disk候选者,其中一个作为活动的quorum disk。 备注:成为quorum disk的LUN必须满足以下条件: ? 存储子系统提供的LUN必须支持quorum disk ? 使用svctask chcontroller -allow_quorum yes命令来手工允许成为quorum disk
11
? 必须是managed模式 ? 必须有足够的空余extent来存放集群信息 ? 集群内节点必须都能看见
如果可能的话,SVC将把quorum disk候选者放在不同的存储子系统上。在quorum disk初始分配完成后通过svcinfo lsquorum命令查看。
当quorum disk选定以后就固定了,其他MDisk要成为quorum disk需要满足以下条件之一:
? 当管理员使用命令svctask setquorum来指定一个MDisk成为quorum disk ? 当quorum disk从存储池删除 ? 当quorum disk变更为image mode 备注:没有quorum disk的SVC集群严重影响操作,缺少可用的quorum disk来存储元数据会导致无法迁移。另外没有可用的quorum disk导致镜像卷离线,因为镜像卷的同步状态记录在quorum disk上。
在集群的正常运行期间,节点能够互相通信。如果一个节点空闲,那就会发送一个心跳信号来确保与集群的连通性。如果一个节点失效,那么这个节点上的负载全部被其他节点托管,直到这个节点重启来重新加入集群。
当节点分布在不同sites,集群节点配置如下:
? Site1 包含一半SVC集群节点和一个quorum disk候选者 ? Site2 包含一半SVC集群节点和一个quorum disk候选者 ? Site3 包含一个激活的quorum disk
尽量将Quorum disk分布在不同的存储子系统中。即使只有一个存储子系统,也尽量将Quorum disk分布于不同的存储池,利用不同存储池来自不同阵列的分配方式,使Quorum disk位于不同的阵列,防止因为阵列失效导致所有3个Quorum disk都失效。
Quorum disk查看:svcinfo lsquorum
Quorum disk移动:svctask chquorum
12
如图所示quorum index2对应的quorum disk从ITSO-4700的MDisk2移动到了ITSO-XIV的MDisk9。
1.3.2. Cache
存储缓存的主要目的就是提高I/O响应时间。2145-CF8节点配合SVC6.1提供每个节点24GB内存,每个I/O组48GB。节点内存能用于读或写缓存,写缓存的大小限制为12GB,根据节点的I/O情况,24GB内存能够全部用于读缓存。
缓存分配是以4KB segment为单位。
当服务器进行写数据时,优先节点先保存数据在自己的缓存中,然后copy到备用节点,copy完成之后才通知服务器写操作完成。
如果卷在最近2分钟内没有接受到写更新,则自动将所有修改的数据destaged to disk。
如果I/O组的一个节点失效,备用节点将清空它的写缓存,运行在操作模式,也就是write-through模式。运行在write-through模式的节点直接写数据到磁盘,然后发送一个I/O完成状态信息到服务器。运行在这个模式下I/O组的性能降低。
写缓存是以存储池进行划分的,这个特性限制了集群内一个存储池能够分配的最大写缓存量。下表显示了集群中单个存储池使用的写缓存上限:
当外部电源中断时,物理内存被copy到节点内置盘上的文件中,这样在电源恢复供应时能恢复数据。不间断电源确保足够的电力来完成这样的dump操作,在dump内存数据到盘上后,SVC节点关闭。
13
2. SVC计划和配置
2.1. 逻辑设计 2.1.1. SAN Zoning
SAN fabric可以配置2个或至多8个SVC节点,组成SVC集群。SVC节点,存储子系统,服务器连接到SAN fabric,在SAN fabric中进行zone划分,使得SVC能看见各自节点和存储子系统,服务器能看见SVC。服务器是不能直接看见或操作存储子系统的LUNs。在一个集群内的SVC节点必须能够互相通信,且能够看见集群内所有存储。
SVC6.1支持2Gbps,4Gbps,8Gbps的FC fabric。在一个存在多种速度交换机的fabric中,最好是将SVC和存储子系统连接到最高速度的交换机。
SVC集群中的所有SVC节点连接到同一个SAN,由SVC将卷呈现给主机,这些卷从存储池创建,存储池是由存储子系统提供的MDisk组成。在SAN网络中必须有3个zone: ? SVC集群zone
? 主机zone:host访问SVC集群中的存储 ? 存储zone:SVC访问存储子系统
zone配置遵循以下指南:
14
? LUNs(MDisk)必须是单个集群独占访问,不能与其他SVC集群共享 ? 在一个集群内的所有节点port必须以相同的速度运行
? ISLs不能用于SVC集群内节点之间通信或者节点对存储控制器的访问
? 相似主机的HBA卡或者同一主机的相似HBA卡应该划分在各自的zone中。例如,如
果有AIX和microsoft主机,那需要划分在各自zone。这是一个SAN操作性问题,不是专门针对SVC的。
? Host zone只能包含一个initiator(host端的HBA卡),SVC节点口则根据需要进行配置。
可以使用svcinfo lsfabric命令生成报告,显示节点和存储控制器,主机的连接。 Attention: ? 在集群内的节点间采用ISL通信对集群有负面影响,由于SVC集群需要依赖这些链路维护心跳和集群管理服务 ? 在SVC节点访问存储之间使用ISL会导致port congestion,影响SAN的性能和可靠性 ? 集群间通信使用不同的port speed导致port congestion,因此不支持混合的port speed 2.1.2. SVC集群配置
为了确保SVC的高可用性,在设计SVC的SAN网络时考虑以下事项:
? 集群中所有节点必须位于相同的LAN网段。如果计划用每个节点的第二个网口,则可
以配置与网口1不同的LAN网段。也就是所有节点的网口1在一个网段,网口2在另外网段
? 为了保证应用的连续性,SVC节点总是成对部署,如果一个节点失效,剩下节点运行在
降级模式,但是仍然是有效配置。剩下节点运行在write-through模式,意味着数据直接写到存储子系统(写缓存不可用)。
? 在SVC节点与交换机之间采用光纤连接,运行在2/4/8Gbps,根据SVC和交换机硬
件决定。SVC节点是auto-negotiate
? SVC节点port必须连接到FC fabric,SVC与host或存储子系统的直连是不支持
的
? 2个SVC集群不能访问存储子系统中相同的LUN
? SVC使用3个MDisk用作quorum disk,最好是每个quorum disk位于不同的存
储子系统。
分离集群配置
? 分离集群配置的I/O组的2个节点之间的最大距离为10KM
? 使用分离集群配置结合卷镜像可以实现高可用性。在镜像卷配置后使用svcinfo
15
百度搜索“77cn”或“免费范文网”即可找到本站免费阅读全部范文。收藏本站方便下次阅读,免费范文网,提供经典小说综合文库SVC实施(3)在线全文阅读。
相关推荐: