X

News, tips, partners, and perspectives for the Oracle Solaris operating system

声明在 LDoms IO 域中支持 Solaris Cluster

Guest Author



如果您密切关注 Solaris Cluster 的开发,可能已经看到最近发布的
营销声明
了。在这篇博客文章中,我们将着重从技术角度来说明这一新支持。

首先,确保我们位于我们要确切介绍的内容的同一页,该页介绍了现在在 LDoms I/O 域中支持 Solaris Cluster。有关 LDoms I/O 域概念的详细信息,请参
LDoms 管理指南。一般说来,LDoms I/O 域在系统上至少“拥有”一个 PCI 总线,因此
可以直接对该总线上的设备进行物理访问。这样,I/O 域便可以将服务导出到系统上的其他来宾域。这些“服务”采用可供其他域使用的虚拟设备的形式。

那么,对 Solaris Cluster 和 LDoms 来宾域的支持体现在何处?可以在 I/O 域中运行 SC 的同一系统上创建来宾域,并将非 HA 应用程序部署到这些来宾
域中。这样,用户便可以在应用程序部署方面实现更高的硬件利用率和灵活性。我们当前正在致力于实现在 LDoms 来宾域内部管理 HA 应用程序这一功能,敬请等待进一步的消息

在简要阐明这个非正式的分类法和作用范围后,下面让我们了解一下如何在此类 LDoms I/O 域中部署 Solaris Cluster 3.2。首先需要注意的是,在某些支
持 LDoms 的服务器上,只有一个可用 PCI 总线,因此,此类系统上只能有一个 I/O 域(根据定义,也可以称为控制域)。下图显示了此部署方案。


以上配置中需要注意的一点是,非群集来宾域使用由运行 SC 的控制域提供的公共网络。这样,便可以在来宾域内部运行的非群集应用程序与控制域内部运行
的 HA 应用程序之间共享网络带宽。因此,在确定系统上运行的来宾域数量及系统上存在的网络负载量时,应将这一点纳入大小调整要求的考虑范围。类似注意事项适用于来宾域
与 I/O 域之间可能共享的任何 I/O 带宽。对在来宾域内使用 LDoms 虚拟化功能(如不同类别的虚拟存储设备、动态分配 CPU 等)没有特定的限制。

下一部署方案中,我们将选择具有 1 个以上 PCI 总线的服务器平台。这样便可在系统上创建其他 I/O 域并创建更有意义的(对客户而言可能更有用的)方
案。我们将 Sun Fire T2000 (Ontario) 用作目标系统,因为它有两个 PCI 总线。请注意,并非所有系统都具有这样的灵活性,某些系统只有一个 PCI 总线。在下面这个部署方
案中,我们将在一个分割的总线配置中使用两台 Ontario 计算机。有关如何配置分割的总线配置的详细信息,请参见 href="http://blogs.sun.com/achartre/entry/split_pci_with_ldoms">Alex 有关使用 T2000 的分割总线 ldom 配置的博客文章。最终的 4 个 I/O 域(每个 Ontario 系统
上有 2 个)配置为两个不同的群集。下图有助于理解我们所介绍的内容。

在以上配置中,总线 pci@7c0 (bus_b) 已经分配给“主”域,总线 pci@780 (bus_a) 已经分配给“备用”域。此处需要注意的一点是
,在 Ontario 上,两个内部磁盘实际上均位于 bus_b 上,因此已经将一个双通道光纤存储 HBA 卡添加到“备用”域的 PCI 总线(bus_a,插槽 0)上,以便为 OS 映
像等提供本地存储以及对共享存储的访问。请注意,要使此配置正常工作,保存 OS 映像的磁盘需要具备光纤可引导功能。在 PCI 总线 bus_b 上,我们还需要另一个 HBA 卡来访
问共享存储。这耗尽了所有可用的 I/O 插槽,因此我们无法在系统上添加额外的网卡。这意味着在“备用”群集上,我们只剩 2 个板载 NIC(e1000g0 和 e1000g1)
来提供公共和专用网络连接。完全可以只将一个 NIC 卡用于公共网络(IPMP 和 SC 可以为该卡提供可靠的支持),但对于单个专用互连而言,必须直接使用 scinstall
命令的 custom 选项来安装群集,因为使用标准安装选项会强制使用最少 2 个专用网络接口。对于关键任务部署,可能需要避免此配置,因为单个互连链接可能导致在某
些情况下降低可用性。

以上配置在两个 T2000 系统上创建了两个单独的双节点群集。这对于需要在同一硬件上整合关键任务应用程序和其他 HA 应用程序的情况很有用,因为这样
做可以节省成本。它还适用于以下情况:需要在不同应用程序之间增强隔离(在资源方面以及从管理隔离的角度),从而需要两个不同的群集能够最大程度地实现隔离。

在研究的下一个配置中,我们还像以前一样,在分割的总线配置中使用前面的两台 Ontario 计算机。但我们创建了一个 4 节点群集而不是创建两个不同的双
节点群集。下图显示了该配置:

请注意,位于“备用”域中的两个群集节点只有一个互连卡。要在此配置中安装群集,可能需要先安装一个具有单个互连的 4 节点群集,然后使
clsetup 在主域上添加额外互连。或者,您可以先在具有两个互连卡的主域上创建一个双节点群集,然后在安装 SC 软件后通过 clnode add 命令向群集中添加
两个备用域节点。例如:clnode add -n node1 -c clustername -e node3:e1000g4,switch1

在 node3 上执行以上命令时,该命令会通过将 node1 用作发起节点并将连接到 switch1 的单个网卡 e1000g4 用作专用互连卡来将其添加到群集。此外还应
注意,尽管对于一个 4 节点群集而言,严格上并不需要法定设备,但在这种情况下,您肯定需要配置一个法定设备,以便丢失单个物理计算机不会导致丢失整个群集。

如果对于部署的应用程序不必在 2 个不同的群集间增强隔离,并且需要简化单个群集的管理,则上面的 4 节点配置可能很有用。请注意,在这些配置中您会
获得 LDoms 的所有强大功能(我的首选做法:将 CPU 从一个域动态移动到另一个域!),从而使您的部署非常灵活并具备成本效益。

请注意,本博客中显示的配置适用于第一代 Sun Fire T2000 系统。在更新的系统(如刚刚发布的 Sun SPARC Enterprise T5x20 系统)上,设备分
配略有不同。有关如何在此类平台上部署 SC 的基本注意事项仍相同。单击此处可查看有关 T5520 系统的详细
信息。有关人们对 CMT 和 UltraSPARC T2 技术的看法的更多信息,请阅读 Allan Packer 的网络博客

希望这对您有所帮助。敬请关注 Solaris Cluster 对 LDoms 来宾域的支持,通过该支持您可以为 LDoms 来宾域创建群集,进而向来宾域提供 SC 应用程序/
数据管理的所有强大功能。





Ashutosh Tripathi - Solaris Cluster 工程部



Alexandre Chartre - LDoms 工程部

Be the first to comment

Comments ( 0 )
Please enter your name.Please provide a valid email address.Please enter a comment.CAPTCHA challenge response provided was incorrect. Please try again.