超融合架構(gòu)
分布式存儲
統(tǒng)一存儲
開放式存儲平臺
自主可控
解放軍某療養(yǎng)院PACS系統(tǒng)高可用應(yīng)用
方案背景
解放軍某療養(yǎng)院為我軍級別最高、規(guī)模最大的療養(yǎng)院,是軍隊(duì)各級首長和地方各界朋友健康體檢、養(yǎng)生保健、康復(fù)療養(yǎng)基地。
療養(yǎng)院體檢中心,配備美國GE彩色B超、菲利浦?jǐn)?shù)字化攝片(DR)、GE螺旋CT、GE磁共振、熱CT成像系統(tǒng)。日立全自動生化分析儀、多腫瘤標(biāo)志物蛋白芯片檢測系統(tǒng)等高檔儀器,集結(jié)了當(dāng)今國際最先進(jìn)的PACS醫(yī)學(xué)影像傳輸系統(tǒng)、LIS檢驗(yàn)信息系統(tǒng)、自動排隊(duì)等候系統(tǒng)等信息化健康體檢管理系統(tǒng)。
PACS系統(tǒng)現(xiàn)狀
采用主服務(wù)器部署PACS系統(tǒng),PACS系統(tǒng)的數(shù)據(jù)采用服務(wù)器自帶硬盤進(jìn)行存儲,服務(wù)器硬盤采用RAID5的方式保護(hù)數(shù)據(jù)安全。
配置一臺備份服務(wù)器,定期進(jìn)行數(shù)據(jù)備份,當(dāng)主服務(wù)器宕機(jī)時,需人工干預(yù),啟動備份服務(wù)器來繼續(xù)PACS系統(tǒng)的運(yùn)行。如下圖所示:
隨著療養(yǎng)院就診人數(shù)的不斷增加及醫(yī)學(xué)影像對數(shù)字化精度的不斷提高,PACS系統(tǒng)的工作及存儲壓力愈來愈大。
存儲量倍增,服務(wù)器自帶的硬盤存儲空間無法滿足海量PACS數(shù)據(jù)存儲的容量要求;
服務(wù)器多塊硬盤故障引起的RAID組失效,必將造成PACS系統(tǒng)數(shù)據(jù)的丟失,存儲系統(tǒng)可靠性差;
主服務(wù)器定期向備份服務(wù)器備份的方式,無法保證備份數(shù)據(jù)的完整性;
兩臺服務(wù)器無雙機(jī)熱備機(jī)制,服務(wù)器宕機(jī)需要人工干預(yù),業(yè)務(wù)連續(xù)性差。
面臨這些問題,該療養(yǎng)院急需上線一套高可用的PACS系統(tǒng),來保證業(yè)務(wù)的連續(xù)性和高可靠性。
系統(tǒng)建設(shè)需求
建設(shè)單獨(dú)的存儲系統(tǒng),完成PACS海量數(shù)據(jù)的存儲;
存儲系統(tǒng)需具備高可用性,不能因?yàn)橛脖P或存儲設(shè)備的故障造成PACS系統(tǒng)的業(yè)務(wù)中斷;
原PACS系統(tǒng)服務(wù)器利舊使用,建設(shè)成主備的方式,當(dāng)一臺服務(wù)器出現(xiàn)故障時,另一臺服務(wù)器自動實(shí)現(xiàn)業(yè)務(wù)切換,無需人工干預(yù),保證PACS系統(tǒng)業(yè)務(wù)的連續(xù)性。
解決方案
鯨鯊根據(jù)解放軍某療養(yǎng)院對PACS系統(tǒng)的需求,采用IBRICK集群存儲構(gòu)建存儲子系統(tǒng)。服務(wù)器采用雙機(jī)熱備的方式保證業(yè)務(wù)連續(xù)性。如下圖所示:
1) 服務(wù)器雙機(jī)熱備部署
兩臺PACS服務(wù)器均部署RoseHA軟件,實(shí)雙機(jī)熱備,熱備模式為:Active/Standby。兩臺服務(wù)器之間通過私用心跳網(wǎng)絡(luò)連接,通過RoseHA軟件監(jiān)控系統(tǒng)運(yùn)行狀態(tài),當(dāng)主服務(wù)器發(fā)生故障時,RoseHA就會控制系統(tǒng)自動切換至備用服務(wù)器,保證PACS系統(tǒng)的業(yè)務(wù)不中斷。
2) 集群存儲系統(tǒng)部署
集群存儲由兩個節(jié)點(diǎn)組成,采用雙機(jī)鏡像的方式保障數(shù)據(jù)安全,并提供單一IP的samba訪問接口。PACS系統(tǒng)通過samba客戶端訪問集群存儲系統(tǒng)中的一個節(jié)點(diǎn),當(dāng)所訪問的節(jié)點(diǎn)發(fā)生故障時,服務(wù)能迅速切換到另一個節(jié)點(diǎn)上,保證PACS系統(tǒng)業(yè)務(wù)不中斷。整個過程對上層透明,對系統(tǒng)使用沒有影響。
iBRICK集群存儲采用分布式全對稱集群文件系統(tǒng),對兩個節(jié)點(diǎn)的數(shù)據(jù)實(shí)時同步,保障數(shù)據(jù)安全;節(jié)點(diǎn)中的硬盤或單一節(jié)點(diǎn)出現(xiàn)故障時,數(shù)據(jù)不丟失。通過任意節(jié)點(diǎn)上的集群客戶端都可以訪問到兩個節(jié)點(diǎn)上的所有數(shù)據(jù)。
通過配置CTDB,把兩個集群節(jié)點(diǎn)的物理IP隱藏于虛擬IP之后,PACS系統(tǒng)通過這個虛擬IP來訪問集群存儲,由CTDB把虛擬IP映射為其中一個集群節(jié)點(diǎn)的物理IP。如下圖所示:
高可用設(shè)計(jì)
磁盤故障時的讀操作:
每臺集群節(jié)點(diǎn)的磁盤在另一個節(jié)點(diǎn)上都有鏡像,通過集群客戶端能直接訪問到該鏡像,當(dāng)單塊磁盤故障時讀操作可以正常運(yùn)行。
磁盤故障時的寫操作:
PACS系統(tǒng)每次寫操作都會同時向兩塊磁盤發(fā)起數(shù)據(jù)寫入,只要其中一塊磁盤寫入成功,整個寫操作就會成功。磁盤故障造成的數(shù)據(jù)損壞(丟失)會在更換新磁盤后自行修復(fù)。
網(wǎng)絡(luò)或集群節(jié)點(diǎn)故障:
當(dāng)PACS系統(tǒng)正在訪問的集群節(jié)點(diǎn)發(fā)生網(wǎng)絡(luò)或節(jié)點(diǎn)故障時,CTDB會迅速偵測到該故障,并把虛擬IP映射到另一臺可正常工作的節(jié)點(diǎn)上,PACS系統(tǒng)仍然能正常工作,業(yè)務(wù)不中斷。如下圖所示:
性能設(shè)計(jì)
集群存儲系統(tǒng)通過兩個節(jié)點(diǎn)同時存取數(shù)據(jù)的方法以滿足PACS服務(wù)器的訪問需求。PACS服務(wù)器對集群存儲空間的訪問通過每個節(jié)點(diǎn)上獨(dú)立接口進(jìn)行。大量的數(shù)據(jù)IO請求都被分散到兩個集群節(jié)點(diǎn)上,全面的負(fù)載均衡策略使每個節(jié)點(diǎn)的磁盤性能和網(wǎng)絡(luò)帶寬都可以得到充分的利用;
鯨鯊集群存儲采用千兆網(wǎng)絡(luò)進(jìn)行部署,每節(jié)點(diǎn)配置4個GbE接口,采用網(wǎng)卡綁定技術(shù),集群系統(tǒng)可提供300MB/s以上的帶寬性能,滿足療養(yǎng)院PACS系統(tǒng)數(shù)據(jù)讀寫的性能需求。
容量設(shè)計(jì)
鯨鯊為該療養(yǎng)院每節(jié)點(diǎn)配置了8塊2TB的SATAIII企業(yè)級磁盤,磁盤鏡像后可提供16TB的存儲空間,滿足了PACS系統(tǒng)對存儲容量的需求;
單節(jié)點(diǎn)支持24個磁盤位,最大支持96TB的裸容量,隨著療養(yǎng)院PACS系統(tǒng)數(shù)據(jù)量的不斷提升,可采用增加硬盤的方式進(jìn)行擴(kuò)容;
集群存儲系統(tǒng)支持Scale-out橫向擴(kuò)展,增加集群節(jié)點(diǎn),容量和性能同時線性提升。
客戶受益
鯨鯊軟件為解放軍某療養(yǎng)院PACS系統(tǒng)部署了高可用的服務(wù)器雙機(jī)熱備和集群存儲解決方案,在滿足了PACS系統(tǒng)對數(shù)據(jù)存儲大容量、高性能要求的同時,也為用戶帶來了系統(tǒng)的高可用性,另外,存儲系統(tǒng)的集群化部署,后期擴(kuò)展方便,保護(hù)用戶投資。