數據中心大變革二:連接鏈路的變革
連接鏈路的變革
在數據中心(www.fuypicc.com)傳輸速度變革同時,數據中心也變得更大了。直到2011年,Facebook才決定修建自有數據中心,第一個Facebook數據中心位于美國俄勒岡州的普林維爾數據中心,這一數據中心當時肩負起社交網絡巨頭全部大約3萬臺服務器的承載量,其占地面積就已經有13萬平米,建筑面積80.9萬平米,相當于113個足球場的大小。
如今,Facebook據信已經擁有超過20萬臺服務器,服務器“瘋漲”的代價是新建的數據中心越來越大,且舊有數據中心擴建的計劃也被提上議事日程,Facebook況且如此,可想而知擁有上百萬臺服務器的網絡巨頭Google的數據中心的規模又會是多么龐大。
這樣的情況即便是IEEE(電氣和電子工程師協會)也沒有預料到,以IEEE所規定的QSFP+(SR4)規格(Form Factor)40G網絡連接為例,其所規定的最大鏈路距離只有150米,這對于許多數據中心來說,很可能只是所需鏈路長度的一半——隨著數據中心規模的不斷擴展,ToR 交換機與核心交換機之間有許多長距離光纖鏈路——特別是在超大型 40G/100G 分支與主干式網絡中,需要的許多光纖鏈路都超出了 IEEE 規定的最大鏈路距離。
為了解決距離上的限制,Avago公司提供眾多高度差異化的并行光纖收發器模塊解決方案,可將數據鏈路延長至行業標準以上,使數據中心運營商能夠保持其現有的有線基礎設施并且節省數據中心升級所需的額外資本支出。
比如Avago所提供的4x10G和(QSFP+,eSR4;IEEE只規定了10G SFP+,SR)和40GQSFP+(SR4)的最大鏈路距離都能夠達到400米,通過與生態環境中的合作伙伴緊密合作,Avago還能夠將這一距離雙雙提高到550米。
此外,高速網絡背板或交換機、高級 SerDes ASIC 中需要在電路板級確保長距離銅線背板或電纜連接中的信號完整性。針對這一需求,Avago公司提供獨特的 SerDes ASIC 解決方案,可在長距離下實現芯片之間、芯片與模塊之間的互聯。
Avago公司所擁有的SerDes 核心不僅是業內連接距離最長的,而且可以承受高達 35dB 的通道損耗(比如說,結合延長距離的傳輸功能以及無可比擬的低功耗優勢,Avago的 32G NRZ 和 56G PAM4 SerDes核心可提高系統的鏈路余量,同時又降低了客戶的總體擁有成本)。
高密度是現代數據中心的另一大特點,英特爾推動的機架級架構(Rack Scale Architecture,RSA)、Facebook推行的OCP(開放計算項目)以及中國供應商和互聯網用戶共同創立的天蝎2.0整機柜服務器技術規范,都是以機架擴展架構(RackScaleArchitecture)為目標的,核心的訴求都是更進一步的提高數據中心的密度。
在機架級解決方案中,其設計思路都是通過實現設備之間高密集型的連接——不論是從存儲器到服務器、從服務器到 ToR 交換機,抑或是從ToR 交換機到核心交換機——最大限度地減少所需的設備并提高系統的效率。
在這一領域,Avago 為高密集型光學、芯片級和電路板級連接提供了眾多解決方案,借助高密度設計的組件、微型化的引腳、先進的ASIC工藝讓數據中心構建者和 IT 部門節省成本支出,實現大規模連接最大化以及效率最大化。
比如,Avago提供的Express Lane PEX8796 產品,使用戶能夠通過可擴展的高帶寬非阻塞互聯將多個主機連接至大量終端;MicroPOD 和 MiniPOD 嵌入式模塊為電路板級和系統級互連提供無與倫比的通道密度、帶寬和設計靈活性。
不可忽略的是,Avago公司在ASIC的領域擁有超過30年設計經驗,這不僅幫助這家公司能夠提供例如“配有超過 400 個高速 SerDes 通道的深亞微米ASIC”這樣先進復雜的領導性產品,還為這家公司從16FF+(標準 16nm FinFET的增強版本)逐步順利過渡到10nm制程工藝提供了可靠的保障,這是進一步提高密度的絕對基礎。
在存儲方面,Avago公司的16 端口 12Gb/s SAS 93xx HBA是當前密度領先的SAS HBA產品,它配有高密集型存儲端口,最大限度地提高服務器存儲連接,使數據中心的構建者和 IT 部門能夠部署更少的服務器,并充分發揮服務器的處理性能。
轉載請注明文章來源【深圳服務器租用,深圳服務器托管,http://www.fuypicc.com】