技术
首页  >  云计算  >  热点专题  >  2016 ODCC技术分享和成果宣贯会  >  要闻

北京迈络思亚太区市场开发经理罗云飞:开放互联引领以太网新高度

2016-04-14  来源:中国信息产业网  作者:

CNII网讯  4月14日,2016 ODCC技术分享和成果宣贯会在深圳召开。开放数据中心委员会的技术专家分享了各自研究领域的最新进展及部分已公开成果。北京迈络思科技有限公司亚太区市场开发经理罗云飞以“开放互联引领以太网新高度”为题进行了主题演讲。

以下是演讲全文:

北京迈络思科技有限公司亚太区市场开发经理 罗云飞

大家好!我是来自迈络思公司,我叫罗云飞。我们是网络设备的提供商,总部在以色列。高速网络或者高速的40G甚至50G的网络,都是我们主打的市场,而且有非常高的市场份额。普通的10G、25G我们也在做,迈络思不做千兆产品,我们都是万兆做起。我们积极参与ODCC的认证和测试的工作,两款交换机在去年下半年已经被ODCC认证了。今天,我给大家介绍一下迈络思的产品和方案,包括我们的优势。

总体来讲,迈络思提供端到端的以太网解决方案,什么是端到端?包括芯片、网卡、交换机、软件、线缆,包括远程通信方案在内,全线产品都可以在我们家买到,是业界唯一做到的网络设备的厂商。我们所有的产品是依赖于自己的芯片,没有任何上游的企业,芯片都是自主研发,所以产品有非常好的兼容性和性能表现。到今天为止,我们支持10G、25G、40G、50G、56G和100G。我们40G产品份额,网卡端口出货量在全球是95%,万兆、10G产品比不过英特尔,但也是毫无疑问的领先者。40G,包括高速的网络,我们都是排名第一的。

传统认为网络带宽的升级是40到100的概念,很多客户会讲40G太贵了。在40G的情况下,可能基础架构、计算节点是万兆,甚至是4万兆。我们推出25G产品,25G比万兆有150%带宽的提升,另外25G的功耗更低,并且密度可以做到万兆,性价比非常有优势。25G基础上,我们的基础节点是25G、50G的速度。有一个联盟是25G、50G以太网的联盟,迈络思和包括微软等等厂商成立的一个联盟,现在成员有很多了,推动25G的发展。我们认为25G会成为服务器仅次于万兆的第二大接口。很高兴我们看到ODCC发的产品资料里面,在做25G TOR和线缆的测试工作,我们后面也会积极的参与。

在美国OCP大会上我们发布了25G的网卡,还提出了OCN的网络。这个网络的意思是说我们在做交换机的时候可以灵活的去选择你的硬件和操作系统,不再买一个黑盒子,这个黑盒子里面全都是预定义。OCP的网卡得到广泛应用,它在face book平台上大量部署,归根的目的是为了省成本。25G和50G以太网的网卡在face book等的服务器上都被采用了。Mellanox-Host是一个网卡可以连接4个主机。在Mellanox-Host上,4个主机通过PCIE的接口连接到一个网卡上,然后再接到交换机上,只要一个网卡、一个线缆、一个端口,可以大大降低数据中心的成本。这个方案是要定制、设计,国内的大OEM都在和我们进行合作当中。

它和传统的系统有什么区别呢?传统的多CPU系统,CPU之间的通信是通过线,网卡是和一个CPU通信的,CPU就会成为瓶颈,所有的通信都要通过这个CPU往外走。Mellanox-Host,所有CPU都是和网卡通过PCIE直连的,所以任何CPU都不是瓶颈,都可以获得最高的利用率,有最低的延迟。所以我们的系统很有优势。在face book上平台的设计里只有一个网卡,但是有四个计算的节点,它可以插拔,每个节点上有CPU、内存,这四个节点通过PCIE连接到网卡,这是16×100G,每个分到PCIE4×100G,这是Mellanox-Host的设计。

我们的交换机突破了传统架构上的黑盒交换机。有些厂商的交换机非常的复杂,要查手册才知道怎么用。我们要解放用户,就想用户可不可以只买一个白壳交换机,然后选择他喜欢的或者他最熟悉的网络交换机的操作系统?我们通过一种开放的接口,可以去安装网络操作系统,包括SAI,用SAI封装交换机的SDK,从而可以在上面跑,国内百度的OS已经在我们的交换机上可以跑了。基于我们的SAI接口,用户有很大的灵活性,实现软件、硬件的解耦和分离,用户自主做选择。

我们和联合发布了一个认证。Cumulus是一家比较有名气的美国公司,是做交换机操作系统的公司。它最大的优点基于Linux的网络操作系统,只要管理人员熟悉Linux就可以很容易的操作这个交换机。它实际上就是把交换机变成了一个Linux服务器,不同的是这个Linux服务器有很多的网络端口。这样我们常用的服务器的操作命令,一些配置工具都可以很方便的在交换机上使用。Mellanox系列的交换机已经支持了Cumulus。

25G和50G市场其实刚起步没有多久,能交付25G产品的公司其实不多,能交付端到端的交换机网卡线缆的只有迈络思一家。一个测试组织发布了一系列交换机的对比,我们在各个指标上都是优于其他公司的。比如丢包,我们不管多少字节的数据包,从64字节到几都不丢包,而其他公司要到128字节才能实现不丢包。缓存池设计方面,这款交换机32个端口,全局共享一个缓存池,当数据流量来自不同端的时候,其他产品就可能造成数据包处理速度不一样,最终造成分配不均,突发流量处理不及时等等。我们的交换机延迟300纳秒,0.3微秒。这是Spectrum交换机的优势。

CDN是我们在美国的OCP大会上重点发布的产品,主要应用在广电行业。广电行业的CDN网络面临一些挑战,业务种类越来越多、越来越复杂,它现在很多动态内容为主,不再是静态的文字图片。包括一些高带宽的视频。传统的CDN架构里面,他们的节点服务器、带宽不够,不能支撑足够多的在线用户,并且视频流对延迟要求比较高。所以我们提出CDN的参考架构,在这里面我们其实是采用端到端的网络互联,有高带宽、低延迟的优势。我们可以做RDMA的卸载,把原来CPU要做的一些工作让网卡分担,把CPU释放出来,这是我们网卡的优势,在与虚拟化、云计算都有很大的优势。

最后再介绍一下我们的存储。首先高速的存储一定是依赖于高速网络的,高速存储网络不够,根本没有办法支撑,使网络成为瓶颈。如果要达到10G、40G、100G的网络,要几块存储盘?如果是打满万兆是40G,如果SSD1块盘就够了。现在有更高性能的存储技术,非易失性存储,是NVMe的技术。这个性能更高,一块盘可以做到20G甚至25G更高的带宽。大家越来越多的采用SSD,采用Flash,甚至NVMe,这样你的网络一定要升级才可以。SSD和Flash对网络提出要求,高速的存储一定要高速的网络才可以。NVMe目前国内外存储厂商都在做,它的优势很明显性能非常好。想NVMe通过网络传播进行交付,就出来一个技术NVMe over Fabrics,通过网络扩展,通过NVMe进行通信。它一定要走RDMe技术,这样RDMA技术可以去支撑NVMe的传输。

NVMe技术一定会成为未来的主流。我们在这方面投入大量的精力研发,已经研发了一个Bate版本的驱动,真正的NVMe over Fabrics会由社区版提供,我们会基于NVMe over Fabrics去推动NVMe闪存的应用。这两天除了ODCC的会,还有一个IDF的大会。英特尔和迈络思是竞争关系,我们从网络层面,包括高速的存储方面都是和他们竞争的。但是它在这个会上演示了一个DEMO,这是我昨天在会上拍到的两张图,这个DEMO用了迈络思40G网络,英特尔也有40G网络,为什么不用?因为只有我们的支持RDMA,就是内存直接访问技术的加速,所以它用到了我们的产品。它上面有4块盘,可以做到100万的LPS,非常的高,将近于把40G的网络打满,占用的CPU只有1.3个CPU,因为MRD是卸载CPU的,所以它把CPU释放出来了。这传递了两个信息,一是高速存储一定是要高速的网络去支撑的;二是NVMe和NVMeover Fabrics一定会成为市场很热的话题,今天还没有很多人熟知,但是会越来越广泛的被大家接触到。

我的演讲就这些。我们希望和大家合作,谢谢大家!

 

关键词:odcc技术分享和成果宣贯会 迈络思 罗云飞