主页 > 型号大全 > 正文

线卡型号(线卡型号规格)

2024-03-31 13:39:51 来源:阿帮个性网 点击:
文章目录导航:
  1. 线卡型号8号
  2. 线卡子型号
  3. 线卡型号图片
  4. 线卡型号规格

线卡型号8号

钢钉线卡是一个非常细分的塑料工业用品行业,但是这个细分行业里面的产品可不少,单单从型号上来分类就有圆型钢钉线卡,方型钢钉线卡,钩型钢钉线卡。其中圆型钢钉线卡生产规格从1.0mm,1.5mm,2.0mm,3.0mm,3.5mm,4mm,5mm,6mm,7mm,8mm,9mm,10mm,12mm,14mm,16mm,18mm,20mm,22mm,25mm,30mm,32mm,35mm,40mm,50mm等。方型钢钉线卡规格从4mm至14mm。钩型钢钉线卡规格有15mm,22mm,28mm。钢钉线卡是一款塑料制品。采用PE料注射成型,弹性大,耐冲击,绝不破裂。产品系列为插钉式,钢钉直接附在线卡上,可大量节省工时,降低施工成本。使用方法:将电线置于卡内,用铁锤将钢钉钉上墙壁即可将电线固定。用途:一般室内配线固定电线用。

线卡子型号

钢钉线卡是一个非常细分的塑料工业用品行业,但是这个细分行业里面的产品可不少,单单从型号上来分类就有圆型钢钉线卡,方型钢钉线卡,钩型钢钉线卡。x0dx0a其中圆型钢钉线卡生产规格从1.0mm,1.5mm,2.0mm,3.0mm,3.5mm,4mm,5mm,6mm,7mm,8mm,9mm,10mm,12mm,14mm,16mm,18mm,20mm,22mm,25mm,30mm,32mm,35mm,40mm,50mm等。x0dx0a方型钢钉线卡规格从4mm至14mm。x0dx0a钩型钢钉线卡规格有15mm,22mm,28mm。

线卡型号图片

美国Silverstein单簧管、萨克斯通用型线卡介绍

   和以往的古典线卡子不同的是silverstein的卡子用的线材是军用的硬线材,没有弹性,silverstein的卡子在使用上音色宽厚有磁性,亮度适中,高低音通透阻力小,震动很好。声音非常结实,有种内在的硬朗感。无论爵士还是古典都可以适用silverstein的卡子。同时也适合多种型号、品牌的胶木笛头。

   silverstein的卡子在与金属卡子的对比试验中会发现有明显音色的改变。以前的古典线卡子是用软线编制出来的会消耗一些哨片的震动而产生音色的变化,吹奏的时候会有一些很小的延迟很适合古典音乐作品的演奏,这款silverstein的线卡子采用的是特殊材质既有硬度也有柔韧度在设计上采用支点少震动好的原理,调解的时候silverstein的线卡子可以根据不同笛头的外径尺寸而变化紧密度以达到最佳效果。

线卡型号规格

写此文的目的是,作为各种集采测试老司机安全驾驶好多年,但是最近很多年早就转型做预研和协议设计去了,但很多关键的国内外测试又经常要来烦我,我自己已经做腻,干脆写出来,教会同事教会客户,培养一些新人,毕竟我还要更重要的事情要去做。当然也会教会友商,但是最终的目的是让大家都能够在一个理性公平的环境里竞争,各自提升自己的技术实力。

十多年前各种代理商面试的常见问题就是:请简述7600和GSR1200的区别,自从7600这个从6500改来的路由器一问世,路由和交换的界限就越来越模糊了,当然利用交换机的大交换矩阵连接多个线卡做分布式路由转发是一个非常好的技术,但是混淆交换带宽和路由带宽就不好了,而最近一些年交换机,特别是数据中心交换机的快速发展,已经很多人忘了路由器和交换机的区别了。于是招投标过程中大量的单向、双向带宽、混淆处理能力、虚标流量等情况司空见惯,于是才会诞生尽量避免挂表验收的话题。

国内另一个现状就是盲目迷信运营商级路由器,其实很多企业用户可能在整个路由器生命周期都用不到这么大的吞吐量,最终通常因为一些功能不支持被迫两三年以后又升级成其它的路由器了,或者在广域网上串接各种专用设备,这些专用设备的短板进一步限制了大容量路由器的发挥。

通常交换机功能相对简单,虽然多了一些EVPN业务,看上去越来越像路由器了,但大多数功能都是芯片固定的功能实现的,即便是有P4等可编程,性能上各家的差距还是决定于芯片本身,所以招投标过程相对明晰,最多就是挂表打打蛇形流量就能验收。

路由器并不是简单的去看bpspps和端口密度等参数,或者用的什么芯片。路由器测试里面的门道远远高于交换机,即便是相同的芯片,由于不同的算法转发流程资源调度带来的差异影响非常大。例如思科自己的ISR1000-4G路由器可以同时安装收购来的ViptelaVedge软件或者思科自己的IOSXECedge,Cedge软件的转发性能远远高于vEdge(过段时间空闲一点给大家挂表验收),这也是为什么思科一定要使用Cedge替代Vedge的原因,毕竟几十年对于路由器数据平面的积累在那里。

另一方面是路由器的设计上有大量的保序、调度、Buffer设计、查表引擎、收敛速度等多种调度算法的取舍,通常可以使用很诡异的手段去提高普通挂表测试的性能,但是某些业务一上来就性能差的一塌糊涂,例如某厂家的路由器号称100G,在一个简单的业务模型下1G线速都达不到。

这也是我工作中经常要回答各种客户的问题:“为什么别人家路由器随便1Tbps,你们ASR1000只有200Gbps",其实通常路由器放在广域网边缘,用于连接大量的分支机构,业务需求决定了带宽通常几十Gbps可能就够了,但是经常一条MSTP的接口需要承担几百个分支机构的连接,加密、QoS、ACL、防火墙、语音、应用识别、性能评估等多种功能可能会完全的集中在一个物理接口上并加载数百份给不同的子接口。

思科设计路由器的思路一开始就是从用户最终的需求出发的,因为这一多业务系列功能任意一个短板都会带来灾难性的影响,例如使用TCAM查路由表就会导致ACL的容量下降,使用基于端口的队列,可能就是使得真正广域网那一个接口的队列数不够用。所以在很多场景中,思科在企业网路由器系列宁愿使用集中式转发引擎配置多路专用处理器的方式,这是业务模式决定的,它不会像运营商那样可以很轻易的将客户从一个接口迁移到另一条线路上。有时候最远的距离是你看见旁边一个口有QoS队列或者TCAM做ACL,但是你就是没法用到。

路由器测试通常需要考虑大量的问题,我接下来会分多期给大家分享

半开玩笑地说就是:地主家也没粮了,过去路由器测试都是大量购买各种仪表ixiaspirent厂商的设备,当然思科也有自己的流量测试工具Pagent,但是ASR1000的那个年代,我们需要大量的去仿真用户的应用,这些行为仿真和防火墙安全测试的需求使得我们又要花费大量的财力去购买很多应用测试设备,例如Spirentavalanche或IXIA收购的BreakingPoint等专用应用层测试仪表。恰逢DPDK和通用X86处理器多核心性能越来越强,于是ASR1000的研发团队就开始使用DPDK构建专用的流量测试仪表。最终开源出来回馈给所有的客户https://trex-tgn.cisco.com当然友商也可以拿去一起配合客户挂表验收

我现在用的是一台自己买的双路工作站,平时主要是用来写代码和分析数据的,大概整个机器也就两三万的花费,自己掏钱只能省一点花,具体配置清单如下:

如果真的需要专用于Trex等仪表,建议使用AMD的Roma或者Milan处理器,因为PCIe的lane更多,而且支持PCIe4.0,配合MellanoxCX5或者CX6等PCIe4.0的网卡可以更容易获得单机400Gbps的流量,Intel的处理器通常还要看主板哪条Lane是16X的,因为PCIE3.0x16刚好能产生100Gbps的流量,当你使用了8x的插槽只能打出50Gbps的流量,这一点需要注意。查询的方式如下

而内存我的配置能够测到60M并发连接,但是考虑到CPU多核和Hugepage的需求,32G*12的配置有些紧张,如果能上64GB单条的内存会更好,建议配置:

大多数100Gbps高性能的网卡都是Mellanox家的CX4~6的卡,装ofed驱动又是一件麻烦事,大多数网工也不太熟,而且配合DPDK经常有些小问题,当然最新的Trex2.88已经很好的支持了ofed5.2的驱动了,我以后测完了再给大家分享攻略。

里用一个最简单的办法构建Trex环境,下载并安装CentOS8,记得使用那个8G的dvd1选择默认的ServerwithGUI,不要最小安装

安装完成后,在国内可能还是切换到阿里的源安装软件会快一点

用root登录,首先需要安装RDMA-Core,然后下载Trex解压

配置接口

下表中选择N,使用IP配置

然后系统会显示已经插入的网卡,注意NUMA的影响,通常一对接口需要分配在相同的NUMA节点才能获得最高的性能。

Trex要求网卡按对配置,例如第一对,我们选择了01 这对卡,然后配置完后,会要求您修改IP地址,如下

安装JRE和GUI软件

在github下载StatelessGUI

https://github.com/cisco-system-traffic-generator/trex-stateless-gui/releases

和商用的测试仪表自然还是有一些差距的,主要是在一些延迟测量上和流量产生的稳定性上受到DPDK和X86平台本身的影响,可能在一些测试时延乱序或者QoS的场景下会出现一些偏差,通常我们的做法是用Trex的100G接口产生大量的背景流量,然后采用IXIA或者Spirent相对便宜的千兆或者万兆接口来做,当然如果条件有限,实在无法配置仪表,也可以建议厂商配置可以打精确时间戳的镜像交换机来测试,例如我们接下来的组播等测试场景会采用CiscoNexus93180FX,通过ERSPAN镜像流量的时候硬件打上时间戳来比对不同接口的延迟。这个例子我们下一期再详细叙述。

本次测试的是一个ASR1000中端平台,ASR1009XESP100RP3,挂接了多个MIP100线卡。

通常有些厂商会有线卡内部的本地交换芯片,而背板带宽可能有限,因此测试的时候通常这些厂商会不老实把测试仪的线接在同一块线卡的不同端口上,企图用本地交换蒙混过关。或者利用三层交换板卡蒙骗路由性能。

客户验收一定要要求:

请厂商标注交换型线卡和路由型线卡型号,并陈述转发架构,测试仪表必须使用跨卡转发连接

所以本次测试,我们按照需求配置1号MIP线卡的1/1/0100G接口和2号MIP线卡的2/1/0100G接口进行流量测试,以前就是直连地址打就行了,但是有一些厂商针对集采测试有本地直连网段不会查路由表的优化,那么加上一条静态路由规避此类优化当然我们也可以注入几百万路由来玩玩~具体留到后续的控制面测试文章中给大家介绍注入路由和快速收敛上各家的缺陷。

启用Trex后台进程,注意-C参数跟您的CPU核心数有关,例如我的IntelXeon8259L单个CPU有24个Core,通常做法是采用比物理核心少一个的方式,例如-C23

启动后Terminal会有一个TUI

然后另开一个窗口,启用statelessgui,我使用MobaXterm可以重定向到windows上,蛮有用的.

点击File->Connect选择连接本机127.0.0.1--pic---Trex-Connect.png

您可以看到如下的一些接口和CPU等信息:

可以选择这些接口点击右键Acquire使用该接口,

然后点击Configuration子页,配置Source、DestinationIP地址并点击Apply获取ASR1000网关的MAC地址。两个端口都要做。

点击Trex主界面中的TrafficProfiles菜单,然后我们来创建流量模型

点击CreateProfile可以创建,我们需要为Port0和Port1创建各自的Profile

以Port0为例,我们点击右侧BuildStream,StreamName随意就好,然后选择左下角Simplemode

在ProtocolSelection页面选择包大小,因为我们第一个Case是测试最大pps,因此包大小采用Fixed64,L4协议选择UDP,如下图所示:

继续点击ProtocolData页,选择InternetProtocolv4选项,根据我们前面配的路由表选择源目的地址,Mode为Random各16个,

点击Save,同样Port1的Profile再建立一个反向的流。

然后我们关闭TrafficProfiles窗口,点击Port0和Port1下的Profile页面,选择相应的Profile就好

然后ASR1000ESP100官方性能为78Mpps,最后我们极限测试发现可以到79Mpps,因此最后我们决定一个口增加到40Mpps,另一个口为39Mpps。

点击Stats->Dashboard就可以看见流量的统计了,居然比官方值还高了1Mpps,其实我们对外公布的值都会和峰值之间留一些余量的:

同时您也可以在ASR1000上使用如下命令确认,可以看到这个平台ESP100有两块处理器CPP0:subdev0和CPP0:subdev1流量很均匀的被调度到了两个处理器上,每块39.5Mpps左右。输出的pps为79003661,此时处理还有1%可以往上打:)

我们同样建立TrexProfile,包长我们选择Fixed1518

测试结果

既然pps某思都留有余量,这个100Gbps的ESP100是不是转发带宽上还有余量呢?我们干脆新增加两个万兆口打一下?牢记跨版~

这次我们加了一对IXIA万兆口,可以看到最终转发带宽接近120Gbps,某思居然低标了20%!

转发延迟在26us左右,而且是大包,小包会小一些,懒得测了就用这个值吧

很多路由器平台为了支持多业务转发,通常采用多核心的处理器,或者根据五元组hash到不同核心处理,因此这样的平台要干的第一件事情就是规避大象流的测试,即以固定源IP固定源端口向固定目的IP固定目的端口发送流量,会导致一种情况就是某一个核在处理所有的事情,而其它核心空着啥事都干不了。通常这样的平台整机性能只有标称性能1/N,N=核心数

因此在很多生产网络中就会遇到非常严重的问题,例如主备中心之间的数据库备份等,通常就是一个大象流的业务场景,这样的平台会严重的拖慢应用。

客户验收一定要要求:

请厂商加测大象流测试项

在Trex中设置源目的IP地址为固定一个,UDP端口也固定,包大小为64B

然后打起来,ESP100在这种情况下处理器没有满(70%),但吞吐只能到55Mpps.

问题原因在于包的Buffer系统在实际生产情况下如果是大象流也不可能全是64B的报文,所在256B左右就可以做到单个大象流线速转发了

如果确定有作弊手段2的缺陷,但是有些厂商搞定客户说没有大象流的场景,那么此处可以加测一个场景,有些路由器采用固定的Hash函数调度到某个核心,这样就有一个很好玩的hash冲突的攻击方法,也就是说当你正常的一个高优先级的流量在传输时,我可以构造相应的Hash冲突使得我大量的攻击流调度到你高优先级的流量所在的核心。构造方法特别简单,固定源目的IP地址和目的端口,然后二分法寻找源端口范围很容易找到可以影响高优先级流量的,然后就可以批量构造流量发流。客户验收一定要要求:

请厂商加测Hash冲突测试项,构建旁路的攻击流量,并将主流量放置进入QoS优先级队列,检测Hash冲突攻击流量可以使得主流量丢包。

还有一种路由器,查表引擎做不快,因为成本的考虑没有使用TCAM或者专用的查表器件,采用FastPath和SlowPath的设计模式,这种模式通常首包放到控制面,然后查好路由表以后在转发引擎上构建一个快速转发表。美其名曰Openflow的SDN实现方式。

客户验收一定要要求:

请厂商加测固定源目的IP,随机源目的端口测试项,构建大量流表,检验该类型路由器流表保护机制,同时对这类路由器加测快速收敛测试项,检测其高并发流表存在时的路由收敛流表更新时间。

很抱歉,思科没有这样的路由器出现过,因为这是典型的以追求PPS、BPS牺牲其它的错误架构,给你们验证一次也就是看到一样的结果和冗余的篇幅,拿某家的路由器来测呢,大家都知道是哪家了,攻击友商的事情我是干不出来的.

还有很多路由器直接将大象流分配到不同核心处理,最后出去的时候也不在意顺序,很有可能一些小包出去的快,大包出去的慢

客户验收一定要要求:

请厂商加测随机包长保序测试项。

IXIA在IxNetwork中配置Configuration->TrafficOptions勾选SequenceChecking

最终测试结果