SDN与NFV

SDN与NFV,第1张

VNF Descriptor (VNFD): 属于TOSCA标准的YMAL格式配置模板,主要描述了实例化一个VNF所需要的资源信息以及 *** 作行为,主要用于VNF实例化以及生命周期管理。 NFV即Network Functions Virtualization(网络功能虚拟化),就是将传统的CT业务部署到云平台上(云平台是指将物理硬件虚拟化所形成的虚拟机平台,能够承载CT和IT应用),从而实现软硬件解耦合。 NFV的本质: 络设备的IT化和云化 在NFV架构下,以下哪些是IMS切新平台及虚拟化的价值? abc A 推动TTM大幅下降(Time To Market) B 降低CAPEX/OPEX C 提升网络灵活性和开放性 D 增加IMS系统新特性XXXXXXXXX cordless telephone CT VXLAN隧道支持跨数据中心建立 SDN云数据中心场景使用VXLAN作为转发隧道,对于BUM报文设备不会向所有的VXLAN隧道泛洪。 VXLAN集中式网关不适合大型的数据中心。 VXLAN隧道支持跨数据中心建立 在SDN云数据中心场景中,AC控制器通过什么协议向underlay网络中的设备下发配置? Netconf 在SDN云网一体化场景中,AC控制器通过什么协议和OpenStack的Neutron实现对接? Restful BUM(Broadcast 广播,unknown unicast, multicast)报文 01 SDN概述与发展趋势 8.SDN网络与传统IP网络的区别? SDN利用控制转发相互分离从架构上解决根本问题:让网络敏捷起来,更快的部署新业务与快速定位故障点。采用资源集中和统一调度、能力开放的策略;让软件来干硬件的活; 02 DCI: Data Center interconnect, 用于数据中心的互联网络 1什么是DCI? 未来超过80%的业务将部署在云上 我们云数据中心需要基于用户体验进行层次化布局,而网络则需要以数据中心为中心组网进行重构,在这样的大背景下,DCI网络孕育而生。 DCI:Data center interconnect 指的是用于数据中心之间互联的网络,实现以数据中心为中心组网的基础承载网。 2为什么需要新建DCI网络? 高扩展性、低成本 资源丰富 温度适宜等条件使得云数据中心建设位置要求 某运营商新建大型云数据中心与传统骨干网位置不重合 云业务对网络要求 1云计算对时延有非常严格的要求,如跨DC同步计算、虚拟机热迁移等业务要求都在10ms以下 2 DC间流量具有突发性和不均衡性,需采用SDN计数进行实时智能调控,而现有网络复杂。新技术难部署。 ------很难重用现有骨干网,需要新建DCI网络。 3给予SDN的DCI方案总览 顶层端到端协同,实现包含DC云与DC承载网的云网资源的一站式提供和端到端业务自动化协同发放。总的来说在多地区 多运营商部署多个数据中心的方式 目前已经成为了互联网行业普遍认可的最有效的解决用户覆盖提高用户业务体验的方案,建设并运营一张安全可靠、可灵活调度的多数据中心互联网络(DCI网络),也成为了各大互联网公司在基础架构方面的工作之重,DCI建成后 可以为宽带 4/3G用户提供更好的访问体验外另一方面可以为互联网公司政府企业客户的云提供给更好的承载服务。 现在DCI面临的实际问题:网络不灵活难以跟住业务快速迭代的步伐、链路利用率较低 以及居高不下的OPEX压力等。华为SDN DCI 整体解决方案可以支撑云数据中心业务的端到端的运营,整体架构包括承载层和控制层,需要在网络基础承载层上引入部署SDN的控制层, 控制层是网络的业务发放管理平台和网络智能控制中心,该层主要功能部件为: 业务发放平台:提供业务自动化入口实现租户业务自助发放以及网络资源状态的可视个运维管理入口 业务协同平台:DCI业务需求分解和DC和IDC的协同实现端到端的跨控制器资源的协同分解 云平台:接受业务发放平台的业务分解,进行DC运业务分解和协同,实现DC的内存储 计算和网络的协同 DC控制器:接受OpenStack业务分解同一控制DC的NVE和VxLAN GW 实现DC内网络自动部署和控制 DCI控制器:接受业务协同平台资源的分解,实现Underlay网络部署的自动化和网络流量的智能优化 流量采集工具、调优策略的输入、流量采集组件可以基于端口TE隧道进行流量采集和分析并提供网络流量可视化界面 DCI骨干网解决方案承载层是租户业务的承载实体负责跨DC网络的连接以及业务宽带和SLA保证,骨干网支持VxLAN技术提供了大二层组网的能力,能够跨越广域网和多个物理DC构建Vdc网络,实现跨区域的资源节点的互备和虚机动态迁移,有效提升了DC云资源的利用效率,骨干网部署业界广泛使用的MPLS TE流量工程技术为租户业务提供端到端的宽带保证,提升了网络资源的利用效率,特别是提供了基于租户和业务的差异化的服务能力,网络承载支持采用Overlay技术,Overlay业务网络基于云业务驱动支持快速的业务开通 Underlay物理网络按需提供网络资源,实现端到端的SLA保障和智能流量的优化,目前IP Core网络中存在如下一些流量调整需求:实现IGW出口、DC出口的流量均衡 降低不同ISP网间费用的结算 提升VIP用户体验 针对这些需求 当前主要依赖于手工调整BGP路由策略 : 1监控链路带宽利用率 2识别出需要调整的流 3基于流制作BGP策略下发给设别 4循环 *** 作,直到流量符合期望目标的要求 4 智能流量调优方案:RR+方案 手工方法不能实时调整,耗时长、配置和维护复杂问题,RR+方案用于解决这问题。 RR+方案在IP core现网中加入SDN Controller,实现集中控制,智能化调优 RR+可以带来什么? 1最大化IGW带宽利用率均衡链路间流量的分布,降低网间结算费用,不同客户提供不同SLA服务 2自动调整流量,取代复杂的手工 *** 作 3基于标准BGP通讯,可以和现网设备平滑兼容。 5什么时PCE+方案 Path Computation Element 路由转发用最短路径算法不考虑带宽,存在利用率低的问题 PCE+为了解决这一问题 PCE+通过在网络中部署PCE server(就是SDN Controller),使用StatefulPCE技术,为 MPLS TE LSP集中算路。 使网络带宽资源使用尽量达..到最优。该架构方案中需要新部署的网元是PCE Server,转发设备为 PCE Client。PCE Client需要计算LSP时会向PCE Server发出计算请求,server计算后结果反馈给client,client然后进行LSP隧道建立。 思考:什么是DCI? DCI即Data center interconnect 指的是用于数据中心之间互联的网络 DCI网络正是实现“以数据为中心的中心组网”的基础承载网。 03 文档 SDN网络解决方案 NFV (Network Function Virtulization)采用虚拟化技术,将传统电信设备的软件和硬件解耦,基于通用计算、存储、网络设备实现电信网络功能,提升管理和维护效率,增强系统灵活性 SDN关键特征:集中控制、优化全局效率;开放接口、加快业务上线;网络抽象,屏蔽底层差异 NFV关键特征:上层业务云化, 底层硬件标准化,分层运营,加快业务上线与创新 nfv —>4-7层 sdn —>1-3层 物理、数据、网络 SDN主要技术流派:ONF (Open networking foundation), IETF, 大T PCEP(Path Computation Element Protocol)协议 ONOS -->Open-Source SDN Stack -->ONF OpenDaylight -->IETF -->Cisco, 基于XML Schema实现SDN 华为是NFV担任职位、贡献文稿最多的Vendor RAN:无线接入网(Radio Access Network) 可以利用华为私有MSCP(类似OPENFLOW)进行南向设备的控制 基于MBH虚拟接入解决方案,简化运维 01NFV技术概述与发展趋势 1CT当前面临的结构性挑战 增收方面:用户饱和,传统业务下滑 节流方面:CT投入成本下降,IT部分的投入从2002年6%增加到2013年13%, 创新方面:CT界一年5个创新 IT界32000倍 商用速度:CT每个月6个上市 IT每小时12个 什么是NFV? NFV (Network Function Virtualization) 网络功能虚拟化,ETSI组织下组建的。 希望通过采用通用服务器 交换机和存储设备实现传统电信网络的功能。通过IT的虚拟化技术,许多类型的网络设备可以合并到工业界标准中,servers switchs storages 需要用软件实现网络功能并能在一系列工业标准服务器硬件上运行,可以根据需要迁移,实例化部署在网络的不同位置而不需要部署新设备,需要大容量Server存储和大容量以太网 不同应用以软件形式远程自动部署在统一的基础设施上。 三个关键点:软硬件解耦 开放 自动化 2NFV将IP基因融入电信网络 传统电信网软硬件绑定,更新困难,管理维护困难。采用虚拟化技术和云计算的网络,硬件采用标准的服务器 存储设备和交换机,虚拟化之后 上层业务通过软件形式运行在统一的标准的硬件基础之上 。 虚拟化后的网络好处:易于更新、硬件通用化支持异构,资源归一 简化管理与运维 3NFV正走向成熟 2015~2016年稳步爬升 趋于成熟 1.NNFV生态系统: ETSI在2012年成立了 NFV ISG来研究网络功能虚拟化 随后,涌现了一批NFV的开源组织,比如OPNFV,OpenStack NFV产业联盟,秉承开发、创新、协同、落地的宗旨,集多长家和合作伙伴进行联合创新,成为开放联盟的引领者。 2.NFV框架 NFV框架主要包括3大组件:NFVI、VNF、和MANO解释: 框架中最底层的是硬件,包括计算、存储、和网络资源 往上的云 *** 作系统,完成虚拟化和云化的相关的功能,硬件和云 *** 作系统成为NFVI。 I指的是instruction,设施的意思,这些设都是有VIM来管理。 在往上是虚拟网路功能,比如vIMS提供IMS的语音业务,vEPC提供4G的数据网络功能。 虚拟网络功能由VNFM来管理,提供VNF的声明周期管理。 在往上是网络管理层及网管,网管我们可以配套NFVO进行网络业务生命周期的管理 3.NFV三大组件的关键要求 【1】组件MANO:包括NFVO(网络业务生命周期管理)、VNFM和VIM, 要求VNFM适配不同厂商NFVO和VIM;并且MANO系统(NFVO+VNFM+VIM)应该尽量减少对现有的OSS/BSS的冲击。比如要求MANO支持和现有传统平台(如U2000)的对接 【2】组件VNF(虚拟化网络功能):要求它可以运行在不同厂商的NFVI; 对应传统的电信业务网络,每个物理网元映射为一个虚拟网元VNF。 【3】组件NFVI-云 *** 作系统要求优选基于OpenStack的云 *** 作系统 将物理计算/存储/交换网络资源通过虚拟化计算转换为虚拟的计算/存储/交换网络资源 【4】组件NFVI-硬件 要求它优选具有虚拟化辅助功能的芯片的COTS 同时具备高IOPS与高可靠性的磁阵 低RAID等级的磁阵建议冗余组网 03 FV关键能力 4.高可靠性 应用层、云 *** 作系统层、硬件层都有相应的冗余机制。 应用层高可靠性可以通过主备和负荷分担方式实现主备VM之间的冗余。确保应用层会话0中断,99.999%的可用性。 云 *** 作系统的可靠性可以通过虚拟机快速重建冗余机制来实现。 硬件层高可靠性主要通过族化以及物料冗余机制来实现计算、存储、网络等硬件设备的冗余 硬件层、VM层、业务层各层可靠性各自独立,高度互补确保整体可用性。 5.高性能 NFV业界最权威的评估公司SPECvirt。华为的FusionSphere性能得分为4.6,排第一。 呼叫处理方面华为的FusionSphere比第二名的Vmware高17%。 高性能技术的关键技术:NUMA亲和性、CPU绑定、DPDK、透明巨页、虚拟中断优化等 6.NFV存在的问题 (1)标准不成熟,技术架构实现上有分歧; (2)多供应商、集成复杂。 (3)部件兼容性风险大。 (4)NFV工程难度大。 (5)网络功能虚拟化技术滞后 (6)虚拟化可靠性不足。传统电信要求99.999%可靠性

最近SD-WAN在业界炙手可热,越来越多的企业客户准备或已经上马SD-WAN。在此风生水起之际,各式各样的SD-WAN供应商自然轮番出招、应接不暇。在深入接触了一些国外主流商用SD-WAN厂家的技术方案后,希望能对这些主流商用SD-WAN方案中所采用的最根本的SDN特性进行一些分析,供大家讨论。

说实话,在深入了解业界主流商用SD-WAN之前,对SD-WAN名字中Software Defined的认知更多的停留在传统SDN所强调的控制面和转发面分离的模糊概念上。笔者曾先入为主的以为SD-WAN中采用的转控分离就是沿袭学术界SDN的经典套路,采用类似Google基于Openflow构建的横跨全球数据中心的B4 SD-WAN的思路--毕竟Google的B4 WAN是 SD-WAN的鼻祖啊。

然而在初步接触了几大商用SD-WAN厂商的技术方案之后,笔者骤然有种被欺骗的感觉:这些SD-WAN解决方案中所谓的“SDNController”其实就相当于一个大家已经使用了快20年的BGP RouteReflector,和 SDN没什么关系。这完全颠覆了笔者的世界观,令我非常的失望和不安。

但随着进一步的深入了解,笔者发现这些所谓的“SDN Controller”和传统的BGP Route Reflector虽有神似,实则不同。具体说来,这些冒牌的"SDN Controller"虽然没有像学术界或Google B4 SD-WAN所使用的SDN Controller中转控分离做的那么理想和纯粹,但确实也继承了SDN的一些神韵。如此一来,SD-WAN的名字也算差强人意。下面就请听我慢慢道来:

首先我们来讲讲主流商用SD-WAN方案中这些所谓的"SDN Controller"和传统的 BGP Route Reflector究竟有多么的相似。我们借用全球SD-WAN Top 2厂商 Viptela的一张系统架构图(图一)来解释一下。(注:目前Viptela和 VeloCloud谁是SD-WAN市场老大还存在争议,但他们两个以及绝大多数SD-WAN厂商的系统架构都非常类似。另外有趣的是,这两个Top 2 Vendors最近分别被Cisco和VMware收购了,可见这个市场的热度,竞争的激烈,以及日趋饱和)。

图一:Viptela SD-WAN系统架构

在图一中,vSmart Controller就是Viptela所谓的 “SDN Controller”,用来负责与用户各个站点的CPE设备(图中的vEdgeRouters)进行通信从而交换用户各个站点之间的路由信息。所以从控制平面来看,各站点的CPE设备彼此之间不再交换路由信息,而是统一发送给中心控制器。之后再由中心控制器将路由信息传递给其他的CPE设备。这种集中控制的思想正是SDN的精髓所在。然而如果仔细来看这些CPE设备与中心控制器之间是如何来交换路由信息的话,我们发现目前主流SD-WAN厂商都是采用基于BGP协议的路由交换 。BGP?是的,您没有看错,正是那仙福永享,寿与天齐的BGP,而不是因为SDN炒的火热的新贵小开OpenFlow(注:通常SD-WAN厂商都会在BGP的基础上做些改动和扩展,比如Viptela将改动后的BGP协议称为OverlayManagement Protocol (OMP),具体细节可以参见他们为OMP申请的专利: https://www.google.com/patents/US9467478 。)

看到这里,各位看官可能会有这样的疑惑:如果CPE设备和中心控制器都是基于BGP的路由交换,那么这和传统的BGP Route Reflector有什么区别呢?(注:这里附上一个传统的BGP Route Reflector的架构图供您参考,其中心思想就是各个BGP Router之间不再建立网状的BGP Session来交换路由,而是统一发给中心的BGP Route Reflector ,再由他传递给其他所有的BGPRouters。可见其与SD-WAN里的SDN Controller多么的相似)

图二:传统的BGP Route Reflector架构

BGP Route Reflector早就有了,比今天大家热炒的SDN早了快20年。这些主流SD-WAN厂商所采用的技术真的算是SDN吗,还是挂羊头卖狗肉,新瓶装旧酒?

这种疑惑伴随着笔者许久,直到笔者仔细研究了这些SD-WAN厂商对BGP协议的改动和扩展,以及这些解决方案中对集中式Policy的强调和使用,才发现SD-WAN里的SDN Controller大大超出了传统BGP Route Reflector的能力范围。下面是笔者总结的所谓的SDN Controller与传统BGP Route Reflector的几个主要区别:

1.目标的不同

传统的BGP Route Reflector主要是为了解决iBGP网络里对BGP Router之间需要Full Mesh互联的问题。BGP Route Reflector可以有效的将所需的BGP Session的总量从Full Mesh时的N^2的数量级降低到Hub-Spoke时的N的数量级。这对减少超大规模的BGP网络的复杂度非常重要。

而反观 SD-WAN里的 SDN Controller,它最主要的目的是提供一个集中管理和配置Overlay网络的工具。同时SDN Controller除了提供以Hub-Spoke方式的路由交换,还提供了简化的安全密钥交换(用于数据平面CPE设备之间IPSec隧道的建立),中心化的Policy控制,以及VPN标签的分配,等等。所以SD-WAN中的SDN Controller的目标和功能远远超出了传统BGP Route Reflector单纯的路由交换。

2.路由传递实现方式的不同

传统的BGP Route Reflector在交换路由时,只是简单的将从一个CPE Router处收到的路由信息原封不动的“反射”给其他所有的CPE Routers,这也正是Route Reflector (路由反射)名字的由来。

然而 SD-WAN里的SDN Controller在收到从一个CPE Router发出的路由信息之后,在SDN Controller做了很多的计算和处理,然后才将过滤和处理后的路由信息发给相应的CPE Routers (注意不一定是其它所有的CPE Routers)。通常SDN Controller所做的处理包括:根据用户定义的Policy来修改路由的参数,综合所有已收到的路由信息计算出到达任何用户子网的最佳路由,将上面计算出的最佳路由信息发送给某些特定的CPE Routers(具体由用户Policy决定)。从这里我们再次可以看到 SD-WAN里的SDNController比传统的BGP RouteReflector要复杂得多,功能也要强大的多。

当然除了以上总结的两点主要区别以外,他们之间还有其它一些小的区别,比如路由所携带的参数信息,最佳路由的算法等,此处不再展开。

如果您能坚持看到这里还没有睡着或者改刷朋友圈的话,那么恭喜您!-您已经掌握了目前市场上主流SD-WAN厂商所使用的最核心的路由技术及其与SDN这个大帽子的真正关系。当然SD-WAN不仅仅是SDN,我们今天所讨论的路由技术也只是SD-WAN所使用的众多技术中的一个。虽然笔者认为如何在Overlay层面构建路由是SD-WAN最核心的关键技术,然而我们不得不承认SD-WAN在Overlay路由基础之上所提供的多种多样的功能和服务(比如Application Aware Routing,集中化和界面化的Policy Control, Zero Touch Provisioning (ZTP), VPN和 Segmentation )才是SD-WAN真正吸引客户的地方。关于SD-WAN那些琳琅满目,吸引客户争先恐后掏出荷包的功能,我们下次再专门找个机会聊一聊。

------摘自 SD-WAN究竟是怎么回事

如有违规,请及时通知并删除

区别一:

从功能方面:

SDN交换机基本具有普通交换机的所有功能。SDN交换机特别的功能在于支持OpenFlow协议(有些只支持OpenFlow1.0,有些强点支持1.0和1.3)。

区别二:

从性能方面:

SDN交换机将所需的端口改成支持OpenFlow的端口,并且将控制器的IP地址输入。然后你打开控制器(我用floodlight)就可以发现这台SDN交换机(端口只显示你设定的那些支持持OpenFlow的端口)。

区别三:

从难易程度方面:

你在控制品上输入流表,下发规则至SDN交换机。那么经过SDN交换机的数据包就根据这些流表规则转发。

而传统的交换机(无论3层还是2层)都是收到数据包之后自己决定怎么转发。和这个数据包的一些信息,问控制器怎么处理这个数据包。

暂时感觉SDN交换机的效率没普通的高。

扩展资料:

SDN交换机配置及应用

一、SDN交换机配置及控制技术分析

SDN采用集中控制的思想,使SDN控制器具有全局视角,可以从全局优化的角度改变SDN交换机的转发行为,提高网络性能,因此SDN交换机配置及控制技术对于数据中心网络流量负载均衡具备非常重要的意义。

1、SDN交换机控制技术分析

Openflow是应用最广泛的SDN交换机规范。OpenFlow协议支持3种消息类型,分别是Controller-to-Switch(控制器交换机消息)、Asynchronous(异步消息)、Symmetric(对称消息)。

每一种消息类型拥有多个子消息类型。其中Controller-to-Switch消息是由控制器发起,用来管理和获取交换机的状态的消息;Asynchronous消息是由交换机发起,用来将交换机状态变化和网络事件更新到控制器的消息;Symmetric消息既可由控制器也可由交换机发起。

2、SDN交换机配置技术分析

OF-Config是SDN网络应用最广泛的交换机配置协议。OF-Config由ONF组织中的Configuration&Management工作组负责维护,于2012年1月6日发布vl.0版本。

OF-Config的最主要目标是在支持OpenFlow的网络设备上实现基本功能配置。除此之外,OF-Config还根据自身的需要制定了多种场景下需要的 *** 作运维能力以及对交换机管理协议的需求,下面将从上述几个方面分析OF-Config协议的配置能力。

OF-Config在支持OpenFlow的网络设备上基本功能配置包括:配置一至多个控制器的IP地址;配置设备的队列、端口等资源支持远程修改设备的端口状态。

此外,在 *** 作运维方面,主要包括以下4点:支持从多个配置点进行配置 *** ;支持一个配置点配置和管理多台交换机;支持由多台控制器控制同一台逻辑交换机;支持对已分配给逻辑交换机的端口和队列的配置。

而在管理协议方面,OF-Config做出了更详细的规定,如协议必须是安全的,能够确保完整性和私密性,并提供双向身份认证;协议需要支持由交换机或者配置点发起的连接,支持对部分交换机的配置;协议必须具有良好的扩展性,能够提供协议能力报告等。

3、SDN交换机配置技术与控制技术的关系

OF-Config跟OpenFlow的关系是OF-Config协议作为OpenFlow协议的“伴侣”协议,解决OpenFlow协议中没有规定的OF交换机管理和配置标准。

在OpenFlow协议中,有控制器向OF交换机发送流表以控制数据流的转发行为,但是它并没有规定如何去管理和配置这些OF交换机,而OF-Config就是为解决这一问题而提出的。

OF-Config的作用是提供一个开放接口用于远程管理和配置OF交换机。它并不会影响到流表的内容和数据转发行为,对实时性也没有太高的要求。

具体地说,诸如构建流表和确定数据流走向等事项将由OpenFlow规范进行规定,而诸如如何在OpenFlow交换机下配置控制器IP地址、如何配置交换机端口上的队列等 *** 作则由OF-Config协议完成。

二、SDN交换机应用及配置

SDN交换机采用虚拟网络设备技术,不仅可以实现扩展数据链路层,而且还能够实现安全、具有d性、自适应的云计算基础网络。那么SDN交换机该如何安装配置。

SDN交换机的安装

1、为了能够使SDN交换机实现外网的远程接入,在使用SDN交换机时,应该全面综合考虑SDN交换机的安装位置。在安装SDN交换机时,不仅应该配置IP地址,同时还应该对端口提供外部访问,这样才能对SDN交换机进行安装。

2、SDN交换机配置

在系统中安装SDN交换机后,配置SDN交换机时,应重新启动系统,然后到“开始/程序”中进行选择“SDN交换机管理”并使其运行,根据系统要求输入SDN交换机所在的位置,

并选择Localhost,最后点击链接,系统就会进入命令行下的配置界面,根据提示可以完成对SDN交换机的配置。

3、虚拟网卡IP地址的配置

在使用SDN交换机实现远程网络的接入时,对每一个需要接入的机器设备都要安装虚拟网卡软件,安装完成后重新启动系统就能够进入网络配置的窗口进行网络配置。

4、建立连接

在系统中如果对通信配置完成后,系统的“连接管理”中会d出“EDOAS”图标,双击该图标,目前的系统与SDN交换机之间就会建立连接,并在右侧窗口内显示当前系统与SDN交换机之间的连接状态。

5、实现远程机器对内部网络资源的访问

远程机器要访问内部资源,首先应该与交换机建立连接,还应完成提供服务的机器与SDN交换机之间的连接,然后在远程机器的IE地址中输入需要访问的地址,就可以实现外网机器对内部网络的访问。

计算机网络主要是通过专用设备和通信介质连接起来的,可以是专用设备与多台计算机连接形成,也可以是通过单个网络与专用设备进行相互之间的连接形成。


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/dianzi/8632448.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-04-19
下一篇2023-04-19

发表评论

登录后才能评论

评论列表(0条)

    保存