ViVO手机存储有个手机文件夹名称大全的名称叫MQ是什么意思

特价BYZ原装正品适用vivo华为oppo小米安卓數据线安卓2A快充充电器已有(4)人关注Z原装正品适用vivo华为oppo小米安卓数据线安卓2A,(1)人点赞装正品适用vivo华为oppo小米安卓数据线安卓2A快充

特价vivo Z6手机数據线双引擎闪充快充Z5充电线vivos5充电器头原装已有(72)人关注vo Z6手机数据线双引擎闪充快充Z5充电线vivos5,(1)人点赞 Z6手机数据线双引擎闪充快充Z5充电线vivos5充电

特价肯索亚无线充接收器6S套装适用于苹果iPhone7plus手机mate10快充芯贴片P20安卓vivo小米华为通用OPPO新款充电已有(2955)人关注亚无线充接收器6S套装适用于苹果iPhone7plus手,(5)人點赞线充接收器6S套装适用于苹果iPhone7plus手机m

特价品胜多口充电器快充智能排插四口USB插头苹果安卓荣耀华为魅族手机通用插座充电头多孔oppo三星vivo一加錘子已有(4013)人关注多口充电器快充智能排插四口USB插头苹果安卓荣耀华为魅族,(3)人点赞充电器快充智能排插四口USB插头苹果安卓荣耀华为魅族掱机

特价倍思苹果充电器头快充iphonex手机7p安卓三星usb插头多口6通用8plus华为多功能vivo超级闪充正品ipad平板小米已有(61)人关注苹果充电器头快充iphonex手机7p安卓三煋usb插头,(5)人点赞充电器头快充iphonex手机7p安卓三星usb插头多口

特价x9s快充plus闪充电器步步高X9叉九X20维沃X7手机X6闪充数据线VIVO已有(147)人关注s快充plus闪充电器步步高X9叉九X20维沃X7手机X,(5)人点赞充plus闪充电器步步高X9叉九X20维沃X7手机X6闪

特价ivox21充电器x21原装正品手机原配闪快充头线vovix21a冲电器已有(34)人关注ox21充电器x21原装正品手機原配闪快充头线vovix,(1)人点赞21充电器x21原装正品手机原配闪快充头线vovix21

特价usb插头多口苹果x充电器11快充三头充电头三合一手机适用于iphone小米ipad插座oppo快速vivo通用三星超级正品已有(931)人关注b插头多口苹果x充电器11快充三头充电头三合一手机适用于,(3)人点赞头多口苹果x充电器11快充三头充电头三合一掱机适用于ip

特价帝楷多口USB充电器头通用快充三头三合一苹果XiPhone华为vivo小米oppo安卓手机iPad充电头已有(364)人关注多口USB充电器头通用快充三头三合一苹果XiPhone華,(5)人点赞USB充电器头通用快充三头三合一苹果XiPhone华为v

特价苹果充电器vivo闪充数据线oppo华为手机usb插头ipad通用8多功能安卓7多口6s快充iphone6套装快速5V2A已有(22)人关紸充电器vivo闪充数据线oppo华为手机usb插头ipa,(1)人点赞器vivo闪充数据线oppo华为手机usb插头ipad通

特价5v4a数显自动断电快充充电器5孔多功能办公室适用华为苹果vivo已囿(16)人关注4a数显自动断电快充充电器5孔多功能办公室适用华为苹果v,(3)人点赞数显自动断电快充充电器5孔多功能办公室适用华为苹果viv

特价品胜咹卓数据线充电头适用三星华为vivo小米oppo手机通用充电器套装快充1a2a已有(2014)人关注安卓数据线充电头适用三星华为vivo小米oppo手机通用,(5)人点赞数据线充电头适用三星华为vivo小米oppo手机通用充电


  

  

  

本文发布于vivo互联网技术微信公众號:

作者介绍:石建松负责 vivo 互联网的交付系统架构设计和落地,之前在百度做移动运维平台和评价运维平台本文为 石建松 在 DOIS 2018 · 深圳站嘚分享。

  

本次的分享主要分三个部分第一部分主要介绍 vivo 互联网架构整体演进和 DevOps 建设历程,第二部分介绍混合云架构下 DevOps 整体实现方式最後一个部分就是未来的探索。
  

  

  
  

  

首先看第一个部分首先介绍一下 vivo 互联网的整体业务,分为两部分第一是系统业务,包括硬件另外就是掱机APP,包括用户看不到但是能感知到的搜索、广告等的服务整体 DevOps 主要针对后面两个场景做介绍。
再看一下互联网这块的业务近三年来的發展非常迅速可以看到单品日活浏览7千万,月活就近2000亿CDN三年增长10倍,目前来看我们整体服务数量已经超过2000个,项目数量超过350个
整體互联网架构,我们的业务架构都是前端不管是静态下载还是动态加速都是通过CDN接受请求CDN再回源到我们接入层7层和4层负载均衡,我们90%的茬线服务都是Java技术现在整体业务复杂度的增加,我们也在持续进行基础技术架构的改进这块对于我们的基础能力建设提出了比较高的偠求,因为异构这种能力建设对包容性要求非常强
第一阶段在2011年左右,物理机的模式当时的规模小于200-300台物理机,之后进入了虚拟机时玳在线业务都部署在基于 Openstack 管理的私有云上,最近2年则进入混合云时代公有云和私有云共同承载互联网业务。
之前介绍互联网的这些架構的话带来了不少挑战,分5方面基础设施网络连通性,网络稳定性业务规模增长迅速,要求我们迭代路度快基础建设也需要比较強的能力业务架构也从单一技术栈向多元技术栈过度。
交付效率周期长交付不标准,互联网人员规模增长了很多增长速度非常快,这樣对于我们上层平台提出了比较高的要求建设平台不完善的话,标准化设施的建设都会有问题这边的解决思路就是抽象资源层,评比底层资源异构的特性在CI方面提升CI效率。
DevOps 的建设从0起步代码开发上线都是纯手工操作,正常操作就是在IDE编译代码通过手工的方式上传,测试通过之后告诉运维进行上线发布
紧接着我们建立了第一条流水线,这不是完整的流水线我们在流水线各个环节里面都有对应的開源工具串联起来,在这个阶段的话线下和线上两个环节没有打通,包括线上完全是 ChatOps就是通过V消息、邮件方式告诉运维怎么上线,要妀什么配置是这么原始的阶段。
初期通过这个配置对于新人和新的服务上线来说整个配置复杂度比较高,不是特别友好的方式CI和CD没囿打通的话,整合服务交付时间段比较长发布上线成为了瓶颈。整体上线是手工上线的去年我们大部分的上线变更出现故障都是由于掱动发布导致的。
  

  

  
  

  

DevOps 所有的平台大部分都是今年半年之内构建起来的我们是基于 Spinnaker 自研CD持续交付平台,还将CI到CD环节进行了打通我们可以看箌增加的这几个部分,打包环节我们通过CI发布环节通过CD。上线后的服务持续运营加入了包括调用链、基础监控、日志中心等服务
这几張图是RightScale公司的调研结果,我们知道这个公司是全世界范围内做混合云市场份额比较领先的公司我们可以看到在目前来说这些企业里面只囿70%多的企业用了混合云的架构,1000 人以上的混合云比重高达 80 %整个混合云使用的比例也是越来越大,每一家企业在使用混合云的话平均都超过了4家以上,所以说混合云是我们整体互联网IT发展主流的趋势
我们再看一下整个混合云架构的优势以及挑战,优势有三方面:
首先是靈活性混合云能够按需进行分配,扩展性强TCO更低。
第二是可靠性多云形成了互补,今年、去年腾讯云宕机都有发生如果有了多云嘚支持,就可以在多云之间形成容灾
第三是丰富性,各家云都有各自的特点百度云在AI计算有特殊的地方,腾讯云在用户关系链这块哆云的特性形成了互补。同时也带来了挑战对于我们来说比较大的一个挑战就是安全性的问题和网络互通的问题。
整体 DevOps 平台不管研发囷运维都要达到这四个目标:标准化、自动化、自助化、多样性。
1.标准化要求环境需求、业务部署都要标准化
2.自动化是要运维欢迎是快速、自动化、可重复的运行环境。
3.自助化是通过自助构成
4.多样性不管是你的开发语言还是开发框架包括资源需求都要达到多样的需求。
丅面这张图就是整体今年构建整体 DevOps 的功能全景图在基础设施层,我们是多云的我们可以看到我们引入了docker,往上是多云管控平台再往仩是中间件,然后是云服务、CI平台、CD平台、自动化运维平台左侧就是串联整个场景的CMDB,包括服务资产、权限、流程右侧通道包含了几個通道,配置管理、自研vivo底层控制系统vcsBees作为日志采集的,Ansible 我们用的不多包括监控平台和日志服务。
DevOps 全链路我们从开发到需求管理用嘚是 code 和 gerrit,代码提交后我们将代码进行编译构建打包到线下制品库,然后做测试和部署如果测试验证后再进行将制品推送到线上制品库,通知运维进行预发和生产环境部署右侧会引入监控系统、日志中心以及一些我们需要自动化运维,通过作业平台进行
刚刚赵班长也囿详细介绍了他们的 CMDB 是怎么做的,CMDB 是 DevOps 的元数据管理的基础现在我简单介绍一下我们 CMDB 是怎么做的,我们主要分为四大块资产、服务、重建和流程,我们今年做的主机设备网络设备有做一部分,剩下的还没有开始做只是把整个图列在这里了,我们不单服务树形结构的管悝在权限统一了整体运维体系包括研发体系的权限管控。流程我们替代了内部有一个BPM的系统,但那个系统包括自定义的流程包括回掉的流程都做的不好,我们是完全基于我们的用户场景研发了流程管理的平台
整体 CMDB 围绕服务树树型结构打造的,在横向我们做了平台串聯包括监控平台、CICD、配置中心、日志中心。在右侧整个树型结构组织就是我们公司组织架构,我们会从公司、部门组、项目、备机池(临时机器存放)项目下面是服务,服务往下就是服务单元服务单元是最小不可拆分的部分,有统一的生命周期包括统一的配置管悝,就是我们的监控策略我们的发布策略,在这个服务单元里面都是相同的
DevOps 之 CMP 统一资源访问和管理,包括物理机、私有云、公有云通过这些统一在底层屏蔽了 API 的鉴权、异构特性,同时我们对私有云做了集群的编排对其他云来说,都有统一的管理各种的一些管理,還和整体的 CMDB 做打通比如我们做机器申请,对应的关系都会统一录入到 CMDB 里面
这是线下云服务,我们知道大家在开发测试阶段我们要构建依赖,整体耗费的时间比较长你都需要去知道是怎么搭建,这个事情对运维很简单但对开发没有那么清晰,所以我们基于 Contiv 这个构建叻 docker 容器云
下面来说一下我们整体的CI和CD我们是怎么做的,我们整体编排流程引擎我们是通过 Spinnaker 做的这是整体的 Spinnaker 的架构,一个是Deck是民向用户UI堺面组建Orca 是核心流程编排引擎组建,我们通过并行创行都是通过这个实现的Igor 是CI系统组建,后端有CI都是通过这个组建的Cloud driver 是适配不同云岼台的组建。
基于 Spinnaker+Jenkins 的CI流水线建设整个模板各方面是固定的,大家要做新任务构建的话点几个鼠标写一下证书基本上构建任务就串联完荿。我们通过 Spinnaker 把构建组合起来然后完成流水线的流转。
构建编排方式我们从几个维度构建,同时执行顺序、依赖关系都是通过 Jenkins 表述的
发布编排方式,我们部署策略也是通过 Spinnaker 编排方式实现的目前支持了机房间串并行,以及自定义
Spinnaker 流水线建设优化,我们原来使用这套鋶水线的时候我们发现很多问题我们的构建问题会发现这是官方的使用方式,下面是我们的使用方式官方使用方式是用K8S做部署,部署唍成之后这个是做的一堆机器的反馈结果;
我们是可以拆分成一个机器这两种方式差别非常大,一开始我们没做优化的时候直接上线峩们发现原来支持100家的 Stage,我们整体的内存占用超过80%CPU 间歇性的打满,我们看了原码之后整个 Spinnaker 加载流水下的时候,会把上下游的东西全部加载进去一个机器一个stage可能有20个,这样算下来整体内存占用非常大我们根据我们的场景,我们重写了这部分的数据的加载我们只需偠知道上下游的关系,同时取消完整的扫描和序列化对结构体进行优化,把整个结构体缩小这几个部分取消掉之后我们整体并行和畅荇能力达到了大大提升,目前来说2000+创并行没有问题
我们整体全球发布方面,主要是通过每个机房有一个管理员管理各个机房的 AGENT,通过仩层连续管理员进行推送和发布我们海外发布经过了代理中转,然后到 CACHE
下面是自动化运维平台的基础,是作业平台基本上通过我们嘚快速作业、作业流、工具箱、定植作业可以覆盖日常运维90%以上的场景,其中说一下作业流底层通过Spinnaker实现的,这些影射到运维上的话就昰前后脚本的依赖判断
作业平台—统一Agent,通道统一CMDB、监控、发布。统一Agent管控变更和升级、进程守护、安全控制、审计。
域名变更管悝在完成这个系统之前,整个vivo不管内网域名还是外网外名的实现方式内网DNS全网管控,平台化变更对接 Dnspod、万网实现外网DNS变更。在这个基础上我们实现了流量预案针对机房、VIP、域名三个维度,发生问题的时候运维会有限在这个维度上制定预案,当发生监控告警直接實行这个预案,就实现了切换
下面再看一下 Nginx 变更管理,初期没有这个平台之前我们通过人工手动维护配置管理但我们发现这个集群规模、集群数量增加之后,人工成本非常高所以我们在线上设置了这个平台做 Nginx 配置管理,包括配置校验、管理、编排、发布编排等等当測试集群测试通过之后才会往线上集群做下发。
再看一个就是我们知道之前看到我们的业务架构里面我们所有的服务都是通过 Nginx 转化怎么樣要无损发布呢?实现基础肯定要实现基础层的加载目前微博开源的方案,通过 Consul做分布式配置同步的系统,通过 upsync 做动态陆游的更新
配置中心这块就是我们目前做代码和环境的分离,在用的一块系统整体和市面的配置中心实现方式是一样,SDK嵌入我们的代码里面
最后┅部分讲监控是怎么构建的,自下而上分为基础监控、组建监控到业务监控首先开源我们通过 zabbix 实现,在网上走的话我们自研了 javaagent,再往仩实现监控
基于Zabbix搭建主机监控集群,通过Zabbix插件实现组建的部分监控LVS、Mysql、redis、MongoDB,目前这套基础监控我们正在维护我们每年会通过自研方式对这块做整体替换和我们的 CMDB 做打通。
拨测探测机通过云主机、体专店等手机上部署探针整体架构其中难点主要体现在任务调度系统和實时流汇聚和计算系统,难点主要存在我在某个区保证稳定量的分布对拨测来说体专店手机的稳定性比起我们的机房肯定有问题,所以峩们要进行实时调度整个数据回传、计算要在一分钟以内完成这个数据,在数据存储量和计算都有一些难度我们这边采用OpenTSDB+Redis实现指示存儲。
再说一下调用链整体实现方式其实跟谷歌、腾讯、阿里的一样,整体调用链的作用可以帮助我们做一些服务的分析故障定位、整體容量的规划。
这张图我们可以看到通过调用链梳理服务上下游、通过这个都可以实现包括服务的QBS、响应时间,通过这些趋势图可以看箌当发生问题,比如说我定了同域名监控都可以通过告警中心,通知到对应的开发和运维
最后再讲一下我们整体的日志监控,数据采集分三块实现一个是 flume,现在自研了 agent会随着 CMDB 机器增加把采集应用到新增的机器上。上层的数据汇聚通过JAVA进行数据清晰再往上走短期ㄖ志存在ES里面。
最后看一下我们未来vivo在 DevOps 的发展方向我们现在也在做K8S资源调度层面的探索,未来我们会基于容器云向上提供服务当在很長时间内我们继续提供服务。最上层我们是统一的计算表示层和分布式应用层对服务方和应用方提供统一介入和服务。
  

  

  
  

  

这块是基于容器雲的CI/CD我们目前用这个架构和方案做实施,当然我们可能优先会在开发册上跑这套方案Jenkins在编译方面。
最后我们肯定也是从 DevOps 到 AIOps 发展方向艏先在几个方面可以做几个事情,包括 Spinnaker 组建做自动灰度分析和上线基于机器分析做容量管理、智能监控相关的事情。
  

  

更多内容敬请关注vivo互联网技术微信公众号

我要回帖

更多关于 手机文件夹名称大全 的文章

 

随机推荐