节点升级;打造世界电塔升级交互怎样造

You are here:
[天天炫舞]创造世界纪录 玩家交互如何做
GameLook报道/基于游戏的社交是PC游戏非常重视的游戏细分领域,随着手游人群不断壮大,在手游市场可能超越端游的背景下,手游社交逐渐被看成维稳、拉新的法宝。1月23日,英雄互娱旗下的3D音舞手游《天天炫舞》在一周年之际创造了“世界上最多玩家同一天虚拟结婚的手机游戏”的世界纪录。该活动由英雄互娱及钻石小鸟协同举办,世界纪录协会认证师亲临现场,并为其颁发证书。
注重交互功能 运营已达1年之久
这是手游交互领域第一个获得世界纪录的手机游戏。据了解,该游戏是英雄互娱进军移动电竞领域的主打产品,与《全民枪战》同期被视为英雄互娱在移动电竞领域发力的核心产品。到目前为止,《天天炫舞》已经运营了1年之久,对于常规手游来说,运营一年的手机游戏将面临生命周期的关键节点。
据了解,《天天炫舞》每次版本更新都更加注重游戏内玩家之间的互交功能。2.7版本《天天炫舞》在游戏社区内增设好友专区、在好友系统里加入家族功能、结婚等等,为了增加玩家互动,游戏内还设置的好友推荐功能,系统会根据玩家的游戏行为为玩家自动推荐好友。在沟通方式上,《天天炫舞》也提供了私聊、送花、挑逗等多种方式。
而全新的2.8版本“周年庆典”在此基础上增加了互动性更强的“斗舞模式”与“天梯赛”,让玩家们在竞技的同时还能广结天下好友,共同切磋技术,在为玩家提供多种交互平台的同时也为玩家提供尽可能多的互动方式,可以说《天天炫舞》从社交平台到交流方式都为游戏内社交提供了足够多的便利。
其实手游的社交源于更为成熟的端游。端游经过10多年的发展已经形成了完整的游戏内社交体系+游戏外的社交平台模式,这种模式为保持端游的持续热度、增加玩家互动做出了不可磨灭的贡献。对于手游的社交形式而言,还可以借鉴端游或者其他游戏平台的方式,关键是要适应本游戏产品的特色,同时符合玩家的社交心理。对《天天炫舞》来说,实时的交流比较受欢迎,玩家们能在家族、专区等模块进行交流,对于充分了解游戏内容有帮助,也能消减漫长游戏过程里的枯燥。
而对于休闲类手游而言,玩家之间的排名、赠送道具、挑战等老模式不失为好的方法,值得保留。也可以通过世界竞技联系起陌生的玩家来,从中再加入实时交流,提高社交活动的范围。
当然,对于手游的社交化来说,随着社交元素原来越丰富,隐藏的问题也就会显示出来,玩家也有可能通过社交发泄自身的阴暗面。对于这些问题,手游开发商们必须要提前意识到,从玩家的发言和交流模式设计上进行一定限制,如控制一定的发言时间,和谐一些文字内容等。当然,社交的完善要重在监管,游戏方应该加强对社交板块的监督,对不合理的社交行为加以治理,通过一些惩罚方式规范秩序。
总之,对于未来的手游市场来讲,社交化是一个提高玩家参与度和留存率的好方向,如何合理发展值得手游开发商们考虑。
& 2016 . All rights reserved.动态交互技术(计算机方面)(详解)_百度知道“社会学了没”——社会人自己的公社。传播社会常识,分享社会学点滴,发出社会人自己的声音。微信号:socialor社长说为什么高帅富越来越富裕,穷屌丝越来越穷,看看神奇的网络分析。文|沈华伟本文已获得授权,转载请联系湛庐文化庐客汇2012年,巴拉巴西教授发表了一篇论文,《网络主导一切》(Networks Take Over)。在这篇论文中,巴拉巴西指出,没有什么事情是孤立发生的,大多数事件和现象都和大量其他事件或现象相互关联,或有因果关系,或相互交互。我们生活在一个小世界里,这里的万事万物都相互关联。我们生活的这个时代,见证了网络的无处不在。 自网络科学诞生之初起,大家都在关注这几个问题:我们身边的网络是什么样子?它们是如何产生的?认识网络结构对于我们理解这个世界有什么帮助吗? 在回答这些问题之前,很多人已经做过了一些经验的分析。比如1967年哈佛大学教授米尔格拉姆验证了网络的直径(或者说网络的半径),由此得出一个著名的结论——六度分隔。六度分隔六度分隔是指平均来说,社会网络中任意两个素不相识的人,最多只需要6步即可建立相关联系。也就是说,最多只通过6个人你就能够认识任何一个陌生人。 Facebook上测量的结果显示,这个分隔只有3~4步。六度分隔表明网络具有非常小的期望直径。 从网络的某个节点出发到指定目标节点,是否存在某种策略,可以高效找到长度较短的路径?在真实网络中,不仅存在这样的路径,而且比较容易找到。真实世界的网络,适航性通常较高。适航性是网络结构规则性和随机连边并存的集中体现。小世界复杂网络中存在一些度非常大的节点,这些节点对于网络连通性起着重要作用。枢纽节点的存在使网络呈现出小世界特性。同时,枢纽节点的存在,使得网络上的信息扩散、疾病传播等呈现出爆发特性。 随机连接通常被称为弱连接。随着随机连接的增加,节点间的平均路径长度会大幅下降,而节点聚团型变化不大。枢纽与幂律说起枢纽节点,大家熟知的可能有80 /20规则。80 /20规则告诉我们,20%的人占有80%的财富,20%的节点拥有80%的连接。80 /20规则在社会中广泛存在。在网络科学中,这样一些Hub节点的存在对网络的连接起着非常重要的作用,它们是网络的骨干。除了“80 /20规则”这种通俗的说法,在数学上,大家通常用幂律分布来表达这种分布的异质性。 之前我们很熟悉的一个分布是高斯分布,它长得像一个钟,通常也被称为钟形分布。钟形分布自然界中最常见的分布之一,可以刻画自然界中存在的很多现象,比如人类的身高、体重都符合钟形分布。再如这个PPT中公路交通网中,每条路的长度也符合钟形分布。 钟形分布存在一个尺度和一个平均值。大部分人的身高分布在4375px左右,偏差不会太多,姚明那样的巨人是很少见的,身高低于3500px的成年人也是很少见的,因此可以用均值代替整个人群,这是钟形分布告诉我们的一个规则。然而在复杂网络中,特别是在社会科学中,我们很少看到钟形分布,更多看到的是幂律分布(其通俗说法是80 /20原则)。实际上,幂律是复杂网络系统具有的一般规律,是无序向有序过渡的一般状态,反映了复杂网络中结构规则性和随机性的并存。 在图中的航空交通网络中,我们可以看到一些hub节点存在,比如美国东部的纽约、中部的芝加哥。网络呈现幂律分布,说明网络中节点数的均值不再有什么指示作用,网络往往方差无限大。 通过对比左侧公路交通网络和右侧航空交通网络,我们可以发现两个网络的明显不同。一个钟形分布,一个幂律分布。对于网络科学而言,一个重要问题是如何解释网络幂律分布产生的原因,这也是巴拉巴西教授研究网络科学的介入点。富者愈富形成幂律分布的一个重要机制是富者愈富,即连接度越大增速越快。在巴拉巴西提出的用来建模无尺度网络的偏好连接模型中,富者愈富和生长机制是其核心。富者愈富在其他学科中有别的表述,譬如马太效应、先发优势。 富者愈富现象在社会中也很常见,比如我们经常关注到的:越有钱的人获得的投资收益越多,越穷的人获得的投资收益越低,这是一种社会现象。适者生存在富者愈富占主导作用的复杂网络中,如何解释后来居上现象呢?进化论中的适者生存原理告诉我们,即不同的物种有着不同的适应度,用来解释物种起源。在复杂网络中,不同的节点在诞生时也有一个不同的适应度(例如企业网络中,企业的创新性等),这些适应度决定了其在后天竞争中能否超过具有先发优势的节点,后来居上。相关例子很多,比如在搜索引擎市场上,谷歌超过雅虎。在资本主义国家的综合国力竞争中,日本、德国超过英法等老牌资本主义国家,靠的就是后发优势。 对后发优势通常有两种解释,一种是适者生存,用节点固有的适应度来解释;另外一种是老化效应——具先发优势的节点有老化效应,随着时间的推移,其适应程度会下降。 偏好连接、适者生存、老化效应这三个机制可以很好地刻画我们观测到的复杂网络的演化过程。一条微博将有多少人会转发,一般也是这三个机制决定:这一场景下的适应度就是这条消息本身有多么吸引人;老化效应是指消息发出之后,起吸引人的程度越来越低;偏好连接讲的是,这条微博转发得越多,会有更多新的人看到,从而引起更多新的转发。阿克琉斯之踵大家可能听过阿喀琉斯之踵这样一个希腊神话故事。在网络科学中,阿喀琉斯之踵是指复杂网络的健壮性和脆弱性并存。一方面,对于节点的随机失效而言,复杂网络具有很高的健壮性;另一方面,对于有针对性的攻击,如对hub节点的攻击,复杂网络却又非常脆弱。 举个例子来讲,其实在我们的互联网、万维网中,每时每刻都有一些服务器和网页失效,但我们却感受不到这些节点的失效,这就是网络健壮性的体现。但如果一些hub节点宕掉,我们无法登陆谷歌或者一些门户网站,会觉得整个网络瘫痪了,这是因为网络受到了有针对性的攻击。 与此相关的一个例子是交通网络。在北京的交通网络中,环路相当于hub节点,环路的拥堵会导致整个网络失效。这引发我们思考一个问题:hub节点的存在是导致网络脆弱性的关键吗?如果环路不复存在,网络是否会运转得更好呢?这是网络抗毁性研究中的一个热点问题。 关于网络健壮性和脆弱性问题研究很多,其中重要的一个议题就是机制设计——设计什么样的网络拓扑,可以让网络高效运转并且有比较好的健壮性。这在网络算法、路由算法的设计中,在一些通讯网络、军事网络的设计中,都是比较重要的问题。模块化与弱链接模块化是指网络中的节点按照链接紧密程度可以分成一些团(社区、群组),团内节点链接紧密、团间连接稀疏。不同的团通过弱连接相连,弱连接表示链接强度较弱的连接,这些连接对于网络的连通性和信息扩散起着重要作用。 有人说网络模块化是复杂网络研究中第二重要的问题。前面讲到,如何解释无尺度网络的形成原因是复杂网络研究重点的首要问题。自2012年提出后到现在,模块化一直是复杂网络研究中的热点问题。后记网络是认识自然和人类社会的一个抓手,也是研究复杂系统和复杂性科学的重要工具。在网络科学、社会科学中,幂律起支配作用(空间上、时间上),网络效应凸显,需要我们在工作中、生活中具有网络思维。本文选自湛庐文化庐客汇(微信号:lukehui1230)晚间课堂《链接——商业、科技与生活的新思维》。现在,购买庐客汇“12+50”阅读服务秒变“15+50”!4月17日,限时1天,过时不候!每月1本湛庐新书,9大领域专家团精心选择;每周1堂在线晚课,业界大咖在线交流;线上互动直播交流,获取最前沿知识的最佳平台。详见【阅读原文】。如果觉得咱们推送的文章不错,可以戳一下最底下的推广信息打赏,不花钱,最多花几K流量(*^__^*) ……社会学了没微信号:socialor◤社会学人自己的公社◢投稿邮箱:
看过本文的人还看过
人气:35869 更新:
人气:33440 更新:
人气:29597 更新:
人气:24756 更新:
社会学了没的更多文章
大家在看 ^+^
推荐阅读 ^o^
车里有人,违停能不被罚?几乎所有人都想错了!
扩散:遇到这7件事,别犹豫,马上报警!
从仙桃坐火车去西藏,只有8站!不到500元!沿途风景惊艳到上瘾!
魔都最专业的音乐酒吧终于又开新店啦!这里的每晚都是演唱会既视感!
猜你喜欢 ^_^
24小时热门文章
微信扫一扫
分享到朋友圈升级中国制造的5个节点_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
升级中国制造的5个节点
上传于||文档简介
&&中​国​制​造
阅读已结束,如果下载本文需要使用1下载券
想免费下载本文?
定制HR最喜欢的简历
你可能喜欢2015年全球最佳开源大数据工具
(window.slotbydup=window.slotbydup || []).push({
id: '2611110',
container: s,
size: '240,200',
display: 'inlay-fix'
您当前位置: &
[ 所属分类
| 时间 2016 |
作者 红领巾 ]
InfoWorld在分布式数据处理、流式数据分析、机器学习以及大规模数据分析领域精选出了2015年的开源工具获奖者,下面我们来简单介绍下这些获奖的技术工具。
在Apache的大数据项目中,Spark是最火的一个,特别是像IBM这样的重量级贡献者的深入参与,使得Spark的发展和进步速度飞快。
与Spark产生最甜蜜的火花点仍然是在机器学习领域。去年以来DataFrames API取代SchemaRDD API,类似于R和Pandas的发现,使数据访问比原始RDD接口更简单。
Spark的新发展中也有新的为建立可重复的机器学习的工作流程,可扩展和可优化的支持各种存储格式,更简单的接口来访问机器学习算法,改进的集群资源的监控和任务跟踪。
在Spark1.5的默认情况下,TungSten内存管理器通过微调在内存中的数据结构布局提供了更快速的处理能力。最后,新的spark-packages.org网站上有超过100个第三方贡献的链接库扩展,增加了许多有用的功能。
Storm是Apache项目中的一个分布式计算框架项目,主要应用于流式数据实时处理领域。他基于低延时交互模式理念,以应对复杂的事件处理需求。和Spark不同,Storm可以进行单点随机处理,而不仅仅是微批量任务,并且对内存的需求更低。在我的经验中,他对于流式数据处理更有优势,特别是当两个数据源之间的数据快速传输过程中,需要对数据进行快速处理的场景。
Spark掩盖了很多Storm的光芒,但其实Spark在很多流失数据处理的应用场景中并不适合。Storm经常和Apache Kafka一起配合使用。
H2O是一种分布式的内存处理引擎用于机器学习,它拥有一个令人印象深刻的数组的算法。早期版本仅仅支持R语言,3.0版本开始支持和Java语言,同时它也可以作为Spark在后端的执行引擎。
使用H2O的最佳方式是把它作为R环境的一个大内存扩展,R环境并不直接作用于大的数据集,而是通过扩展通讯协议例如REST API与H2O集群通讯,H2O来处理大量的数据工作。
几个有用的R扩展包,如ddply已经被打包,允许你在处理大规模数据集时,打破本地机器上内存容量的限制。你可以在EC2上运行H2O,或者Hadoop集群/YARN集群,或者Docker容器。用苏打水(Spark+ H2O)你可以访问在集群上并行的访问Spark RDDS,在数据帧被Spark处理后。再传递给一个H2O的机器学习算法。
Apex是一个企业级的大数据动态处理平台,即能够支持即时的流式数据处理,也可以支持批量数据处理。它可以是一个YARN的原生程序,能够支持大规模、可扩展、支持容错方法的流式数据处理引擎。它原生的支持一般事件处理并保证数据一致性(精确一次处理、最少一次、最多一次)
以前DataTorrent公司开发的基于Apex的商业处理软件,其代码、文档及架构设计显示,Apex在支持DevOps方面能够把应用开发清楚的分离,用户代码通常不需要知道他在一个流媒体处理集群中运行。
Malhar是一个相关项目,提供超过300种常用的实现共同的业务逻辑的应用程序模板。Malhar的链接库可以显著的减少开发Apex应用程序的时间,并且提供了连接各种存储、文件系统、消息系统、数据库的连接器和驱动程序。并且可以进行扩展或定制,以满足个人业务的要求。所有的malhar组件都是Apache许可下使用。
Druid在今年二月转为了商业友好的Apache许可证,是一个基于“事件流的混合引擎,能够满足OLAP解决方案。最初他主要应用于广告市场的在线数据处理领域,德鲁伊可以让用户基于时间序列数据做任意和互动的分析。一些关键的功能包括低延迟事件处理,快速聚合,近似和精确的计算。
Druid的核心是一个使用专门的节点来处理每个部分的问题自定义的数据存储。实时分析基于实时管理(JVM)节点来处理,最终数据会存储在历史节点中负责老的数据。代理节点直接查询实时和历史节点,给用户一个完整的事件信息。测试表明50万事件数据能够在一秒内处理完成,并且每秒处理能力可以达到100万的峰值,Druid作为在线广告处理、网络流量和其他的活动流的理想实时处理平台。
Flink的核心是一个事件流数据流引擎。虽然表面上类似Spark,实际上Flink是采用不同的内存中处理方法的。首先,Flink从设计开始就作为一个流处理器。批处理只是一个具有开始和结束状态的流式处理的特殊情况,Flink提供了API来应对不同的应用场景,无论是API(批处理)和数据流API。MapReduce的世界的开发者们在面对DataSet处理API时应该有宾至如归的感觉,并且将应用程序移植到Flink非常容易。在许多方面,Flink和Spark一样,其的简洁性和一致性使他广受欢迎。像Spark一样,Flink是用Scala写的。
7. Elasticsearch
Elasticsearch是基于Apache Lucene搜索分布式文件服务器。它的核心,Elasticsearch基于JSON格式的近乎实时的构建了数据索引,能够实现快速全文检索功能。结合开源Kibana BI显示工具,您可以创建令人印象深刻的数据可视化界面。
Elasticsearch易于设置和扩展,他能够自动根据需要使用新的硬件来进行分片。他的查询语法和SQL不太一样,但它也是大家很熟悉的JSON。大多数用户不会在那个级别进行数据交互。开发人员可以使用原生JSON-over-HTTP接口或常用的几个开发语言进行交互,包括Ruby,Python,Perl,Java,等。
8. SlamData
如果你正在寻找一个用户友好的工具,能理解最新流行的NoSQL数据的可视化工具,那么你应该看一看SlamData。SlamData允许您用熟悉的SQL语法来进行JSON数据的嵌套查询,不需要转换或语法改造。
该技术的主要特点之一是它的连接器。从MongoDB,HBase,Cassandra和Apache的Spark,SlamData同大多数业界标准的外部数据源可以方便的进行整合,并进行数据转换和分析数据。你可能会问:“我不会有更好的数据池或数据仓库工具吗?请认清这是在NoSQL领域。
Drill是一种用于大型数据集的交互分析的分布式系统,由谷歌的Dremel催生。Drill专为嵌套数据的低延迟分析设计,它有一个明确的设计目标,灵活的扩展到10000台服务器来处理查询记录数据,并支持兆级别的数据记录。
嵌套的数据可以从各种数据源获得的(如HDFS,HBase,Amazon S3,和Blobs)和多种格式(包括JSON,Avro,和buffers),你不需要在读取时指定一个模式(“读时模式”)。
Drill使用ANSI 2003 SQL的查询语言为基础,所以数据工程师是没有学习压力的,它允许你连接查询数据并跨多个数据源(例如,连接HBase表和在HDFS中的日志)。最后,Drill提供了基于ODBC和JDBC接口以和你所喜欢的BI工具对接。
HBase在今年的里程碑达到1.X版本并持续改善。像其他的非关系型的分布式数据存储一样,HBase的查询结果反馈非常迅速,因此擅长的是经常用于后台搜索引擎,如易趣网,博科和雅虎等网站。作为一个稳定的、成熟的软件产品,HBase新鲜的功能并不是经常出现,但这种稳定性往往是企业最关心的。
最近的改进包括增加区域服务器改进高可用性,滚动升级支持,和YARN的兼容性提升。在他的特性更新方面包括扫描器更新,保证提高性能,使用HBase作为流媒体应用像Storm和Spark持久存储的能力。HBase也可以通过Phoenix项目来支持SQL查询,其SQL兼容性在稳步提高。Phoenix最近增加了一个Spark连接器,添加了自定义函数的功能。
随着Hive过去多年的发展,逐步成熟,今年发布了1.0正式版本,它用于基于SQL的数据仓库领域。目前基金会主要集中在提升性能、可扩展性和SQL兼容性。最新的1.2版本显著的提升了ACID语意兼容性、跨数据中心复制,以及以成本为基础的优化器。
Hive1.2也带来了改进的SQL的兼容性,使组织利用它更容易的把从现有的数据仓库通过ETL工具进行转移。在规划中讲主要改进:以内存缓存为核心的速度改进 LLAP,Spark的机器学习库的集成,提高SQL的前嵌套子查询、中间类型支持等。
Kylin是eBay开发的用于处理非常大量数据的OLAP分析系统,他使用标准的SQL语法,和很多数据分析产品很像。Kylin使用Hive和MR来构建立方体,Hive用作预链接,MR用作预聚合,HDFS用来储存构建立方体时的中间文件,HBase用来存储立方体,HBase的coprocessor(协处理器)用来响应查询。
像大多数其他的分析应用一样,Kylin支持多种访问方法,包括JDBC,ODBC API进行编程访问以及REST API接口。
CDAP(Cask Data Access Platform)是一个在Hadoop之上运行的框架,抽象了建造和运行大数据应用的复杂性。CDAP围绕两个核心概念:数据和应用程序。CDAP数据集是数据的逻辑展现,无论底层存储层是什么样的;CDAP提供实时数据流处理能力。
应用程序使用CDAP服务来处理诸如分布式事务和服务发现等应用场景,避免程序开发者淹没在Hadoop的底层细节中。CDAP自带的数据摄取框架和一些预置的应用和一些通用的“包”,例如ETL和网站分析,支持测试,调试和安全等。和大多数原商业(闭源)项目开源一样,CDAP具有良好的文档,教程,和例子。
14. Ranger
安全一直是Hadoop的一个痛处。它不是说(像是经常报道)Hadoop是“不安全”或“不安全”。事实是,Hadoop有很多的安全功能,虽然这些安全功能都不太强大。我的意思是,每一个组件都有它自己的身份验证和授权实施,这与其他的平台没有集成。
2015年5月,Hortonworks收购XA /安全,随后经过了改名后,我们有了Ranger。Ranger使得许多Hadoop的关键部件处在一个保护伞下,它允许你设置一个“策略”,把你的Hadoop安全绑定到到您现有的ACL基于活动目录的身份验证和授权体系下。Ranger给你一个地方管理Hadoop的访问控制,通过一个漂亮的页面来做管理、审计、加密。
Mesos提供了高效、跨分布式应用程序和框架的资源隔离和共享,支持Hadoop、 MPI、Hypertable、Spark等。
Mesos是Apache孵化器中的一个开源项目,使用ZooKeeper实现容错复制,使用 Containers来隔离任务,支持多种资源计划分配(内存和CPU)。提供Java、Python和C++ APIs来开发新的并行应用程序,提供基于Web的用户界面来提查看集群状态。
Mesos应用程序(框架)为群集资源协调两级调度机制,所以写一个Mesos应用程序对程序员来说感觉不像是熟悉的体验。虽然Mesos是新的项目,成长却很快。
Apache NiFi 0.2.0 发布了,该项目目前还处于 Apache 基金会的孵化阶段。Apache NiFi 是一个易于使用、功能强大而且可靠的数据处理和分发系统。Apache NiFi 是为数据流设计。它支持高度可配置的指示图的数据路由、转换和系统中介逻辑。
Apache NiFi是由美国过国家安全局(NSA)贡献给Apache基金会的开源项目,其设计目标是自动化系统间的数据流。基于其工作流式的编程理念,NiFi非常易于使用,强大,可靠及高可配置。两个最重要的特性是其强大的用户界面及良好的数据回溯工具。
NiFi的用户界面允许用户在浏览器中直观的理解并与数据流举行交互,更快速和安全的进行迭代。
其数据回溯特性允许用户查看一个对象如何在系统间流转,回放以及可视化关键步骤之前之后发生的情况,包括大量复杂的图式转换,fork,join及其他操作等。
另外,NiFi使用基于组件的扩展模型以为复杂的数据流快速增加功能,开箱即用的组件中处理文件系统的包括FTP,SFTP及HTTP等,同样也支持HDFS。
NiFi获得来来自业界的一致好评,包括Hortonworks CEO,Leverage CTO及Prescient Edge首席系统架构师等。
在大数据领域,Kafka已经成为分布式发布订阅消息的事实标准。它的设计允许代理支持成千上万的客户在信息吞吐量告诉处理时,同时通过分布式提交日志保持耐久性。Kafka是通过在HDFS系统上保存单个日志文件,由于HDFS是一个分布式的存储系统,使数据的冗余拷贝,因此Kafka自身也是受到良好保护的。
当消费者想读消息时,Kafka在中央日志中查找其偏移量并发送它们。因为消息没有被立即删除,增加消费者或重发历史信息不产生额外消耗。Kafka已经为能够每秒发送2百万个消息。尽管Kafka的版本号是sub-1.0,但是其实Kafka是一个成熟、稳定的产品,使用在一些世界上最大的集群中。
18.OpenTSDB
opentsdb是建立在时间序列基础上的HBase数据库。它是专为分析从应用程序,移动设备,网络设备,和其他硬件设备收集的数据。它自定义HBase架构用于存储时间序列数据,被设计为支持快速聚合和最小的存储空间需求。
通过使用HBase作为底层存储层,opentsdb很好的支持分布与系统可靠性的特点。用户不与HBase的直接互动;而数据写入系统是通过时间序列的守护进程(TSD)来管理,它可以方便的扩展用于需要高速处理数据量的应用场景。有一些预制连接器将数据发布到opentsdb,并且支持从Ruby,Python以及其他语言的客户端读取数据。opentsdb并不擅长交互式图形处理,但可以和第三方工具集成。如果你已经在使用HBase和想要一个简单的方法来存储事件数据,opentsdb也许正好适合你。
19. Jupyter
大家最喜欢的笔记应用程序都走了。jupyter是“IPython”剥离出来成为一个独立的软件包的语言无关的部分。虽然jupyter本身是用Python写的,该系统是模块化的。现在你可以有一个和iPython一样的界面,在笔记本电脑中方便共享代码,使得文档和数据可视化。
至少已经支持50个语言的内核,包括Lisp,R,F #,Perl,Ruby,Scala等。事实上即使IPython本身也只是一个jupyter Python模块。通过REPL(读,评价,打印循环)语言内核通信是通过协议,类似于nrepl或Slime。很高兴看到这样一个有用的软件,得到了显著的非营利组织资助,以进一步发展,如并行执行和多用户笔记本应用。
20. Zeppelin
Zeppelin是一个Apache的孵化项目. 一个基于web的笔记本,支持交互式数据分析。你可以用SQL、Scala等做出数据驱动的、交互、协作的文档。(类似于ipython notebook,可以直接在浏览器中写代码、笔记并共享)。
一些基本的图表已经包含在Zeppelin中。可视化并不只限于SparkSQL查询,后端的任何语言的输出都可以被识别并可视化。 Zeppelin 提供了一个 URL 用来仅仅展示结果,那个页面不包括 Zeppelin 的菜单和按钮。这样,你可以轻易地将其作为一个iframe集成到你的网站。
Zeppelin还不成熟。我想把一个演示,但找不到一个简单的方法来禁用“Shell”作为一个执行选项(在其他事情)。然而,它已经看起来的视觉效果比IPython笔记本应用更好,Apache Zeppelin (孵化中) 是 Apache2 许可软件。提供100%的开源。
转载请注明本文标题:本站链接:
分享请点击:
1.凡CodeSecTeam转载的文章,均出自其它媒体或其他官网介绍,目的在于传递更多的信息,并不代表本站赞同其观点和其真实性负责;
2.转载的文章仅代表原创作者观点,与本站无关。其原创性以及文中陈述文字和内容未经本站证实,本站对该文以及其中全部或者部分内容、文字的真实性、完整性、及时性,不作出任何保证或承若;
3.如本站转载稿涉及版权等问题,请作者及时联系本站,我们会及时处理。
登录后可拥有收藏文章、关注作者等权限...
脚步无法到达的地方,目光可以到达;目光无法到达的地方,梦想可以到达。
手机客户端
,专注代码审计及安全周边编程,转载请注明出处:http://www.codesec.net
转载文章如有侵权,请邮件 admin[at]codesec.net

我要回帖

更多关于 我的世界神秘创造节点 的文章

 

随机推荐