gpu史上最大gpu的胜利是哪一次

当前位置:
> >文章详情
【英伟达GPU】英伟达发布全球最大GPU
分类:资讯 来源:英伟达GPU
  英伟达发布全球最大GPU
  【网易智能讯 3月28日消息】北京时间3月28日凌晨,人工智能计算公司英伟达(NVIDIA)在美国加州圣何塞召开GTC大会上,会上,英伟达CEO黄仁勋穿着熟悉的黑皮衣登场,又宣布了一系列针对人工智能计算的新技术与新合作。网易智能将重点梳理如下:
  推出RTX实时光线追踪技术
  RTX(ray-tracing)实时光线追踪技术,能够在运行专业设计及内容创作类应用程序的同时,提供实时光线追踪。这项技术在不久前的游戏开发者大会(GDC)上推出。
  具体来说,传媒娱乐领域的专业人士将能够在准确的光影环境下浏览自己的作品,并与之交互,并在负责渲染时,可享受拥有10倍于单独使用CPU的渲染速度。产品设计师和建筑师能够实时创建交互式、照片级写实的大型3D模型的可视化。
  英伟达CEO黄仁勋称,自推出可编程着色器以来,NVIDIA RTX是计算机图形领域近20年来取得的最显著进展。
  发布Quadro GV100 GPU
  英伟达正式宣布推出第一款采用Volta架构的GPU Quadro GV100,搭载NVIDIA RTX技术。GV100具有32GB内存,且可通过并联两块Quadro GPU扩展至64GB。GV100的性能比去年9月推出的DGX-1性能提高了10倍,售价达到惊人的39.9万美元(约合250万人民币)。
  说到性能,GV100可提供每秒7.4万亿次浮点运算的双精度性能、每秒 14.8万亿次浮点运算的单精度性能、以及每秒 118.5万亿次浮点运算的深度学习性能。NVIDIA RTX内置的NVIDIA OptiX AI-denoiser可实现实时的AI去噪。
  据悉,Quadro GV100将于4月通过工作站制造商及授权分销合作伙伴进行供货。
  Tesla V100 GPU实现内存翻倍
  与旧版相比,Tesla V100 GPU升级到了32GB 内存,是之前的两倍,将内存受限的HPC 应用性
  能提升高达 50%,使其能够处理大部分内存密集型深度学习和高性能计算工作负载。
  英伟达介绍称,Tesla V100 32GB GPU 目前可用于所有NVIDIA DGX 系统。此外,各大计算机制造商也宣布将于第二季度内推出各自全新的 Tesla V100 32GB 系统。
  推出全新GPU互联结构NVSwitch
  英伟达在此次GTC大会上还推出了NVSwitch互联结构,这个结构的带宽比最好的 PCIe 交换机高出 5倍,NVSwitch 在 NVIDIA NVLink的基础上实现了进一步扩展,让系统设计人员能够构建更高级的系统,灵活地连接任何基于 NVLink 的 GPU 的拓扑结构。
  黄仁勋称,NVSwitch将帮助开发者突破早前系统的限制并运行更大的数据集。它也为更大规模、更复杂的工作负载开启了可能,包括神经网络并行训练的建模。
  推出NVIDIA DGX-2服务器
  英伟达在发布会上重磅推出了NVIDIA DGX-2,这是全球首款能够提供每秒两千万亿次浮点运算能力的单点服务器。DGX-2 搭载 16 个 GPU,具有 300 台服务器的深度学习处理能力,占用 15 个数据中心机架空间,而体积则缩小60倍,能效提升18倍。
  DGX-2 是首款采用 NVSwitch 的系统,其中采用的 16 个 GPU 均共享统一的内存空间。结合了最新的 NVIDIA 深度学习软件套件,让开发者能处理更大规模的数据集和更复杂的深度学习模型。
  英伟达宣称,DGX-2 能够在不到两天的时间内完成对 FAIRSeq(一种采用最新技术的神经网络机器翻译模型的训练,其性能相较于去年 9 月份推出的基于 Volta 架构的 DGX-1 提高了 10 倍。
  推出新的TensorRT 4推理软件
  英伟达发布了TensorRT 4软件,并且集成至谷歌的TensorFlow 1.7开发系统。开发者可利用Volta Tensor Core 技术将 NVIDIA 深度学习平台的推理吞吐量提高 8 倍(相比低延迟目标下的普通 GPU 执行),从而让 GPU 在 TensorFlow 内的推理实现了最高性能。
  TensorRT 4提供高度精确的 INT8 与 FP16网络执行,可用于快速优化、验证及部署在超大规模数据中心、嵌入式与汽车 GPU 平台中经过训练的神经网络。
  与此同时,语音识别框架 Kaldi 针对 GPU 进行了优化。GPU 语音加速意味着消费者将获得更加准确与实用的虚拟助手,并降低数据中心运营商的部署成本。
  推出DRIVE Constellation自动驾驶仿真系统
  据悉,DRIVE Constellation是一款基于两种不同服务器的计算平台。第一台服务器运行 NVIDIA DRIVE Sim 软件,用以模拟自动驾驶汽车的传感器,如摄像头、激光雷达和雷达。第二台服务器搭载了NVIDIA DRIVE Pegasus AI 汽车计算平台,可运行完整的自动驾驶汽车软件堆栈,并能够处理模拟数据,这些模拟数据如同来自路面行驶汽车上的传感器。
  AI计算行业巨震:英伟达发布全球最大GPU
  英伟达称,DRIVE Constellation提供了一种能够在数十亿英里的行驶中进行测试和验证的解决方案,借助虚拟仿真,可进行数十亿英里的自定义场景和极端情况进行测试,从而提高算法的稳定性,加速实现自动驾驶汽车的量产部署。
  与ARM达成合作,布局物联网设备
  英伟达在本次GTC上还宣布了与ARM的合作,英伟达深度学习加速器NVDLA架构将集成到ARM的 Project Trillium 平台中,以便于构建深度学习 IoT 芯片。此次合作将使物联网芯片公司能够轻松地将 AI 集成到它们的设计中。
  NVDLA 是一个免费的开放式架构,它基于自主机器系统级芯片 NVIDIA Xavier设计,旨在推广设计深度学习推理加速器的标准方法。NVDLA 的模块化架构具有可扩展性和高度可配置性,专门为简化集成和便携性而设计。
  这次GTC英伟达还宣布了一个坏消息,就是宣布暂停自动驾驶测试。外界猜测,这或许与Uber自动驾驶汽车撞人致死事故有关(Uber自2016年首次部署自动驾驶测试车队以来,一直使用的是英伟达的技术)。随后,英伟达股价应声下跌3.8%。
  不过,这并不影响英伟达在AI计算领域的地位。在今年2月8日公布的英伟达2017年全年财报中,英伟达总收入高达97.1亿美元,同比增长41%,利润增长83%。在过去的一年时间,英伟达的股价上涨了200%,市值已经达到1400亿美元,成为名符其实的计算行业巨头。(小羿)
本文地址::
【版权声明】该文章由世纪比特币矿机交易平台整理于网络的相关信息,本站不拥有所有权,不承担相关法律责任。
已有1人赞过
3 / 3相关资讯超伟聊吧 4大观点辩CPU/GPU谁是胜利者_百度知道
超伟聊吧 4大观点辩CPU/GPU谁是胜利者
我有更好的答案
这两个根本没法比较,比关公战秦琼还离谱。
前提要有钱,后面留给工程师解释!
为您推荐:
gpu的相关知识
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。求助显卡大神,这卡的GPU核心在哪? 硅脂涂在什么位置? 有图
你好:——★1、显卡的处理器称为“GPU”,就是中间体积最大的、带nvidia图标的那个芯片。——★2、在显卡GPU处理器的四角,设计有四个固定孔,是固定GPU散热器和风扇的。——★3、硅脂一定要涂在GPU处理器的表面,这样才能把GPU处理器的温度快速传递到散热器上,用风扇吹走。
哪里要装风扇就涂哪里啊。
只涂中间,另外那个有散热片才涂,硅脂是为了填补芯片与散热器底座之间的空隙,只涂硅脂没有散热片或者是涂过多硅脂反而会使温度升高
只有安装散热片地方需要涂硅脂,中间nvidia图标。硅脂主要是帮助导热的,本身不具散热功能,不装散热片,不需要涂。
当然全图又没有关系。硅胶是散热的。
感谢您为社区的和谐贡献力量请选择举报类型
经过核实后将会做出处理感谢您为社区和谐做出贡献
确定要取消此次报名,退出该活动?
请输入私信内容:深度|AlphaGo重大胜利后的冷静思考,如何看待人工智能的进步?
选自milesbrundage作者:Miles Brundage机器之心编译出品参与:吴攀、陈刚、孟孟、柒少、Wei引言:AlphaGo战胜欧洲围棋冠军樊麾的消息引得了媒体的广泛关注,人工智能和围棋相关领域的专家们也普遍认为这是一个具有重要意义的里程碑。例如英国围棋协会主席Jon Diamond将这一次AlphaGo的胜利称作「棋力上重大的突飞猛进」;人工智能研究者Francesca Rossi、Stuart Russell和Bart Selman分别将其描述为「重要的成就」、「了不起的成就」和「具有重大意义的成就」。AlphaGo的胜利到底有多重大,多了不起呢?本文中,在近来计算机围棋发展历史、通用人工智能领域进步和技术预测的大背景下,作者对这个问题进行简要地回答。简单来说,这确实是一个了不起的成就,但在更大的背景下审视它,能让我们对该成就的大小、突然性、重要性有更多了解,从而减少片面的判断。尽管如此,某种程度上这仍然是人工智能历史上的极具启发性的一页,除了新闻报道中的一致好评,它还值得拥有更多注解与分析。因此,除了对比事实与炒作,本文还将尝试从AlphaGo的第一次胜利中提取一些关于人工智能进步速度与本质的经验教训,并说明我们应该怎样看待三月份即将到来的它和李世石的比赛。在看这篇文章前,读者们不妨先预测一下,即将开战的李世石 VS. AlphaGo,你更看好谁呢?发生了什么?谷歌DeepMind一个15-20人组成的团队设计的系统AlphaGo在正式围棋比赛中以5:0的成绩击败了曾三次获得欧洲围棋冠军的樊麾。在非正式比赛中樊麾曾以更少的每步用时在5场比赛中获胜2场(新闻报道中常常忽略了这些更多的有趣细节,相关情况也可查看《自然》论文)。AlphaGo程序比以往任何围棋程序更加强大(下面会介绍它到底有多强)。怎么办到的?相比于其它计算机围棋程序相关团队,AlphaGo由一个相对较大的团队研发发,显然使用了更多的计算资源(详见下文)。该程序使用了一种新颖的方式实现了神经网络和蒙特卡洛树搜索(Monte Carlo tree search,MCTS)的结合,并经过了包含监督学习和自我训练的多个阶段的训练。值得注意的是,从评估它与人工智能进步关系的角度来看,它并没有接受过端到端(end-to-end)的训练(尽管在AAAI 2016上Demis Hassabis表示他们可能会在未来这样做)。另外在MCTS组件中它还使用了一些手工开发的功能(这一点也常常被观察者忽略)。相关论文宣称的贡献是「评估与策略网络(value and policy networks)」的构想和他们整合MCTS的方式。论文中的数据表明,使用这些元素的系统比不使用它们的系统更为强大。整体AI性能VS特定算法的进步仔细研究《自然》 上关于AlphaGo的论文,可以得到许多观点,其中一个对评估该结果所拥有的更广泛意义尤其重要:硬件在提高AlphaGo性能上的关键作用。参考下面的数据,我将对其进行解释。该图表显示了计算机Go与樊麾在估测Elo评级和排名方面的些许不同(译者注:Elo评级系统是由美国物理学教授Arpad Elo提出的一种计算二人竞技游戏(如象棋、围棋)中选手相对水平的评级系统)。Elo评级表示了击败评级更高或更低对手的期望概率——比如,一个评分比对手多200分的选手预计获胜的概率为四分之三。现在我们可以通过图表了解一些有趣的信息。忽略粉红色数据条(表示在有额外棋子时的表现),我们可以发现AlphaGo(不管是不是分布式的)都比原来最好的围棋程序Crazy Stone和Zen强出许多。AlphaGo的等级是较低的专业级水平(图表右侧的p表示「专业段位」),而其它程序则处在较高的业余水平上(图表右侧的d表示「业余段位」)。另外,我们可以看到尽管分布式AlphaGo(AlphaGo Distributed)的评估水平略高于樊麾,但非分布式AlphaGo却并非如此(和樊麾比赛的是分布式AlphaGo)。看起来樊麾如果和非分布式AlphaGo对弈,可能他就算不获胜,至少也可以赢几局。后面我会谈更多关于这两种AlphaGo和其它变体之间的不同,但现在请注意一下上图遗漏的东西:最新的围棋程序。在AlphaGo的胜利之前的几周和几个月里,围棋界将显著的活动和热情(尽管团队小一些,比如Facebook就1-2个人)投入到了两个围棋引擎上:由Facebook研究人员开发的darkforest(及其变体,其中最好的是darkfmcts3)和评价很高的Zen程序的新实验版本Zen19X。请注意,在今年一月份,Zen19X在KGS服务器(用于人类和计算机围棋)中被简单地评级为「业余7段」,据报道这是因为结合使用了神经网络。darkfmcts3则获得了实打实的「业余5段」评级,这在前几个月的基础上实现了2-3个段位的进步,其背后的研究人员还在论文中表示还有各种现成的方法可以对其进行改进。事实上,按田渊栋和朱岩在其最新的论文中的说法,在最新的KGS计算机围棋赛中,如果不是因为出现了一个故障,他们本能够击败Zen(相反Hassabis说darkfmcts3输给了Zen——他可能没有看相关的注脚!)。总结来说,计算机围棋在AlphaGo之前就已经通过与深度学习的结合实现了很多进步,这能稍微减少上面图表中的差距(这份图表可能是几个月前的),但并不能完全消除。现在,回到硬件的问题上。DeepMind的David Silver和 Aja Huang等人对AlphaGo的许多变体版本进行了评估,并总结成了上面图表中的AlphaGo和分布式AlphaGo。但这没有给出由硬件差异所带来的变体版本的全貌,而你可以在下图(同样来自于那篇论文)中看到这个全貌。这张图表给出了不同AlphaGo变体版本所估测的Elo评级。其中11条淡蓝色数据来自「单台机器」变体,而蓝黑色数据则来自涉及多台机器的分布式AlphaGo。但这个机器到底是什么呢?图中的线程(Threads)表示了所使用的搜索线程数,而通过查阅论文后面的内容,我们可以发现其中计算最不密集的AlphaGo版本(图中最短数据条)使用了48个CPU和1个GPU。作为参考,Crazy Stone没有使用任何GPU,使用的CPU也稍微少一点。在简单搜索了不同的围棋程序目前所使用的计算集群之后,我没找到其它任何程序GPU的使用数量超过36个。Facebook的darkfmcts3是我所知唯一确定使用了GPU的版本,其最大的版本使用了64个GPU和8个CPU(也就是说相比于单台机器版AlphaGo,GPU更多,CPU更少)。上图中基于40个搜索线程、48个CPU、8个GPU变体的单台机器版AlphaGo比前面提到的其它程序强大很多。但如果它是一个48个CPU、1个GPU版本,它可能只会比Crazy Stone和Zen强一点——甚至可能不会比1月份刚改进过的最新Zen19X版本更强。也许最好的比较是在同样硬件水平上对比AlphaGo和darkfmcts3,但它们使用了不同的CPU/GPU配置,而darkfmcts3在AlphaGo的胜利之后也已下线。如果将Crazy Stone和Zen19X扩展到与分布式AlphaGo同等的集群规模,进一步分析前面提到的硬件调整所带来的性能提升,那也会很有意思。总之,并不清楚在同等硬件水平上AlphaGo相对于之前的围棋程序有多少性能提升——也许有一些,但肯定没有之前使用小集群的围棋程序和使用大规模集群的AlphaGo之间的差距那样大。这是我们下面要讨论的。分布式AlphaGo最大的变体版本使用了280个GPU和1920个CPU。这样巨大的硬件绝对数量所带来的算力显然远远超过之前任何被报道过的围棋程序。这一计算集群大小值得注意的原因有两个。第一,它让人疑问AlphaGo所代表的硬件适应算法(hardware-adjusted algorithmic)的进展程度,以及相关的评估和策略网络的重要性。正如我在最新的AAAI工作室论文《人工智能建模的进展》提到的,如果我们应该追踪人工智能领域内多个最先进的状况而不是单个最先进的状况,那么将分布式AlphaGo和Crazy Stone之类进行比较就是将两个最先进的进行比较——即在考虑小规模算力(和小团队)的性能和大规模算力(由十几位世界上最优秀的人工智能研究者所带来的)性能进行比较。第二,值得注意的是,光是硬件改进这一方面就让AlphaGo实现了非常大的棋力水平跨越(相对于人类而言)——从报道中最低的大约Elo评级2200分上涨到超过3000分,这是业余水平和专业水平之间的差距。这可能表明(后面我还会回过来讨论)在可能的技术水平区间中,人类水平只能处在相对较小的区间内。如果这个项目在10或20年前已经开始,看起来很可能在相同算法的基础上,仅靠硬件提升就能让机器的棋力水平一步实现从业余水平到超人水平(超过专业水平)的跨越。此外,10或20年前,即使采用相同的算法,因为硬件水平限制,也很可能没办法开发出超人水平的围棋程序。尽管近年来神经网络和MCTS等其它方面的进步也做出了很大贡献,但也许只有到现在,在硬件进步的基础上,AlphaGo项目才有意义。此外,同样在《人工智能建模的进展》中也简单讨论过,我们还应该考虑人工智能的性能和评估进展速率时用于训练的数据之间的关系。AlphaGo使用来自KGS服务器的大型游戏数据集帮助实现了AlphaGo的能力——我还没仔细看过过去其它相比的人工智能训练所用的数据,但看起来可能也是这个数据集。在AAAI上Hassabis表示DeepMind打算尝试完全使用自我对弈来训练AlphaGo。这是个更加了不起的想法,但在那之前,我们可能没法知道AlphaGo有多少性能来自于此数据库,这个数据库是DeepMind自己从KGS的服务器上收集的。最后,除了调整硬件和数据,我们还应该调整如何评估一个人工智能里程牌有多重要。以深蓝(DeepBlue)为例,打败Gary Kasparov的人工智能的开发中使用了明显的相关领域专业知识,它并不是通过从头开始学习而实现该领域内的通用智能。Hassabis在AAAI和其它地方说过AlphaGo比深蓝更代表了通用型人工智能进步,而且这一技术也是为通用的目的使用的。然而,这个项目中评估和策略网络的进展与使用的具体训练方案(监督学习和自我训练的序列,而不是端到端学习)本身是由研究人员在领域内特有的专业知识所确定的,其中包括David Silver和Aja Huang,他们拥有大量关于计算机围棋和围棋方面的专业知识。尽管AlphaGo的棋力最终超过这些研究者,但其中的算法搜索都是之前由这些特定领域确定的(而且之前也提到过,部分算法——即MCTS组件——编码了特定领域的知识)。另外,该团队非常大,有15-20人,超过我所知的之前的任何围棋引擎团队,简直能与深蓝或沃森(Watson)这样的大型项目相提并论,这在计算机围棋史上也是绝无仅有的。所以,如果我们要合理预期一个由特定领域内最聪明的顶级专家组成的团队在推动某个问题的发展,那么这个努力的规模表明我们应该稍微降低一点AlphaGo在我们印象中的里程碑意义。相反,如果例如DeepMind这样的项目只是简单地将现有的DQN算法应用到围棋上就取得了同样的成就,那就会具有更重大的意义。与此同时,由特定领域启发的创新也可能具有广泛的相关性,评估和策略网络可能就是这样的案例。现在说还有些言之过早。总之,虽然可能最后证明评估和策略网络确实是实现更通用和更强大人工智能系统的重大进展,但我们不能在不考虑硬件调整、数据和人员的基础上就仅从AlphaGo的优秀表现上推导出这一结论。另外,不管我们认为算法创新是否尤其重要,我们都应该将这些结果理解为深度强化学习扩展应用到更大硬件组合和更多数据上的标志,也是之前大量人工智能专家眼中解决困难问题的标志,这些标志本身就是我们将要了解的有关世界的重要事实。专家评论以及人工智能与围棋预测AlphaGo 击败樊麾后,评论普遍认为这一突然的胜利与围棋计算机预设程序相关。需特别指出的是,DeepMind内部人士表示原以为这要十年甚至更长时间才能实现。其中就包括CrazyStone设计者Remi Coulum,他在《连线》杂志一篇文章发表了类似观点。我无意深入探讨专家对围棋计算机未来的观点,专家们几乎不可能对这一里程碑意义达成共识。就在AlphaGo 此次胜利宣布之前,我和其他一些人在推特和其他地方表示Coulum的悲观看法并不成立。大概一年前,Alex Champandard在一次AI游戏专家的聚会上说在谷歌和其他公司的共同努力下,围棋计算机程序将实现飞跃;在去年的AAAI大会上,我也咨询了Michael Bowling(他对AI游戏也略知一二,研究了一款基本上解决了德州扑克双人限制的AI程序)having developed the AI that essentially solved limit heads-up Texas Hold Em),问他认为多少年后,围棋AI将超越人类,他回答说最多五年。所以,再次表明:这次胜利是否突然,在业内并未达成共识,那些声称该胜利意义深远的观点是基于不科学的专家调查,存在争议。尽管如此,这一胜利也确实让包括AI专家在内的一些人感到意外,Remi Coulum这类人也不可能不知道围棋 AI。 那么,该胜利出乎专家意料之外是否意味着AI本身实现了突破呢?答案是否定的,一直以来,专家对AI未来的看法都是不可靠的。为此,我在《人工智能建模的进展》中调研了相关文献,简而言之,我们早就知道基于模型的预测优于直觉判断,定量技术预测胜于定性技术预测,qualitative ones,还有其他的因素使得我们并不该把某种所谓的直觉判断(与正规模型及其推测相反)当真。等一系列其他事情,相对于zh正式的模型/推论,我们不该对围棋 AI的未来采取特定的直观判断。而且从少数确切的经验判断可以看出,该胜利的意义并非如此重大。从为数不多的真正实证性推测(计算围棋达到人类水平的日期)来看,其预测并没有很大的误差。Hiroshi Yamashita2011年起对围棋计算机的发展趋势进行预测,称四年后将出现围棋计算机超越人类的节点,现在看来,仅有一年的偏差。近年来,这一趋势放缓(基于KGS最高排名),如果Yamashita和其他人重新预测,也许会调整计算方式,如推迟一年。但也就在AlphaGo取得胜利的前几个星期,围棋计算机取得了突破性进展。我没有从各方面仔细看这些预测内容,但是我认为他们原本以为这个节点将在十年以后甚至更长时间才会出现,尤其是考虑到去年围棋计算机的发展。也许AlphaGo的胜利比预计早了几年,但我们也总是可以期待一些超越了(基于小团队,有限计算资源的)一般趋势的进步,因为有显著的更多投入、数据量和大量计算资源被用来攻克这一问题。AlphaGo的发展是否偏离合理调整趋势并不明显,特别是因为如今人们并没有在严格模拟这种趋势方面投入太多工作。在不同领域中,鉴于工作、数据、硬件水平的不同,在有效的预测方法被采用之前,所谓的「突破性」进步会看上去比实际上更让人惊讶。以上都表明我们至少应该对AlphaGo 的胜利略微淡定。虽谈不上震惊,但我也认为这是个了不起的成就。更多地,这是我们在人工智能领域取得的成就的另一标志,也展现了人工智能中使用各种方法的能力。神经网络在AlphaGo 中起到了关键作用。将神经网络运用在围棋计算机上并不稀奇,因为神经网络用途广泛——原则上,神经网络可实现任何可计算函数。但是在AlphaGo 的运用再次表明神经网络不仅能够学习一系列的事情,还能相对高效,即在和人类处理速度相似的时间范围内、现有的硬件条件下完成一些原本需要大量人类智慧的任务。而且,它们不仅能完成诸如「模式识别」这类普通(有时人类不屑)的任务,还能规划高级策略,如在围棋中胜出所需的谋略。神经网络的可扩展性(不仅在于更大的数据量和计算性能,还在于不同的认知领域)不仅仅通过AlphaGo来展现出来,最近其它各类AI成果也有所体现。诚然,即使没有蒙特卡洛树搜索(MCTS),AlphaGo 也优于现存所有配备蒙特卡洛树搜索的系统,这也是整件事最有趣的发现之一,而一些关于AlphaGo的胜利分析却遗漏了它。AlphaGo 并不是唯一一个可展现神经网络在「认知」领域潜力的系统——近期一篇论文表明神经网络也被用于其它计划任务。AlphaGo 能否自我训练,其表现有多少可归结于特定的训练法?现在讨论还为时过早。但是论文中对硬件规格的研究使我们有理由相信只要有足够的硬件和数据,人工智能就能极大地超越人类。这点,我们早已从ImageNet (译者注:ImageNet 是一个计算机视觉系统识别项目, 是目前世界上图像识别最大的数据库)的视觉识别结果中得知,人工智能在某些评分、语音识别和其它一些结果已经超越了人类表现。但是AlphaGo 是一个重要的象征,表明「人类水平」并非AI的终点,现有的AI技术仍有很大的提升空间,尤其是DeepMind和其他公司不断扩大的技术研究团队已经深深打上了「深度强化学习(deep reinforcement learning)」的烙印。同时,我也深入了解了Atari 人工智能的发展细节(也许就是今后博文的主题),我也得出了相似的结论:Atari AI与人类智力大体相当只会维持非常短的一段时间,即年。目前,游戏中表现的中间值远在人类能力的100%以上,而平均值则达到600%左右。人工智能仅在一小部分游戏中未能达到人类水平,但是很快就会出现超人类的表现。除了从AlphaGo的胜利得到经验以外,还产生了一些其他的问题:例如:有哪些认知领域是无法通过海量计算机资源、数据和专家努力取得实质性成就的呢?经济中,关于什么是简单/困难的自动化的理论有很多,但是这些理论很少能越过人工智能所取得的成就这个表面问题,来探讨我们如何以原则性的方式定义一般而言的简单/困难认知这一更复杂的问题。另外,还有一个经验主义问题,在哪些领域已存在(超越)人类级别性能的足够数据/计算资源,或者说即将超越。比如,如果谷歌宣布开发出了语言能力高度发达的计算机个人助手,其中部分训练来自于谷歌海量数据和最新的深度(强化)学习技术,我们会感到惊讶吗?这个问题很难回答。在我看来,此类问题,包括AI安全性,对AI在认知/经济相关领域的发展提出了更严格的建模要求。李世石之战和其它未来发展本着基于模型的外推法胜于直觉判断的精神,我制作了以上图表,展现DeepMind尺度转换研究中CPU和Elo得分的直观联系。我将每步时长延长为相当于5分钟时间的计算,更接近于与李世石比赛的实际情况,而不是尺度转换研究中的每步2秒。这就假定在技巧水平更高的情况下,硬件运算次数不变(可能与真实情况不符,但是正如技术预测文章中写道的:初级模型也比没有模型好)。该预测指出只需提升硬件或延长AlphaGo的思考时间,AlphaGo有可能达到李世石的水平(如上图所示,3500分左右)。然而,DeepMind 几乎不可能寄希望于此——除了让AlphaGo用比研究中更长的时间进行计算最佳落子外,DeepMind还会进行大量的算法提升。Hassabis 在美国人工智能协会(AAAI)中表示他们正以各种当方式改进AlphaGo 。确实如此,他们还聘用了樊麾来帮助他们进行改进。基于Hassabis自信表现(他可以接触相关数据,如目前的AlphaGo 比去年10月的AlphaGo 提升了多少)等诸多考虑因素,都表明AlphaGo 有很大几率击败李世石。若真成功了,我们应该进一步提升对深度强化学习可扩展性的信心,可能还包括评估/策略网络(value/policy networks)。若失败,则表明我们所认为的深度加强学习和硬件规模还没有达到我们所认为的程度,尚无法触及认知的某些方面。同样,如果自我学习被证明足以使人工智能性能相当,抑或评估/策略网络能够在其他比赛中超越人类,我们同样也应该增加现代人工智能技术扩展性和通用性的评价。最后关于「通用AI(general AI)」(译者注:通用AI指具有对普遍问题的认知、解决能力的AI)。正如之前所提到的,Hassabis 更强调所谓的评估或策略网络的通用性,而不是深蓝(Deep Blue)的局限设计。然而事实更复杂,不能简单地一分为二(要记得,AlphaGo 为蒙特卡洛树搜索使用了某些手工开发的功能),仍然是以上所说的深度加强学习的通用性。自DeepMind 2013年发表关于Atari的重要论文以来,深度强化学习已经被广泛应用于现实世界机器人和人机对话中以完成各类任务。考虑到在算法略微甚至无手工调试的情况下,深度强化学习已经在很多领域有了成功应用,有理由认为这些技术已经十分通用。然而,我们这里所讨论的所有案例,目前所取得的进步大部分局限于展示建立狭窄系统所需的通用方法,而不是建立通用系统所需的通用方法。前者的取得的进展并不是后者取得实质性进展的必要条件。而后者要求将机器学习迁移到至其它重要领域,也许尤其是经济或安全相关的领域,而不是局限在Atari或AlphaGo这块。这表明严格的AI建模发展中一个重要的因素可能是确定人工智能操作系统中不同等级的通用性(而不是产生它们的通用方法,尽管这点也很重要)。这也是我感兴趣的地方,未来可能会在该领域入更多,我很好奇人们对于上述问题会怎么想。(C)本文由机器之心原创编译,转载请联系本公众号获得授权。?------------------------------------------------加入机器之心(全职记者/实习生):投稿或寻求报道:广告&商务合作:机器之心是Comet Labs旗下的前沿科技媒体。Comet Labs是由联想之星发起、独立运作的全球人工智能和智能机器加速投资平台,携手全球领先的产业公司和投资机构,帮助创业者解决产业对接、用户拓展、全球市场、技术整合、资金等关键问题。旗下业务还包括:Comet旧金山加速器、Comet北京加速器、Comet垂直行业加速器。↓↓↓点击「阅读原文」查看机器之心网站,获取更多精彩内容。

我要回帖

更多关于 gpu的历史 的文章

 

随机推荐