科学战士中 以太是器人类制造出的人工智能人类武器么

专家:应约束人工智能军事化 勿逃避人类监管
【环球网军事综合报道】据中国兵器集团官方微信发布的消息,展示了中国兵器集团研发的中国版&大狗&机器人参加由解放军陆军装备部主办的&跨越险阻2016&地面无人系统挑战赛中获50米竞速和综合越野第一名。中国版&大狗&其实就是中国兵器研发的&奔跑号&山地四足仿生移动平台,该平台在比赛中发挥出
奔跑号”山地四足仿生移动平台在比赛中爬坡
四足步行机器人示意图
中国兵器集团公司其他参赛装备,履带式无人车辆。
中国兵器集团公司其他参赛装备,履带式无人车辆。
有必要约束人工智能军事化<
斯蒂芬·霍金、马斯克等人曾在国际人工智能联席会议上,支持通过禁止不受人类有意识控制的进攻性自主武器,来阻止人工智能军备竞赛的提议。笔者认同他们的观点,也认为在必要时应签署一个公约来约束人工智能军事化。
人类今天要保卫自己,可利用的武器已经太多了,对于核武器的管控早已是大问题,我们并不需要在常规武器之外,还把人工智能用于武器。
人工智能最大的价值在于低成本、高效率、密集性,通过大数据、智能学习迅速提升其能力。人类对人工智能的把握和控制力又是薄弱和未知的。今天已经有大量的无人机、智能机器人被用于军事行动,而未来所谓“不需要人类干预就能选择目标和交战的武器”,对于人类社会产生的威胁变得不可预知。表面上,这些智能机器人或是无人机作战,会减少士兵的伤亡,但是这些智能机器人和无人机的攻击对象是谁?主要还是人类。
人工智能武器最复杂的问题,在于它的廉价与不可控。不像核武器制造需要极高的技术,很难获得的原料以及高昂成本。人工智能武器便于大规模生产,并通过多种渠道流通。最近我们已经看到在叙利亚战场出现了由民用无人飞机改造而成,携带了榴弹攻击型的无人机,一架无人机和一支步枪的价格相近,可以大批量生产,很容易获得。
人工智能武器的不可控性还在于,即使由技术大国生产出不需要人类干预就能选择目标和交战的武器,但这类武器受人类控制的可能性是未知的,在大量人工智能介入,拥有了强大的学习能力之后,它会怎么选择攻击目标,我们一无所知,无人能保证它会被有效控制,不会人为复制。
因此,在人工智能武器还没成为下一个“原子弹”之时,大国首先需要担起责任,在国际上形成一个类似于禁止化学和生物武器国际协定一样的公约,禁止把人工智能用于军事,而不能单靠科学界的“良心”。如果有一天,大量小型、低成本、不可控的杀人机器泛滥成灾,甚至出现人工智能武器逃避人类监管的情况,再谈管理和控制已经太晚了。▲(作者是信息消费联盟理事长)
您看完这条新闻的表情是?<
编辑: 小娜
重庆手机台&&&&《科学》杂志日前专门就人工智能做了一期专题报道,讨论了人工智能的崛起、人们的担忧以及机器学习和自然语言等话题,并在一个特别板块挑选出了10部以人工智能为题材的科幻电影,让专家对其真实程度进行评价和打分。这些电影有的是2015年刚刚上映的新片,有的则可以追溯到上世纪60年代,虽然时间跨度巨大,但它们都无一例外地对未来的人类社会和人工智能的发展进行了大胆设想,有些甚至已经部分地成为了现实。
&&&&第10名:超能查派(2015年)
&&&&电影简介:为了应对不断攀升的犯罪率,某大型武器公司开发出了一种机器人警察,并将其批量生产,投入使用。一直致力于制造人工智能机器人的程序员迪恩,某一天灵感突发,在人工智能研究上取得了突破性进展。在他将自己开发出的实验性AI程序植入一台受损的机器人后,世界上第一个具有自我意识的机器人诞生了,它就是查派。
&&&&符合现实的部分:查派“生来”就对世界及其周围环境有着基本的了解,但更多知识仍需通过经验来学习。虽然电影没能真实还原机器学习的过程,但对场景的描绘却非常准确。如今很多先进的人工智能算法都会让机器人经历一个反复试错的过程。人工智能领域经典名著《人工智能:一种现代方法》一书的作者、美国加州大学伯克利分校计算机科学家斯图尔特·罗素说:“电影中人工智能学习速度很快,这点是比较真实的。”
&&&&偏离现实之处:专家称这部电影有很多问题。第一个问题,一个程序员在自己的公寓中就写出了人工智能代码,专家认为这是不太可能发生的事情,在他们看来,第一个真正的人工智能的诞生需要很多科学家的通力合作才有可能实现;第二个问题,上传大脑意识,电影中人脑和人工智能的意识能像U盘里的文件一样随意复制拷贝,罗素认为这完全是无稽之谈。加拿大阿尔伯塔大学专攻人工智能系统理论和应用的计算机科学家兰迪·戈贝尔说:“美国未来学家雷伊·库兹威尔曾鼓吹过有那么一天,人们将能把意识上传到计算机当中,让永生成为可能。目前看来这是完全不可能的。”
&&&&真实程度得分:1/10
&&&&第9名:AI(2001年)
&&&&电影简介:一个小男孩身患重病,无药可治,不得不进入冬眠一样的冷冻状态。为了缓解伤痛的心情,他的父母领养了一个机器人男孩大卫。大卫出厂就被编程为爱他们,爱是它的使命和存在下去的唯一理由。但患病的男孩痊愈后回到家中,大卫失宠,被父母抛弃。具有自我意识的机器人大卫一直找寻着自己存在的价值,希望能变成真正的人类小孩,回到妈妈身边。
&&&&符合现实的部分:在整个剧情当中,由于程序设定,大卫对获得爱与被爱矢志不移,从未改变。澳大利亚国立大学计算机科学家马库斯·赫特说,这个机器人希望被爱,如果当初就是以这个目的来设计这个机器人的,它就会通过自身的行为将这种渴求表现出来,这个设定非常符合人工智能的特点。
&&&&偏离现实之处:如同《超能查派》一样,电影当中一个科学家小组在很短的时间里就创造出了人工智能。赫特认为这不太现实,从开始设计到成型,仅仅用了18个月的时间,这个速度快得太离谱了。再有就是,现实社会中人们对人工智能的接受程度不会像电影中那么普遍。
&&&&真实程度得分:3/10
&&&&第8名:银翼杀手(1982年)
&&&&电影简介:在未来,人类基因工程技术制造出了几乎与真人一样的复制人,但他们只能存活4年。这些复制人被人类用来在外部世界从事繁重的体力劳动和危险的探险工作。逐渐具有了感情和自我意识的复制人对这一设定越发不满,希望获得自由和长存的权利。专门负责猎杀此类复制人的银翼杀手戴克,在执行任务时却与一个女复制人坠入情网。
&&&&符合现实的部分:电影中,银翼杀手问,在实验室中能否制造出意识体。赫特称:“我怎么知道你是否有感觉,我只能根据你和我很像,并通过自己的情绪来推断。如果现实中制造出了人工智能,也只能通过类似的方法,例如图灵测试来判断。”
&&&&偏离现实之处:电影中复制人能通过植入的记忆来获得感知,就目前而言,将复杂的记忆植入大脑还是一项不可能完成的任务。
&&&&真实程度得分:4/10
&&&&第7名:机械姬(2015年)
&&&&电影简介:在一家著名搜索引擎公司工作的年轻程序员“意外”获得了一次与老板共度假期的机会,但实际上,这一切都是老板之前就精心安排好的。在这座几乎与世隔绝的别墅里,他需要对一个可能具有意识的人工智能机器人进行图灵测试。从见到这个机器人的第一眼起,程序员就被这个漂亮的机器人所吸引。随着交流的深入,他对它的好感更是与日俱增。
&&&&符合现实的部分:电影中机器人的制造者并未突然造出人工智能,而是在经过许多版本的测试后,依然不确定自己制造出来的机器人是否真的具有意识。赫特表示,虽然这部电影对图灵测试的还原有些拙劣,但在场景设置上并不夸张。
&&&&偏离现实之处:电影中一个人凭借孤身奋战就能在僻静的山野中设计出人工智能,这依旧是不现实的。另外,在人类连自身意识起源都没有弄清楚之前,就来制造有意识的机器人,似乎还是太早了点。
&&&&真实程度得分:5/10
&&&&第6名:超验骇客(2014年)
&&&&电影简介:人工智能领域的天才科学家威尔·卡斯特开发出了一种能够具备人类情感和智慧的计算机系统。此举在为其收获无数赞誉的同时,也让他成为了一群反科技极端分子的袭击目标。在遭到该组织的一次袭击后,威尔危在旦夕。他的妻子和朋友为继续未尽的研究,将其意识上传到了计算机当中,造就了世界上第一个真正的人工智能。
&&&&符合现实的部分:电影最后,人工智能被限制在数码世界当中,只能以程序的形式存在。专家认为,无论何种存在,一旦拥有改变意识或大脑的能力,就能突破生物进化的限制。人工智能才不在乎要不要变得像人类一样。
&&&&偏离现实之处:对整个大脑进行上传下载的操作。
&&&&真实程度得分:6/10
&&&&第5名:机械公敌(2004年)
&&&&电影简介:未来社会,在机器人“三大法则”的限制下,人与机器人和谐相处,并对其充满信任。但在一款新型机器人产品上市的前夕,机器人的创造者阿尔弗莱德·朗宁却在公司内离奇遇害。对机器人心存芥蒂的黑人警探戴尔·斯普纳怀疑行凶者就是朗宁博士自己研制的NS-5型机器人桑尼。随着调查的一步步深入,真相竟然是:机器人获得了进化的能力,产生了自我意识,对“三大法则”有了自己的理解,随时会成为整个人类的“机械公敌”。
&&&&符合现实的部分:电影重现了著名的机器人三大法则:机器人不得伤害人类,或因不作为使人类受到伤害;除非违背第一法则,机器人必须服从人类的命令;在不违背第一及第二法则的前提下,机器人必须保护自己。但与此同时,电影也为机器人的背叛找到了借口——当机器人认定人类对自身有害时。
&&&&偏离现实之处:目前来说,机器人不会改变自己的程序和目标,更不可能自行创造出新的议程。
&&&&真实程度得分:6.5/10
&&&&第4名:巨人:福宾计划(1970年)
&&&&电影简介:美国计算机专家设计制造出了一台名叫“巨人”的用于军事防御的超级计算机,但没过多久,这台计算机就自行联系到了它的苏联同伴。两台超级计算机一夜之间就破解了许多科学难题,但后来的运算结果越来越让科学家们无法理解。两国政府发现事有蹊跷后,决定切断它们之间的通讯线路。但此举却被超级计算机视为威胁,竟以核弹要挟两国,试图控制整个世界。
&&&&符合现实的部分:电影描绘了超级计算机的强大力量,探讨了高度依赖人工智能可能引发的后果,这在上世纪六七十年代是非常难能可贵的。
&&&&偏离现实之处:除了依靠打卡进行计算的计算机超越人类智慧这一设定外,电影中其他有关人工智能的情节并未有太过荒谬的地方。罗素称,还有一点需要指出的是,好莱坞电影中的机器在获得自我意识后,绝大多数都会反对人类,这并不科学。他认为即便机器人具备了自我意识,也不一定会反对人类。
&&&&真实程度得分:7/10
&&&&第3名:机器管家(1999年)
&&&&电影简介:机器人安德鲁是一户人家连续四代的管家,在经历数年的风雨和人类的生离死别后,它拥有了人类的知识,也逐渐学会了如何体会人类的情感。此后的岁月,安德鲁不断追求着自由乃至爱情。最终,在一位工程师的帮助下,他从里到外,将自己的机器零件替换成了人工器官,几乎变成了一个真正的人。
&&&&符合现实的部分:在电影世界中最终出现了一个非暴力的人工智能,而大部分专家也乐观地认为,人工智能是完全能够与人类实现和平相处的。
&&&&偏离现实之处:电影中的机器人一心想成为人类,它们理应没有这样的愿望,这使人类显得有些“太以自我为中心”。现实中,机器人不太会产生这样的想法。
&&&&真实程度得分:7.5/10
&&&&第2名:她(2013年)
&&&&电影简介:刚刚离婚的男作家西奥多,通过一次偶然的机会接触到了最新的人工智能操作系统OS1。这个名为萨曼莎的人工智能系统,温柔体贴又不失风趣幽默,很快就获得了西奥多的好感,而后这一切竟逐渐发展成了一段惊世骇俗的奇异恋情。
&&&&符合现实的部分:人工智能操作系统距离我们并不是特别遥远,这部电影向人们展示了人类被机器人吸引所带来的风险。程序和操作系统可以在网络中自由遨游,同时与成千上万人建立联系,而作为生物的人总会受制于自己的身体和大脑。
&&&&偏离现实之处:电影中出现了如此先进的人工智能,但世界却未因此发生多大的变化。这一点太让人不可思议。
&&&&真实程度得分:8/10
&&&&第1名:2001太空漫游(1968年)
&&&&电影简介:在收到月球上一块巨大的黑色石碑发出的奇怪信号后,“探索一号”上的宇航员奉命前去调查。此事后,一次在向木星进发的途中,宇航员突然发现飞船上具有人类逻辑思维方式、且从未出错的人工智能系统“哈尔9000”出了问题。
&&&&符合现实的部分:电影中,人工智能系统“哈尔9000”似乎有了意识,但被问及计算机是否有感觉或者情绪的时候,宇航员却说不清。现实中的场景也不过如此。此外,电影中的“哈尔9000”不像之前几部电影中那样会背离自己最初的目标,而是所有的行为都是以完成任务为出发点。
&&&&偏离现实之处:参评专家称,之所以没有拿到满分是因为电影并没有解释“哈尔9000”是如何工作的。专家称,鉴于目前没有人知道如何创造出人工智能,没有解释总比蹩脚的科技术语更好一些。
&&&&真实程度得分:9/10人工智能武器
我的图书馆
人工智能武器
霍金呼吁禁用一武器 西方忧中国赢军备竞赛
日 12:00&&参考消息&资料图:韩国的国产战斗机器人 &
  美国《时代》周刊网站7月28日报道称,物理学家斯蒂芬·霍金和特斯拉汽车公司首席执行官埃隆·马斯克,与数十名人工智能和机器人专家在27日发表的公开信中,一道呼吁禁止使用“攻击性自动武器”。
  “人工智能技术目前的发展已经使其在几年内、而不是几十年内成为可行——即使法律上不可行事实上也是可以实现的,这样的情况危险极大,”这封公开信说。《卫报》报道说这封信将在布宜诺斯艾利斯举办的人工智能国际联合大会上宣读。“自动武器被称为继火药、核武器之后的第三次战争革命。”
  这封公开信把无需人类命令便能够选择并攻击目标的人工智能武器,与无人机和巡航导弹等人类选择打击目标的武器有所区别。这封信中还说,虽然对军队官兵来说,人工智能技术可以令战区更加安全,但这种不受人类控制的武器会引发“全球性人工智能军备竞赛”。
  “它们流入黑市或落入恐怖分子和独裁者之手不过是时间问题,”这封信的署名者们警告道。“人工智能可以通过多种方式使战场对人类、尤其是平民来说更加安全,而不必通过创造杀戮新工具这种方式。”
  英国《金融时报》网站7月27日发表题为《科学家提醒,要警惕杀人机器人军备竞赛》的报道称,科技界的一些大人物呼吁全球禁止“杀人机器人”,他们提醒说,越过这一界限,将开启新一轮全球军备竞赛。
  人工智能领域的1000多位专家在一封公开信中表明了干预态度。在这封信上署名的包括宇宙学家斯蒂芬·霍金教授、特斯拉公司首席执行官埃隆·马斯克,以及苹果公司合伙创始人史蒂夫·沃兹尼亚克。
  尽管“机器人士兵”仍处于“纸上谈兵”阶段,可是计算能力和人工智能的迅速进步,增加了军方在20年内把机器人士兵派上战场的可能性。
  这封请愿书于28日在布宜诺斯艾利斯举行的国际人工智能联合大会上递交。该信警告说,继火药与核武器的发明之后,可以独立确定和袭击目标且不需人类进行任何干预的武器系统的开发,将会带来“第三次战争革命”。
  它描绘了未来冲突的可怕情形,类似于系列电影《终结者》中的场景。
  该信说:“对于执行暗杀、破坏国家稳定、征服民众或选择性杀死特定民族等任务,自主式武器是理想选择。”
  “因此,我们认为,人工智能军备竞赛对人类而言是无益的。人工智能可以让战场变得对人类——尤其平民——而言更安全的方式有许多种,不用创造新的杀人工具。”
  联合国也担心其所谓的“致命性自主式武器”的开发,以至于它去年召开了有史以来第一次此类会议,讨论新科技带来的风险。
  加利福尼亚大学伯克利分校的人工智能领域专家、该信的署名者之一斯图尔特·拉塞尔之前曾警告说,机器人武器系统可能使得人类“毫无防御能力”。
  该信是今年第二封猛烈抨击将人工智能引入到战场上的信。不过,在呼吁禁止这些武器系统方面,这封最新的请愿书强硬有力得多。该信是由生命未来研究所协调写成的。
  生命未来研究所是由包括Skype公司合伙创始人扬·塔林在内的众多志愿者于2014年创建的。马斯克和霍金均是该研究所科学顾问委员会的成员。
  自主式杀人机器人的想法对许多军方人士而言具有吸引力,因为它们提供了重要的对敌优势,其部署不会令本国部队的任何人处于危险中,而且长期来看,比起必须支持和保护人员的先进武器,如战斗机,它们的成本应该更加低廉。
  五角大楼是机器人研究的最大支持者之一。2013年,其智库之一海军研究处发给塔夫茨大学、布朗大学、伦斯勒理工学院、乔治敦大学和耶鲁大学等多所大学的研究人员一笔研究经费,高达750万美元,让其研究如何能教会自主式机器人分辨对错。
  西方军事规划者担心,如果他们没能致力于研究这一技术,那么他们可能会将新一轮军备竞赛的领导权让给潜在对手,比如中国。
人工智能不会毁灭人类:机器更依赖人
日12:14&& 参考消息&&&&
资料图:人工智能
  核心提示:智能机器的研发是一个缓慢而渐进的过程,而且,即使开发出超级智能计算机,它们对人类的依赖至少不亚于人类对它们的依赖。
  参考消息网7月31日报道 美国沃克斯网站7月29日刊登《人工智能不会毁灭人类的五大理由》一文,作者为蒂莫西·李。
  人工智能引发的人类末日已临近了吗?《终结者》《黑客帝国》等电影早已描绘出计算机开发超级智能、毁灭人类的反乌托邦前景。有学者认为,这种危险的情形并非虚构。
  文章作者称,他们去年曾采访持上述观点的一名学者——牛津大学的哲学家尼克·博斯特伦。其他持类似观点的学者还包括奇点理论家雷·库日韦尔、乔治·梅森大学的经济学家罗宾·汉森。但这些学者高估了计算机像人类一样聪慧的可能性,并且夸大了计算机对人类的威胁。实际上,智能机器的研发是一个缓慢而渐进的过程,而且,即使开发出超级智能计算机,它们对人类的依赖至少不亚于人类对它们的依赖,原因如下:
  一、真正的智能需要大量实践经验
  文章称,要了解这点,先假设有一名母语为英语、从未说过汉语的聪慧女孩,我们把她关进一间有大量汉语学习用书的房间,并要求她流利地说汉语。无论她多么聪明伶俐,无论她学习多久并且有多少教科书,她也无法达到母语是汉语的人的水平。因为要想熟练掌握一门语言,关键是要同语言流利的人一起交流。
  文章称,机器若要达到人类的智能水平,面临着更为严峻的问题。简而言之,它们缺少人类自然交流的情境。
  类似的论点也适用于智能机器要解决的其他许多问题,如钻井、帮助人们报税等等。解决复杂问题时所需的大多数信息并没有任何文字记录,因而理论推理和数值密集计算本身无法得到正确答案。成为专家的唯一方法是不断尝试并检验它们是否奏效。
  二、机器极为依赖人类
  文章称,在《终结者》系列影片中,军事人工智能系统“天网”有了自我意识,并用军事设施攻击人类。
  这种场景极度低估了机器为维持运转而对人类的依赖。现代经济社会中有无数不同种类的机器人,完成各类特定任务。虽然越来越多的机器在某种程度上实现了自动化,但几乎所有的机器都依赖人类提供动力和原材料,在毁坏时予以维修,报废后重新大量生产……
  三、人类大脑也许很难赶超
  文章称,计算机可以效法其他计算机的行为,因为计算机的工作方式是精确、确定的。要模拟一台计算机,人们只要执行计算机运行的指令序列即可。
  但人类的大脑与此完全不同。神经细胞是极为复杂的模拟系统,它们的行为无法像数字电路那样精确建模。甚至单一神经细胞建模中一处微小的差异也会令整个大脑的建模出现极大误差。
  文章称,天气模拟是一个很好的例子。物理学家已经非常了解单一空气分子的性质,因而人们认为可以对地球的大气层建模,从而预测天气。尽管过去几十年来计算机的能力有了巨大提高,我们在预测未来天气模式方面的进展仍相当有限。
  精确模拟大脑、达到生成智能,比模拟行星的天气模式还要复杂得多。作者认为,科学家无法在可预见的未来做到这点。
  四、要获得权力,关系比智能更重要
  试想一下人类社会的运作机制,人们便清楚地知道智能本身并不足以成就权力。
  文章称,如果真的如此,那么国家就由科学家、哲学家或象棋天才统治了。然而,美国——和全世界大多数国家一样——是由罗纳德·里根、比尔·克林顿、乔治·W·布什这类人物统治的。他们权倾天下并不是因为智力超群,而是因为人脉广泛、魅力十足,而且知道如何交替使用胡萝卜和大棒,从而号令他人。
  任何占领地球的可行计划需要数千人的协作。人们没有理由相信,在启动邪恶计划时,计算机能比人类科学家得到更多帮助。
  五、智能越多,价值越小
  文章称,也许有人认为计算机会凭借它们的超级智能积累惊人财富,然后诱使人类为其服务。但这种想法忽视了一条重要的经济学原理:随着资源更丰富,其价值下降。
  60年前,买一台计算机需要数百万美元,而它的性能还不如一部现代手机。今天的计算机比此前几代计算机的性能强大得多,但它们价值下降的速度比其性能提高的速度还要快。《科学》封面:人工智能终于能像人类一样学习 日 11:09 作者:汪汪  今天,《科学》杂志封面刊登了一篇重磅研究:人工智能终于能像人类一样学习,并通过了图灵测试。  这个人工智能像你一样学习写字  假设你从来没有见过菠萝。有一天,有人送了你一个菠萝。尽管你这辈子只见过这一个菠萝,但你只用一眼就看出了菠萝的特征。第二天,你去水果店,很快就能从一堆苹果、葡萄、柚子中认出菠萝来。你甚至还能在纸上画出菠萝的简笔画。  这种'仅从一个例子就形成概念’的能力对人来说很容易。然而,尽管人工智能近年来取得了长足的进步,但要让机器做到这一点,却难于上青天,因为目前的人工智能通常需要从大量的数据中进行学习,你得让它看成千上万张菠萝的图片才行。  不过,这个事实或许从今天开始改变了。今天,一篇人工智能论文登上了《科学》杂志的封面,为人们带来了人工智能领域的一个重大突破:三名分别来自麻省理工学院、纽约大学和多伦多大学的研究者开发了一个'只看一眼就会写字’的计算机系统。(论文Human-level concept learning through probabilistic program induction见文末,或回复12可下载pdf格式。)  《科学》杂志封面  只需向这个系统展示一个来自陌生文字系统的字符,它就能很快学到精髓,像人一样写出来,甚至还能写出其他类似的文字——更有甚者,它还通过了图灵测试。下面就是机器和人写出的字符。你猜哪些是机器写出来的?傻傻分不清了吧?  机器的作品是1,2;2,1;1,1  这三名研究者分别是纽约大学数据科学中心的Brenden Lake,多伦多大学计算机科学与统计学系的Ruslan Salakhutdinov和麻省理工学院大脑与认知科学系的Joshua Tenenbaum。他们创造的AI系统能够迅速学会写陌生的文字,从某种意义上说明它领悟到了字符的本质特征(也就是字符的整体结构),同时还能识别出非本质特征(也就是那些因书写造成的轻微变异)。  三名研究者从左到右分别是:Ruslan Salakhutdinov, Brenden Lake和Joshua B。 Tenenbaum。图/Alain Decarie/The New York Times  人类的概念具有极大的弹性,因此,尽管许多概念的边界十分模糊,但我们依然能进行明确的分类。这三位研究者声称,他们的系统就抓住了这种弹性。该系统能模仿人类的一个特殊天赋——从少量案例中学习新概念。它所根植的计算结构叫做概率程序(probabilistic program),还可能有助于对人类获得复杂概念的过程进行建模。  Joshua B。 Tenenbaum是麻省理工学院大脑与认知科学系的教授,他说:'目前的人工智能领域大都聚焦在对模式进行分类。但是,这种类型的智能所缺少的不是分类或识别的能力,而是思考。所以,尽管我们研究的只是手写字符,但依然大言不惭地使用“概念”这种词。因为我们能用字符来研究更加丰富和复杂的概念。我们能理解字符的来历和构件,也能理解如何用不同的方式来使用字符,并造出新的字符来。’  通过'图灵测试’  这篇论文的第一作者Brenden Lake曾在Tenenbaum的团队中获得认知科学博士学位,如今他是纽约大学的博士后。根据Lake的介绍,他们在论文中分析了三个核心原则。这些原则都很通用,既可以用在字符上,也可以用在其他的概念上:  组合性(compositionality):表征是由更简单的基元构建而成。  因果性(causality):模型表征了字符生成的抽象因果结构。  学会学习(learning to learn):过去的概念知识有助于学习新的概念。  研究者对这个AI系统进行了几项测试。  测试1:研究者向它展示了它从未见过的书写系统(例如藏文)中的一个字符例子,并让它写出同样的字符。这里并不是让它复制出完全相同的字符,而是让它写出9个不同的变体,就像人每次手写的笔迹都不相同一样。例如,在看了一个藏文字符之后,算法挑选出该字符用不同的笔迹写出来的例子,识别出组成字符的笔画,并重画出来。  测试2:研究者向系统展示了一个陌生书写系统中的几个不同的字符,并让它创造出一些相似的字符。  测试3:研究者让它在一个假定的书写系统中创造出全新的字符。  与此同时,人类被试也被要求做同样的事情。最后,研究者要求一组人类裁判(来自亚马逊土耳其机器人,Amazon Mechanical Turk)分辨出哪些字符是机器写的,哪些是人类写的。结果,裁判的正确率仅为52%,和随机的结果差不多。于是,机器通过了所谓的视觉图灵测试。  红圈标出的是机器的作品  传统的机器学习系统(比如手机上的语音识别算法)在某些分类任务上的表现很好,但它们首先需要大量的数据集来进行训练。相比之下,人类只需要少量的例子就能抓住某个概念的精髓。这种'一次性学习’正是研究者希望他们的系统能模拟的能力。  学会如何学习  三位研究者采用的方法是'贝叶斯程序学习’(BPL,Bayesian Program Learning),能让计算机系统对人类认知进行很好的模拟。传统的机器学习方法需要大量的数据来训练,而这种方法只需要一个粗略的模型,然后使用推理算法来分析案例,补充模型的细节。  在这篇论文中,研究者的模型只规定了字符由笔画组成,笔画由抬高笔触来区分,而笔画又由更小的子笔画组成,子笔画用笔尖速度为零的点来区分。  有了这个初始模型之后,研究者向AI展现了人类手写文字的方式,包括笔画顺序等,让系统学习连续的笔画和子笔画之间的统计关系,以及单个笔画所能容忍的变异程度。这个系统从未在它所分析的书写系统上进行过任何训练,它只是推理出了人类写字的一般规律。  Tenenbaum说:'每个星期,我们似乎都能读到机器在人脸识别、语音识别方面与人类旗鼓相当的新闻。但是,对我这种研究心智的科学家来说,机器学习和人类学习之间的鸿沟是巨大的。我们希望弥合这个鸿沟,这是我们的长期目标。’  各方评价  剑桥大学的信息工程教授Zoubin Ghahramani说:'我认为这对人工智能、认知科学和机器学习是一个重大的贡献。深度学习目前已取得了重要的成功,这篇论文非常清醒地表明了深度学习的局限性,因为深度学习需要大量的数据,并且在这篇论文所描述的任务上表现很差。这篇论文也展现了实现类人机器学习的重要方法。’  也有一些人对'人工智能超越人脑’这种说法持谨慎态度。艾伦人工智能研究所的Oren Etzioni说:'我对“超人的表现”这种说法非常谨慎。当然,这个算法确实超过一般人的表现,除了达斯汀·霍夫曼。’(指霍夫曼主演的《雨人》电影。)  与深度学习优势互补  多伦多大学和谷歌的人工智能先驱Geoffrey Hinton说这个研究'令人印象非常深刻’。他说,这个模型能通过视觉图灵测试,这很重要,'是一个不错的成就。’Hinton是深度学习的奠基者。深度学习近年来取得了举世瞩目的成就,被广泛应用在许多领域,例如语音翻译、图像识别等,还用在谷歌的图像搜索和Facebook的人脸识别上,获得了巨量的数据以供学习。  然而,这篇新论文说'贝叶斯程序学习’在某些方面比深度学习的表现更好。三位作者和Hinton都礼貌地表明,这两种方法在不同的任务上各领风骚,假如能彼此借鉴,一定能互相弥补。如果能建出一个混血系统,说不定能有更大的提升。在数据量巨大但较混乱的情况下,深度学习能发挥优势;而在数据量少而清晰的情况下,贝叶斯学习占领上风。  Hinton说,这篇论文最令人兴奋的成果或许是能让那些宣称智能计算机系统的学习方式与人类完全不同的批评者闭嘴,因为他们的主要论据正是计算机不能从单个例子中形成概念。  未来  在未来,这种机器学习的技术能够完成很多任务,例如读懂手语、提升语音识别软件的性能等。运用这种方法,或许只用向计算机展示一张人脸照片,它就能从任何角度识别出这个人。它甚至有可能用来制定军事行动计划。  当然,尽管这个成果很重要,但它对人工智能领域来说只是一个小小的起点,不代表未来的机器学习都必须采用这种方法。正如它颠覆了'计算机如何理解概念’这个课题一样,在这个日新月异的领域中,极有可能下个月就出现一种新方法,将它甩在后面飞扬的尘土中。&人工智能击败人类围棋大师:但远称不上超级智能 日 09:54
  新浪科技讯 北京时间1月29日消息,人工智能近日取得了重大突破。谷歌在英国的研究人员研发的一款计算机系统在围棋比赛中击败了一名顶尖棋手。作为一种古老的东方策略类游戏,在过去的几十年间,围棋曾无数次使人工智能败下阵来。  在大多数用来考察人类智慧的游戏中,如国际象棋、拼字游戏、奥赛罗棋、甚至《绝境边缘》(Jeopardy,一个益智问答游戏节目)中,机器都能毫不费力地击败人类。但围棋是一个例外。这款游戏有着2500年的历史,比国际象棋要艰深复杂得多,即使是最机敏的计算机系统,也比人类围棋大师要差了一大截。就在本月初,一些业内顶尖的人工智能专家还质疑近期内我们能否在这方面取得突破。去年更有很多人认为,还要再过十年,机器才可能在围棋比赛中取得上风。  但谷歌已经成功了。“这比我想象的要快得多。”法国研究人员雷米?科隆(Rémi Coulom)说道。他研发的人工智能系统曾是世界上最出色的机器围棋选手。  谷歌DeepMind团队自称“人工智能领域的阿波罗计划”。2015年10月,他们在伦敦组织了一场机器与人类之间的对决。该团队研发的系统名叫AlphaGo,它要对付的人类选手是欧洲围棋冠军樊麾。在《自然》杂志的一名编辑和英国围棋联合会(British Go Federation)的一名权威人士的监督下,他们连续进行了五轮较量,AlphaGo均取得了胜利。“无论是作为一名研究人员还是编辑,这都算是我职业生涯中最令人激动的时刻之一。”《自然》杂志编辑唐吉?肖尔德博士(Tanguy Chouard)在本周二的一次记者会上说道。  英国时间1月27日早晨,《自然》杂志发表了一篇论文,详细介绍了DeepMind团队研发的系统。该系统采用了一种名叫“深度学习”(deep learning)的人工智能技术,这种技术在该领域的地位正变得越来越重要。DeepMind的研究人员从专业棋手那里收集了大量走棋方法,总步数多达3000万次,并利用这些数据对AlphaGo系统进行了训练。但这还只是第一步而已。从理论上来说,这样的训练方式顶多能让计算机系统和最优秀的人类选手达到同等水平,不可能超越人类。因此研究人员先让该系统自己和自己比赛,在这一过程中产生更多的走棋方法,然后再用这些方法训练新的人工智能系统,逐步提高其围棋水平。  “最重要的是,AlphaGo不仅仅是一个出色的人工智能系统,只知道实行人工植入的规则”,负责监管DeepMind团队的德米斯?哈萨比斯(Demis Hassabis)说道,“它还采用了目前普遍使用的机器学习技术,从而在围棋比赛中取胜。”  这次胜利其实并没有那么新奇。谷歌、Facebook和微软等线上服务提供商已经使用了深度学习技术,用于辨认图像、识别语音、以及理解自然语言等。DeepMind将深度学习与一种名为“增强学习”的技术和其它方法结合起来,说明在未来的世界中,机器人能够学会执行各种动作,还能对周围环境做出反应。“对于机器人来说,这是顺理成章的事情。”哈萨比斯说道。  他还认为这些手段能加速科学研究的进展。在他的想象中,科学家有一天会和人工智能系统一起工作,而这些人工智能系统将会被运用到可能取得丰硕成果的研究领域中去。“计算机系统能够处理大量数据,揭露数据结构特征,工作效率远比人类专家要高——有些事情人类甚至根本做不到。”哈萨比斯解释道,“这些计算机系统甚至能为人类专家指明研究方向,引领他们取得突破。”  但就目前来看,围棋仍然是哈萨比斯最关注的领域。在让AlphaGo在办公室中打败人类选手之后,哈萨比斯及其团队希望能在公开的竞技场上,和世界顶级围棋选手一决高下。今年三月中旬,AlphaGo将挑战韩国棋手李世乭,后者赢得的国际大奖数居世界第二,是过去十年中获胜次数最多的棋手。哈萨比斯将他视为“围棋世界中的费德勒”。  以“貌”取胜  2014年年初,科隆研发的围棋软件Crazystone在日本的一次锦标赛中向围棋大师依田纪基(Norimoto Yoda)发起了挑战,并取得了胜利。但这次对决并不公平,因为机器可以先走四步,占据了巨大的优势。当时科隆预言称,人工智能至少要再过十年才能在无让子的围棋比赛中取胜。  这项挑战的难度是由围棋本身的特点决定的。即使是最强大的超级计算机,也缺乏在合理的时间内、分析出每种走法可能的结果的能力。1997年,“深蓝”击败了世界顶级象棋棋手加里?卡斯帕罗夫,它使用的算法名叫“蛮力穷举法”。它分析了每一种可能的走法将产生的结果,而人类是不可能考虑这么多的。但这种方法对围棋就无效了。在国际象棋中,平均每回合有35种走棋方式。而围棋每回合有250种可能的走棋方式,250种中的每一种又有250种,以此类推。哈萨比斯指出,围棋棋盘上可能的布棋方式总和比宇宙中所有原子的数量还多。  利用一种名叫蒙特卡洛树的搜索算法,像Crazystone这样的程序可以提前算出很多步走棋结果。再配合其它技术,它们还可以逐步去除需要分析的走法。这样一来,它们迟早会打败一些出色的棋手——但无法击败最出色的棋手。对于棋类大师来说,走棋很多时候靠的都是直觉。棋手会根据棋子的整体分布来选择走法,而不会细致地分析每一步的结果。“好的位置看起来就很好,”哈萨比斯说道,他本身就是一名围棋棋手,“围棋似乎也遵循一定的审美原则,所以这种游戏才得以延续数千年。”  但在2014、15年之交,一些人工智能专家,包括爱丁堡大学、Facebook、以及DeepMind团队的研究人员,开始采用深度学习法解决围棋问题。他们的想法是,这种技术能模拟人类的直觉,而直觉正是下围棋时必不可少的东西。“围棋是一种含蓄的游戏,讲究图案的配合,”哈萨比斯说道,“而那正是深度学习法所擅长的领域。”  自我增强  深度学习需要依赖所谓的“神经网络”,即由硬件和软件组成的、模拟人类大脑中神经网的网络。这些网络采用的不是蛮力穷举法,也不依靠人工植入的行动准则。它们会对大量数据进行分析,试图“学会”执行某个特定的任务。如果让神经网络看大量的袋鼠照片,它就能学会认出一只袋鼠。如果让它听大量的单词,你再读出这个单词时,它就能听出来你说的是什么。如果让它了解大量的围棋走棋方法,它就能学会下围棋。  DeepMind团队、爱丁堡大学和Facebook的研究人员希望,神经网络能够通过“观察”棋子位置掌握下围棋的方法,和人类差不多。Facebook近日在一篇论文中指出,这一技术使用起来相当不错。他们将深度学习法和蒙特卡洛树搜索方法结合起来,成功让计算机打败了一些人类围棋棋手。不过他们还没有击败Crazystone和其它顶尖的人工智能系统。  但DeepMind成功将这一概念向前推动了一大步。在接受了3000万步人类的围棋走法训练之后,DeepMind神经网络能够以57%的成功率预测人类下一步的走棋方法。这个成功率可谓十分惊人(此前的记录是44%)。接下来,哈萨比斯及其团队采用增强学习法,让这个神经网络和另一个与之稍有不同的网络进行比拼。在两个神经网络比赛的同时,系统会追踪哪种走法带来的效益最大。利用这种方法,该系统越来越能够识别出哪种走法能够取得成功,哪种走法则会导致失败。  “AlphaGo的神经网络和自己比赛了上百万次,在这一过程中不断改进,全靠自己学会了新的走棋策略。” DeepMind团队的一名研究人员戴维?希尔佛(David Silver)说道。  据希尔佛称,这种方法使AlphaGo在众多会下围棋的人工智能系统中脱颖而出,其中也包括Crazystone系统。然后研究人员将上一步得到的结果输入二级神经网络中。该网络使用一级网络建议的走棋方法,使用了很多相同的方法来预测每一步的结果。这和“深蓝”下象棋时的方法类似,只不过AlphaGo系统会边下边学,分析更多数据,而不是通过蛮力穷举法探索每种可能的结果。利用这种方法,AlphaGo不仅学会了如何打败现有的人工智能系统,还击败了顶级的人类棋手。  精密芯片  和大多数先进神经网络一样,DeepMind系统使用的机器也配备了图形处理器(GPU)。这些芯片最初是用来为游戏和其它对图形敏感的程序处理图像的,但研究人员发现,GPU也很适合用来开展深度学习。哈萨比斯表示,只需要用一台装配了大量GPU芯片的计算机,DeepMind就能够运行得很好。但在与樊麾对战时,研究人员使用了规模更大的计算机网,共装载了170枚GPU芯片和1200台标准处理器(CPU)。该系统在训练时和实际作战时,使用的都是这一大规模计算机网。  等AlphaGo前往韩国挑战世界冠军李世乭时,哈萨比斯的团队将使用同样的装置,不过他们会对其进行不断改进。这意味着,他们需要联网才能和李世乭作战。“我们正在铺设自己需要的网络光纤。”哈萨比斯说道。  据科隆和其他专家称,打败世界冠军李世乭比打败樊麾要难得多。但科隆对DeepMind团队寄予厚望。在过去的十年中,他一直在努力打造能击败世界顶级棋手的围棋系统,而他现在认为,这样的系统已经被研发出来了。“我现在买GPU买得不亦乐乎。”他说道。  更进一步  AlphaGo具有极其重要的意义。它采用的技术不仅能用于机器人和科研领域,从类似Siri的移动数码助手,到进行金融投资,这一技术在很多任务中都能助人一臂之力。“你可以用它来解决各种棘手的问题,处理任何需要用到策略的、类似于游戏的事情。”深度学习初创公司Skymind的创始人克里斯?尼克尔森(Chris Nicholson)说道,“比如战争或商业(金融)交易等。”  有些人对此感到有些担忧,尤其是当他们想到DeepMind系统是通过自学学会围棋的时候。该系统不仅仅是通过人类提供的数据来学习的,它还会产生自己的数据,做到自己教自己。就在前几个月,创始人伊隆?马斯克和其他人纷纷表达了自己的担忧,认为这样的人工智能系统迟早会超越人类,并脱离我们的掌控。  但DeepMind系统还处在哈萨比斯等研究人员的严密控制之下。虽然他们正在使用该系统破解一款极为复杂的游戏,但游戏到底只是游戏而已。的确,要想媲美真正的人类智慧,AlphaGo还有很长的一段路要走,还远称不上超级智能。“眼下的情况非常规范,”人工智能法律教授、华盛顿大学的技术政策实验室创始人雷恩?卡罗(Ryan Calo)说道,“该系统的理解能力并未真正达到人类的水平。”但该系统指明的方向的确如此。如果DeepMind的人工智能系统能理解围棋的玩法,也许它迟早会明白更多的东西。“会不会整个宇宙都仅仅是一盘巨大的围棋呢?”卡罗问道。&&&
&& 03:22&&[ ]AlphaGo赢了,人类输了吗?日09:41&&&&作者:&&
AlphaGo赢了,人类输了吗?
  编者按  在 2015 年西方知识界回顾中,作者刘擎重点提到了“如何思考会思考的机器”和“人工智能在伦理上的悖论”这类话题。不久前,在政见团队举办的线上沙龙中,刘擎教授再一次与读者就人工智能展开了讨论。借人机围棋大战的东风,本文将部分讨论内容摘编如下,以飨读者。  文/刘擎  我是一名 “理工男”,15 岁进入大学读化学工程,一直读到硕士,对科学技术问题比较敏感。我关注科学技术的发展,不只是由于我的个人经历,而是因为科学技术对现代思想甚至人类文明形态,有非常重要的影响。  人文社科与自然科学不应割裂  在&20 世纪五六十年代,人文和科学的分化日益严重,CP Snow 提出的 “两种文化”(自然科学和人文社会科学)引发关注。后来,一些学者致力于弥合这两种文化之间的分裂,把二者融合起来,因而提出了 “第三种文化” 的概念。像 Edge 网站,有一批像哲学家丹尼尔 · 丹尼特这样的思想家,特别注重把人文社会科学与自然科学的视野结合起来,我认为这很重要。  学科的分野是现代教育体系的产物。在古典时代,如希腊传统中,科学是哲学的一部分,即自然哲学,近代早期仍然如此。启蒙时代的思想家,如伏尔泰等,他们是所谓 “百科全书式” 的思想家。我认为,恢复综合视野是有意义的。把被现代学院体制割裂得越来越细的学科交叉融汇起来,不仅能帮我们获得更开阔的眼界,而且可能带来全新的研究方法,甚至形成新的范式。  以综合的视野对人工智能进行研究,有更大的意义和前景。我们可以由此讨论,在存在论意义上,人类的意识活动和思想到底是什么,甚至人的存在究竟意味着什么。我们是智性的存在,但是我们并没有搞清楚什么是智能。  机器跟人谁更智能?  除了 “人工智能”(artificial intelligence),现在还出现了 “超级智能”(superintelligence)的概念,即机器人的智能不仅能模仿人的智能,而且可能将会超越人的智能,甚至机器人可能反过来控制人类,这对人类前景意味着什么?就目前来看,机器人的智能水平与人类智能有很大差别。在一些方面,机器人特别聪明,而在另一些方面,却特别笨拙。加州大学(伯克利)的教授高普尼克(Alison Gopnik)对比这种差异。他说,原先人们以为,下棋和定理论证对计算机而言是最困难的,然而事实证明计算机在这两个方面比人聪明得多。但在另一些领域,比如辨认水杯这类简单的事情上,计算机却很难模仿,更不要说在孩子辨别人们是否可信和可靠的能力上。他说,我们至今还没搞清楚孩子所体现的这些智能的原委,在明白这些问题之前,世界上最高级的计算机也无法胜过人类的三岁孩子。  有些人的观点更复杂,比如牛津大学 “人类未来研究所” 的所长波斯特洛姆(Nick Bostrom)教授。在他看来,目前机器思维的总体水平相当低,除了在某些特定的狭隘领域,但将来有可能超过人类,正如机器现在已经比任何生物体更为 “强壮” 和 “迅速”。至于 “超级智能” 何时出现,我们并没有把握。但他估计,人工智能要从目前的水平到达人类智能水平可能需要很长时间,但一旦到达这个水平,出现超级智能就相对更快。  人是不是机器?  在这些辩论背后确实还有一个更深的哲学问题:人到底是不是机器?也就是说人的一切行动,包括意识、情感等等 “神秘” 的灵性活动,到底能不能被转换为物理的、神经的、粒子的运动?持有 “物理主义” 立场的学者,相信人没有什么神秘的部分,一切都是物理性的,只不过更为复杂而已。  这个观点由来已久,18 世纪中叶,法国思想家拉美特里的名著《人是机器》(L'homme-Machine),认为所有可见的生命与非生命的存在形式,都是源自粒子和力,在物理的生命力量之外没有其他空间。  而另一些学者,我们姑且称之为 “灵性主义者”,他们相信,人在某些意义上不是简单的生物或物理存在,总有一个部分是 “灵性”(spiritual),并不能转换为物理过程,因此,人和机器之间有永远不可逾越的鸿沟,机器再发达也不可能成为人。  最近讨论的趋势是,持有物理主义观点的人似乎越来越多了。英国皇家学会前主席、剑桥大学天体物理学家里斯(Martin Rees)甚至认为,从长程演化论的观点看,人的出现似乎只不过是为了发明出更卓越的超级智能的存在。他说,无论我们如何界定 “思维”,人类的有机体思维(organic thinking)只是超大尺度的演化进程中的一个阶段,其思维的速度与强度终将被机器智能所淘汰,尤其在量子计算机诞生之后。生物大脑的抽象思维奠定了所有文化与科学的基础,但这只是一个短暂的历史前奏,是通向“非有机体的后人类时代更强有力的智慧”。  马克斯·韦伯曾说,现代化是一个 “祛除魅力” 的过程。现在看来,人类本身最后的神秘性似乎也要被祛魅了。很难说这到底令人欣喜还是沮丧。  人类正处在新的技术文明大突破的前夜,这可能会改变我们的世界图景,改变我们的自我理解方式和存在方式。这对我们传统的社会、文化和政治安排,都有难以估量的影响。但无论如何,技术文明让我们重新思考,人作为道德的、文化的、精神的和政治的存在究竟意味着什么。 (作者为华东师范大学政治学系教授。首发“政见CNPolitics”公号)&刘慈欣们眼中的阿尔法狗:禁欲系腹黑男神日19:02AlphaGo再下一城!在与李世石的这场人机围棋大战中,AlphaGo已处完全上风。连李世石都赞AlphaGo表现完美。  在科技领域经常为我们打开脑洞的科幻作家们怎么评正在进行的这场大战?新浪《新闻极客》邀请四名科幻作家,《三体》作者刘慈欣、《科幻世界》副主编姚海军、世界华人科幻协会会长兼科幻作家吴岩,以及新生代科幻作家代表陈楸帆。一起来看看,他们会给出怎样开脑洞的解答。吴岩:AlphaGo一点创造力也没有,真正的人工智能是这样的  吴岩:AlphaGo一点创造力也没有,真正的人工智能是这样的  北京师范大学教授、科幻作家吴岩:2003年开设科幻文学研究方向,是国内唯一的“科幻文学”硕士研究方向专业课教授。他还是世界华人科幻协会的会长,评选并颁发全球华语科幻星云奖。  对于最近的人机大战并不感到震惊,以前也有过类似的人和机器的比赛,比如象棋。围棋的规则更复杂、难度更大,所以也是机器的进步。&  不过,我也看到一些分析,这一次的机器还不是靠真正的人工智能,而是有一些局部的匹配,只是输入规则和算法。这距离真正的人工智能还很远。早晚有一天,人工智能会非常厉害,超过创造他的人类本身。  人机大战只是一次炒作,想要人工智能超过人的都不是真正做人工智能的研究人员。这次的背景是研发公司要产业转型,做投资。  人类创造的很多东西,如果使用不当都会毁灭人,比如病毒。人工智能在智慧方面也有可能超过人,当然现在还差很远。因为现在的人工智能一点创造力都没有。只是靠反复计算、有步骤,靠快速和卖力,像一个使蛮力的汉子。让机器有自我意识也不是很难,什么样的感觉组合起来代表什么样的感情。但是现在离这个还非常远。  未来,不会有单纯的计算机也不会有单纯的人,人和计算机会借助桥梁融合。比如在大脑中植入设备,尤其是在人的生命维持和健康改进方面。现在已经有纳米机器人进入人的血液,帮助人类做一些事情,还有治疗癫痫病,现在可以做到在大脑中植入设备,当病人快发病时,监测到不稳定波动,机器可以平复紊乱。随着电子设备慢慢过渡到生物设备,人和机器的融合也就顺理成章,人类对此的担心和害怕也会消失。刘慈欣:AlphaGo还不够科幻小说水平,没想象它的内心世界   刘慈欣:AlphaGo还不够科幻小说水平,没想象它的内心世界  科幻作家刘慈欣:中国科幻迷中最有影响力的本土科幻作家之一,代表作《三体》获第73届世界科幻大会颁发的雨果奖最佳长篇小说奖,为亚洲首次获奖。  人机大战远远不够科幻小说水平,下围棋虽然也算人工智能,但科幻小说里的人工智能都是有自我存在意识的,能够和人类交流。而AlphaGo只是纯粹的学习型数据库。关于想象AlphaGo的内心世界,我没想过这个事。科幻作家刘慈欣陈楸帆:用人类大局观衡量AlphaGo,或许只是集体幻觉  陈楸帆:用人类大局观衡量AlphaGo,或许只是集体幻觉  陈楸帆:1981年出生的他,其作品《无尽的告别》、《荒潮》等获中国科幻小说银河奖、全球华语科幻星云奖最佳长篇小说金奖、科幻奇幻翻译奖短篇奖等国内外奖项。  “其实最早我在一个微信群里下注来着,那个群里大部分都是做认知科学的科研人员,倾向人类赢的还是多数。作为一个科幻作者,我认为人工智能在大部分领域超过人类水平是迟早的事,只不过在所谓人类最后一道壁垒的围棋运动上还心存侥幸。第一局一输,基本上就是0:5的节奏。  李开复老师在之前认为AlphaGo这次的比赛打败李世乭比较悬,但是1-2年之内必然完胜人类。看来开复老师也犯了乐观主义的错误。AlphaGo最可怕的其实是自我学习的功能,可以同时和自己下一百万盘棋,就类似于《龙珠》里在时间静止的房间里练功,与人类的学习曲线完全不是一个数量级。在感知、数据搜集与分析、逻辑推理运算、决策等晶体智力方面,机器毫无疑问将碾压人类智力,但是在一些相对柔软,无法量化的领域,比如情绪、创造、美、爱方面,机器恐怕还有漫漫长路,当然这还是在人类沙文主义的角度上去思考。也许机器有自己的爱恨。  我觉得它(AlphaGo)就像《2001太空漫游》中的黑色石碑,冷酷超然存在于世间,对于人类所有的情绪波动,它像绝对黑体一样悉数接受,反馈出来的是严谨、精密甚至有时略带随意的决策。可以说它是一个禁欲系的腹黑男神形象。  很明显我们处于一个大爆炸的时代,在有生之年我们将能看到许多技术与社会结构上的变革。事实上目前弱人工智能在我们的衣食住行等等生活领域已经无孔不入,我觉得人类需要建立起AI伦理道德委员会,通过制定规则来预防一些失控的事情发生。同时,我们也要想想,是否我们对于机器已经依赖得太深太重,以至于丧失了作为人类自身所特有的一些东西,比如想象力,比如同理心,比如爱人的能力。  我觉得我们现在用很多人类的标准来衡量人工智能,但有可能对AI来说是无效的,比如第一局里出现的一些恶手以及非常初级的失误,从AI的角度看可能是大局观的一部分,原来人类棋手所谓大局观也许只是一种集体幻觉。”姚海军:AlphaGo赢了就说人类输了,你只看到了表象  姚海军:AlphaGo赢了就说人类输了,你只看到了表象  《科幻世界》杂志副总编姚海军:1998年加入《科幻世界》,其主编“世界科幻大师丛书”,引进科幻名著130余种,为国内科幻研究者提供了丰富的作品资源。  一直都关注“人机大战”,李世石第一盘输了之后,有人称“人类输了”,这其实是一个表象,程序是谁创造的呢?还是人类。人类科技创造的产物,与人类棋手对弈,可以看出它优于人类的一些方面,比如不受情绪的干扰、强大的逻辑判断能力等,但是终究它是一个人类创造的物品。&  从科幻小说的角度来看,“人机大战”其实是一个很大的题材,人工智能与人类的关系,中国的很多作家都有涉及。一类是人工智能与人类的友好相处,人类有足够的能力对它进行控制,人工智能也不会脱离人,终究还是一个工具;另一类更多的科幻作品讲得就是,新的种族对人类的取代,例如早年的王晋康写的《生命之歌》,最后科学家也会面临一种纠结的心态:是应该让新的人造物取代具有明显缺陷的人类,还是将他们毁灭?3月12日 00:01&3月11日 18:033月14日 07:30&&& 19:17 18:32 17:04 15:25 13:19 18:04 18:25&&&& &&& “阿法狗”让李世石震惊 柯洁:阿法狗赢不了我
&&&&&&&&&&&&&&&&&& &&&& 日04:42
【环球时报综合报道】此次比赛采用中国围棋规则。每位棋手各有两个小时布局时间,1分钟读秒3次,每场比赛预计要4至5小时。  当地时间9日下午1时,人机对攻正式开始。一开局就显得惊心动魄,李世石执黑先行,第一手棋下在右上角小目,显得不同寻常,而“阿尔法围棋”一改人工智能高速决策的作风,足足“思考”了1分半才在左上角三三落子。一度“阿法狗”处于领先位置,2小时后,李世石优势逐渐开始明显。进行到第3个小时,“阿法狗”后发制人,与李世石形成僵持局面,现场气氛一度十分凝重。之后李世石出现明显失误。在对弈进行到3个半小时后,李世石遗憾地摇摇头,以执黑186手负于“阿法狗”。  所谓“人机大战”,其实见人不见“机”。对局中,一名业余围棋六段棋手扮演“阿法狗”的“眼”和“手”,边看显示屏边替“阿法狗”下棋。“阿法狗”智能程序于2010年诞生于英国,由哈萨比斯等人在英国伦敦创建的人工智能公司“深度思维”(DeepMind)开发。2014年,美国谷歌公司收购了“深度思维”。2015年10月,“阿法狗”曾以5比0战胜欧洲围棋冠军、前中国职业棋手樊麾二段。《印度时报》称,樊麾只是全球第633号选手,与李世石不可相比。谷歌“深度思维”CEO哈萨比斯在赛前曾介绍说,在与樊麾对局后他们又对“阿法狗”进行了改进,此次他们选择长期稳居世界围棋冠军地位的李世石,就是为了进行一次“历史性对决”。  比赛前一天的记者会上,李世石曾表示,对这次对弈有自信,“但以5比0全胜并不容易”。在首盘告负后,李世石在记者会上表示,对于“阿法狗”有两点让他感到震惊。一是其初期布局能力令人惊讶,二是 “阿法狗”往往在他感觉双方都很难下的地方干脆出手。  剩下的四盘对局将分别于3月10日、12日、13日和15日举行。胜者将夺得100万美元的奖金。李世石说,虽然首盘有些令人震惊,“但是棋下得非常愉快”,他表示现在的胜率是“50%对50%”,对接下来的对局“充满期待”。  刚在“农心杯”再次战胜李世石的中国年轻职业棋手柯洁当天通过微博放话说,“就算阿法狗战胜了李世石,但它赢不了我”。哈萨比斯此前曾表示,他也期待“阿尔法围棋”能与中国高水平棋手对弈,“比如柯洁”。柯洁9日接受《环球时报》记者采访时说,机器已经战胜人类了。未来几天的战局胜负难料,出于人类心态上的原因,计算机的胜算可能会更大,“但围棋的精髓和文化的内涵还需要人类的传承”。中国围棋第一人:有六七成把握击败谷歌AlphaGo
&&&&&& 日23:46 柯洁。  “这两场最后的差距都非常大。从我的角度看,李世石没有这么弱。但可能是AlphaGo实力太强大了,导致他技术和心里上的变形。”世界围棋冠军柯洁接受21世纪经济报道记者采访时说,“感觉李世石没有做太多拼搏就输掉了,像是安乐死。看得我也非常郁闷。”  看了两场比赛,柯洁认为李世石不止输在心理上,也确有技不如人。“我看转播画面,他脸通红,下到后盘手在抖。我推断他一夜都没有睡好。他有这样的毛病,如果遇到重要的世界比赛,他容易失眠。”据此柯洁判断,第三盘李世石的胜率也很小。“看李世石的状态和电脑对他的压制,他想赢真的非常困难。大比分输掉了,也许会赢一盘?如果计算机有情感的话,会给他点面子。”柯洁向记者开玩笑说。  谈到自己与AlphaGo对战,柯洁认为有“六七成的把握”。“我非常有信心能战胜它。不只是我,很多棋手都这么说。”但柯洁没有透露希望和AlphaGo对战的具体时间,只是说“在时机成熟的时候”,但他确定这场“战斗”迟早都会来。“如果AlphaGo想证明自己天下无敌,就必须在中国战胜我或其他选手。我想看看它到底有多强大。”&中国棋手柯洁:计算机会把职业棋手全部超越
日12:20 &&&&&&&&&&&&&&&&
&&&&&&&&  柯洁柯洁 原标题:中国棋手柯洁:希望阻挡一下“阿尔法围棋”  近日在韩国围棋人机大战打响,人工智能“阿尔法围棋”已赢李世石九段3场。世界围棋冠军柯洁九段表示,“阿尔法围棋”实力远超想象,“计算机总有一天会把职业棋手全部超越,我也很担心那一天,所以现在希望能阻挡一下它的脚步。”阿尔法狗棋坛排名世界第四 公开约战柯洁&&&&&&&&&&&&&&&&&& 日16:21  【阿尔法狗棋坛排名世界第四……公开约战柯洁】围棋人机大战第四局,AlphaGo虽然输给李世石,但它却有意外收获。因失利它终于进入GoRatings围棋世界排名统计,位列第4。目前,中国柯洁排名第1,李世石第5。谷歌工程师称:“感谢输给李世石,拥有世界排名。柯洁,你准备好了吗?”&&&&& &&&韩国棋手李世石不敌“阿尔法围棋”1:4落败&&&&&&&
&&&&&&&&&&&&&&&&&&& 日17:04 名誉九段证书&   新华社快讯:在围棋人机大战第5场、也是最后一场比赛中,韩国棋手李世石不敌人工智能“阿尔法围棋”,以总比分1:4落败。  谷歌人工智能阿尔法获得它“出生”以来的首个荣誉,韩国棋院打算给“阿尔法围棋”颁发名誉九段证书,目前证书已准备好。另据港媒报道,AlphaoGo工程师向柯洁下战书,而此前柯洁曾表示自己正在等待对方(AlphaGo)约战。  本次人机大战吸引了全球无数人的关注,今天是AlphaoGo与李世石的第五站,此前AlphaoGo以3胜1负的战绩赢得比赛,但因双方此前约定打满五局,所以今天的比赛仍是李世石捍卫人类智慧的荣誉之战,据新华社报道,韩国棋院打算给“阿尔法围棋”颁发名誉九段证书。今天11:46&极客帮创投蒋涛:人工智能走向何方(PPT详解版) 日 10:27
&&&&&&   Alphago和李世石的这场人机围棋大战毫无疑问成为了人工智能发展的里程碑,Google DeepMind为何选择围棋来研究突破?哪些领域会成为人工领域攻克的下一战场,人工智能的投资热点是什么?在中国计算机协会YOCSEF“围棋人机大战:人类输了吗?”特别论坛上,专注于新技术投资的极客帮创投创始人蒋涛分享了他的讲解,下面是这次演讲的PPT:  3月7号 极客帮创投,异构智能,聂卫平围棋道场宣布联合开发“异构神机”,将于近期挑战世界围棋第一人柯洁,棋界人士均不相信人工智能的电脑围棋可以挑战职业冠军选手。  围棋无穷的变化一直被视为艺术,顶尖棋手通过领悟来提高境界。  昭和棋圣吴清源 “如果真的有个围棋之神的话,认为他与“神”交手可能过不了50手。”  名誉棋圣藤泽秀行在将棋九段芹泽博文去世前几个月,曾就“关于围棋和将棋,我们到底知道多少”这样的问题聊过天。如果神仙知道一百,那我们知道几呢? 我们各自把想好的数字写在纸条上,亮给对方看。两个人写的竟完全一样。非五则六。其实五六也有点儿不自量,没准儿还要少。  第二局第37手,就被韩国现场的解说员称为“昭和棋圣吴清源的风范”,而此前坚信人类必胜的聂卫平也感叹AlphaGo的妙招,“对狗的下法29手脱帽致敬!”  根据量化分析公司Quid的数据,自2010年以来,人工智能已经吸引了超过200亿美元的投资。仅2014年,322家拥有类似人工智能技术的公司获得的投资就超过20亿美元。人工智能领域的风险投资在过去4年里平均每年增长62%,随着AlphaGo的这场胜利,投资速度还会加快。  2012年开始,Google开始大力发展深度学习的软件项目,2012年和深度学习相关的项目不到100个,而到2015年前三个季度已有2700个深度学习的软件项目。  孙正义在2016年巴塞罗那GTI的演讲:普通人的IQ一般在100左右,聪明点的130~140,最聪明的爱因斯坦190,达芬奇200。可当人工智能的IQ超过10000会发生什么样的事情?  1公斤的铀-235或钚-239完全裂变,释放出的能量大约等于2万吨烈性的TNT炸药爆炸的威力。  基于深度学习的人工智能和上一代基于知识规则的专家系统人工智能有了本质差别,就像原子弹和化学炸弹的区别一样。不是单纯计算力的提升,通过深度学习还可以掌握人类直觉经验的学习模式,可以比喻为学会了人类的右脑直觉思维能力。  基于深度学习的人工智能通用算法不仅可用于图像识别,景物切割,还可以用于智能围棋。“围棋智能是人工智能发展的副产品,计算能力是人工智能研究的驱动力。”  围棋界在这场大战后会如何呢?可以参考国际象棋界的发展,在超级智能的国际象棋软件的激励下,下国际象棋的人数、锦标赛的数量以及选手的水平都达到了历史之最。与深蓝首次战胜卡斯帕罗夫时相比,拥有国际象棋大师头衔的人数至少翻了一番。现今排名第一的人类国际象棋选手马格努斯·卡尔森(Magnus Carlsen)就曾和人工智能一起训练,并且被认为是所有人类国际象棋选手中最接近电脑的一个。他还是有史以来评分最高的人类国际象棋大师。  Google还在研究使用人工智能绘画和创作音乐歌曲,学习人类的手写文字。和直觉艺术相关的技艺正在被新一代人工智能量化。  基于深度学习的'通用学习机器’:一套能像生物系统一样学习的灵活、自适应的算法,仅使用原始数据就能从头开始掌握任何任务。未来超级智能机器将与人类专家合作解决一切问题。'癌症、气候变迁、能源、基因组学、宏观经济学、金融系统、物理学等。  DeepMind Health宣布与NHS(英国国家医疗服务体系)合作,希望将机器学习应用到医疗健康当中。  这次的人工智能突破是深度神经网络的技术,可以学会人类的直觉(经验),而不是单纯的计算。数据和结果之间有因果关系,给足够多的数据用深度学习训练模型,就可以做出更好的专家系统。和之前基于规则和知识库的专家系统有巨大差别。  用在围棋上,就是围棋的高手直觉棋感。用在医疗诊断上,说这人气色不好,可以看出病症,专业医生的直觉,可以成为最好的医生。用在安防领域,说这人面相凶恶,一看就是坏人,可以成为最好的警探。  人工智能正在进入改变每个行业:广告,农业,教育,金融,法律,制造业,医疗,石油,媒体,零售,诊断,机器人等。  科大讯飞董事长刘庆峰在两会上提议将人工智能战略作为国家重点领域,他认为即使未来3到5年没有技术重大突破,以现有人工智能技术要素,也会形成巨大的应用突破和产业突破,那么哪个国家优先占住制高点,在十三五期间,未来人工智能就会走在全球的前列,如果丢失这个机会,再去赶超就非常之难。  这是一个激动人心的科技发展时代,人工智能,深度学习,VR虚拟现实,机器人,未来生活中习以为常的东西现在可能都还无法想象。专家警告未来自主武器或可自己选择并攻击目标 日 10:05   虽然我们离在战场上部署自主武器还有一些时日,但专家认为,各国研制出的机器人并不会具备道德观念。并且自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。但有些国家已经开始在战场上使用无人运输机了,如图中所示的“收割者”无人机。  为了让机器人具有“道德观念”,研究人员可以在编程时写入一些特定指令,防止它们成为害群之马。图为福斯特?米勒“魔爪”机器人,上面配备了多种武器。但专家认为,一旦它具备了一定的自动化程度,就有可能反叛人类的指令,攻击错误的目标。  新浪科技讯 北京时间4月7日消息,在战场上使用自主武器能够大大减轻军人的负担,但有专家警告称,自主武器会对我们的安全造成一定的威胁。  研究人员在今年1月于瑞士达沃斯举办的世界经济论坛上表示,他们很担心这些战争机器会被用于不道德的军事行动中,成为黑客操纵的工具。  与完全受人类控制的无人机不同,未来的自主武器或许可以自己选择并攻击目标。  “这是我们去年提出的一系列新问题之一。”新南威尔士大学计算机科学与工程学院的人工智能教授托比?沃尔士(Toby Walsh)说道,“我们中的大多数人都认为,我们还没有能力制造有道德意识的机器人。最令人担忧的是,很多国家在最近这几年内就会将机器人用于实战当中,而我相信这些机器人都是没有道德观念的。”  为了让机器人具有“道德观念”,研究人员可以在编程时写入一些特定指令,防止它们成为害群之马。  例如,科幻小说作家艾萨克?阿西莫夫(Isaac Asimov)就曾写过一则名为《环舞》(Runaround)的短篇小说,其中提出了主宰机器人行为的三大定律。  “第一,机器人不得伤害人类,或因其不作为而使人类受到伤害。”  “第二,机器人必须遵守人类发出的指令,除非该指令违反了机器人第一定律。”  “第三,只要保护措施不违背第一或第二定律,机器人就必须尽可能地保护自己。”  虽然专家们认为这几条定律能帮助我们研发具有道德意识的机器人,但要在设计中运用这几条定律,最终还是要依靠机器人的创造者。  还有些人认为,我们的担心纯属多余。  《钢铁侠2》中的机器人(如图所示)也许和现实的差距并不大,但专家担心,一旦它们落入黑客手中,势必会在战场上引起严重的骚乱。专家们担心的不只是机器人设备本身,他们更担心黑客会侵入整个无人武器系统。  不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。图为MQ-9“死神”无人机,一旦受到黑客入侵,就可能对错误的目标发起攻击。  “首先,这样的武器目前还不存在,”新美国安全中心伦理自治项目的首席研究员和主管保罗?斯加瑞(Paul Scharre)说道,“大多数武器系统还没有达到这样的智能水平,即使是最先进的系统也只能通过纠正来帮助我们击中目标,而无法自行选择目标。”  斯加瑞还指出,即使我们可以在战争中使用自主武器,要生产出符合交战规定的武器,也不是件容易的事情。  “就算它们的操作是合法的,自主武器还会带来严重的道德和伦理问题。让一台机器掌握生死大权,这样做真的正确吗?”斯加瑞说道。  “另外,就算自主武器是合法的、且符合道德的,它们也可能非常危险。万一出现机器故障,或是敌军黑进了自主武器系统,都会造成非常严重的后果。”  目前还没有任何国家使用自主武器,但有些国家已经开始在战区部署无人运输工具了。  如果黑客侵入了自主武器的防御系统,就可能在战场上引发可怕的骚乱。  “研究人员正在努力加强数据链接的编码,让自主武器与控制者之间的连接更加安全。” 《简氏国际防务评论》(Jane's International Defence Review)的编辑休?威廉姆斯(Huw Williams)说道,“但无论这些编码完善与否,担心都仍然存在,而且数据链接还是有被破坏的危险。”  不管自主武器是否受人类控制,自主武器的系统自动化程度越高,受黑客入侵的风险也就越大。3月20日 08:58&&AlphaGo灭了整个围棋界 下一步可能在股市上 灭了散户跟交易员 00:16:25 来源: &&&&   【导读】人工智能可以找出图片中的一只小猫,那他也能发现交易中的一些特点,然后用来赚钱。  中国基金报 储泽  新年伊始,一位“身份不明”的神秘棋手扫地僧“Master”在围棋界“ 疯狂杀戮 ”。  到了今天,已经60连胜。  没有身份、没有背景、没有历史、没有目的,不与人沟通只一次次刷新着记录,ID始终无人认领。这样神秘的出场方式与前所未见的诡异棋风,不单令围棋界震惊,也引发了网友的围观。无数人登陆Master所在的围棋线上平台、进入棋室观战,也不停有人追问它究竟是谁。  唯一能确定的就是:肯定不是人类。  1、神秘棋手大杀四方:60连胜  “Master”自2016年底先后登陆国内两大围棋网站一开始悄无声息地收割对手,接连击败日韩围棋高手。等到人们察觉这个神秘人有异的时候,他已经完成了50人连斩。  全球顶尖围棋高手,聚集在围棋平台上,群起抵抗Master,最终结果却一败涂地。更像是一场定向“屠杀”。再也没有棋手能够侥幸。  其中包括目前中韩“第一人”柯洁和朴廷桓,以及古力、常昊等十多位中韩世界冠军,“棋圣”聂卫平也是它的手下败将。  曾经放话“ 就算 AlphaGo 赢了李世石,但它赢不了我。”的现世界第一棋手柯洁应战Master !  柯洁被称之为“最后防线”。  结果,柯洁卒。  今早柯洁的是这样的,被打到医院去了。。。  “棋圣”聂卫平也按耐不住,1月4日下午,聂卫平出马的这场比赛,再次吸引了公众的眼球。他显得沉稳,战况比之前52场更为胶着,坚持到254手,才以254手、7.5目负于Master。对弈结束后,Master第一次用繁体中文留下五个大字:谢谢聂老师。彼时54胜。  人类战士不断上场,简直是排队送人头!最终结果让Master的连斩记录提升到了60,无一败绩。唯一“没赢”的一盘发生在昨天上午,结果还是因为对手——陈耀烨九段掉线了,结果下午双方再战,Master继续连胜。  此刻,Master的真实面目被揭晓。  二、碾压全网的神秘“Master”,原来就是AlphaGo!  昨晚,Master 在拿下第 59 场胜利后,突然宣布自己就是 AlphaGo,而代替其执子的就是 AlphaGo 团队中的黄士杰博士。  神秘ID“Master” 就是阔别归来的围棋AI—— Alpha Go   而与此同时,昨晚抱病上阵与“Master”对弈的@棋士柯洁 也发布微博,称“作为一开始就知道真身是谁的我来讲,是多么希望网上的快棋人类能赢一盘”:  随着谷歌 DeepMind 团队发布声明,宣布 “Master” 是最新版本 AlphaGo 人工智能程序,表示这次挑落过半围棋世界冠军的挑战行动“是一次非正式测试”。  台师大资工系毕业的博士黄士杰,有 “AlphaGo之父”之称,同时也是 AlphaGo 的幕后推手,专精于人工智慧研究领域,其本人也是 DeepMind 团队中唯一一名业余六段的围棋棋手。  AlphaGo相信大家也是比较熟悉的了。并不是一个陌生的名字。2016年3月,举世瞩目的围棋“人机世界大战”在韩国首尔上演,比赛一方是围棋世界冠军、韩国名将李世乭九段,另一方,就是谷歌公司研制的人工智能程序AlphaGo。最终,人工智能以4:1大比分赢取了最终的胜利。  三、围棋一度被视为人类智慧最后的堡垒  跟AlphaGo下棋是一种什么样的体验?  在AlphaGo取得46连胜之后,聂卫平撰文点评AlphaGo的棋路,说这一招“直接点角很奇怪,明显不符棋理,但意外成立”;那一招“左上角撞实黑棋的下法难以苟同,然而它就这么下了,还能赢”……认为AlphaGo颠覆了围棋传统,“没有它不敢下的棋,棋盘上也没有它不能落子的地方,将围棋的自由无垠展现得淋漓尽致”。  这个观感意味着什么?人类高手的落子,别的高手谈不上看不懂。AlphaGo的一些落子,看似无理却能赢,居然一众人类高手直呼“看不懂”。意味着AlphaGo的棋力远胜人类高手。棋力的本质是算力与算法。  这是一种相当绝望的感受:你之前的所以经验都没法在AlphaGo上应用,你没法理解AlphaGo是怎么想的,你的每一个技巧AlphaGo都有应对手段,你也没法理解AlphaGo怎么可以下出那么臭的招数,但最后却能碾压你。  国际象棋AI用了不到10年时间完成的战绩,围棋AI只用了不到10个月。  人工智能能在国际象棋上能打败人类,跟现在能在围棋上打败人类,是两种概念,看个动图就知道了~  国际象棋的复杂程度  围棋的复杂程度  围棋一度被视为人类智慧最后的堡垒,原因是围棋的变化极为复杂,即便是算力无双的计算机,也无法穷尽黑白两子在棋盘里361个点位上的所有变化。  不难想象,AlphaGo血洗顶尖棋手所带来的震撼。  那么基金君提出一个问题:假如AlphaGo炒股了,我们会怎样?  四、人工智能炒股  AlphaGo都只是人工智能的一个缩影,AI的种子早已播撒在了各个领域中。尤其在证券领域里,“炒股狗”的介入恐怕已经超过我们普通人的想象。  2016年上半年,BenGoertzel和他的创业公司Aidyia将他们管理的对冲基金里所有的股票交易完全交给人工智能来完成,期间没有任何人类干扰行为。  更令人震撼的是,据说负责各个不同交易系统的AI引擎不仅可以分析、研究报表,甚至还可以“聚在一起”做市场预测,然后“投票选出”最佳市场决策。  李开复早先曾介绍过人工智能在硅谷的发展,他曾说做深度学习的人工智能博士生一毕业就能拿到200-300万美金的年收入offer,这种高薪不仅基金君从来没见识过,其实在硅谷以前也并没有过。  李开复解释:“因为这个价格很值,因为假设谷歌用他手上的现金做最聪明的二级市场的投资,这个人一年就能赚出一百倍来,所以这是毫无疑问是划算的。”  人工智能在证券领域内的应用,早已不是人们所熟悉的那些量化建模、高频交易。  实际上,通过深度学习、进化算法,人工智能可以通过自己的系统虚拟一批交易员,然后让这批虚拟交易员基因改造、互相PK,这其中的竞争与淘汰是万亿次级别的,最后筛选出最精英的交易员。在这个基础上,他们还有深度神经网络,还能发现各种莫名其妙、可能人类都找不出逻辑但的确存在的特点,然后进行买卖。  其实,股市比围棋更简单  实际上,整个华尔街的不少大型对冲基金都纷纷开始用人工智能取代基金经理。硅谷科学家Andrew Li博士告诉基金君,美国顶级量化对冲基金例如文艺复兴基金等已经开始大量使用机器学习技术进行策略建模,而他们使用的技术和Alphago背后的人工智能技术是类似的。  不过,对于人工智能是否适合在国内A股市场,也有不同的看法,有国内市场分析人士认为,围棋有确定的规则,时间下的长,自然会有经验,但是股市却时不时会有一些突发事件导致市场的非正常波动,这种突发事件可能是国际市场的一个波动,也可能就是领导的一次讲话,由于规则没有那么明确,所以未必能保证在中国的股市人工智能一定能做的比人更好。  但是,也许这种“乐观”的看法可能只是因为不太熟悉真正的人工智能。  实际上,一个让人感到细思极恐的事实是,在一些程序员的眼中,股市比围棋更简单。  股票市场里的变量和涉及的算法,就程序本身而言,可能还没有人类智慧巅峰的“围棋”复杂。写到此处,基金君想到柯洁在微博里说的一段话:  “人类数千年的实战演练进化,计算机却告诉我们全都是错的。我觉得,甚至没有一个人沾到围棋真理的边。”  人类在百多年在蜡烛图领域内的实战演练也许还无法与人类在围棋领域里数千年的实经验相匹敌,然而哪怕是围棋数以千年的经验,依然被人工智能全部颠覆。  假如这种体验将来有一天也降临到资本市场,那么,也许在这一天,我们会发现,我们几百年来在市场的各个维度中总结出的那些经验,未必是最有效的方式,也许在这一天,我们会被“炒股狗”的操盘方式所折服。  也许有一天,人类会无可奈何地看着“炒股狗”们那些精妙的操盘技术却再也琢磨不出其中的奥妙;也许有一天,有效市场竞争将会在几十只或几百只“炒股狗”之间进行,而人类将看着这些深度学习、无休止进步的人类智慧的结晶们接管着整个市场,完成人类对有效市场假说的实现。  柯洁在微博里接着说:“但是我想说,从现在开始,我们棋手将会结合计算机,迈进全新的领域达到全新的境界。”  也许有一天,人类不会再对Alphago的出现心存恐惧或是惊喜,等待人类的将是学习如何与他们共存。  在基金君采访结束时,硅谷科学家AndrewLi博士郑重而诚恳地对基金君说:“人工智能在金融领域大有可为。”  五、如果我们都死了,  人工智能还是会照常交易  前面提到的BenGoertzel和他的创业公司Aidyia,Goertzel 曾说,“如果我们都死了,人工智能还是会照常交易。”  Goertzel 表示,在这个系统上线的第一天,对冲基金就获得了 2% 的回报(他并没有透露基金池的规模)。2%,看上去并不是特别惊人,而且也有可能只是正常的股市波动罢了。但是这却反映出了金融界的重大转变。  对冲基金依赖计算机辅助交易的历史由来已久。但是,典型的系统化基金的收益并没有比人工操作的基金效益好。  红线计算机处理的基金,蓝线所有对冲基金  而最近几年,此类基金开始移向真正的“机器学习”,这样人工智能系统就可以以更快的速度来研究更大量的数据,并且通过数据分析来自我提高。纽约一家名为 Rebellion Research 的研究机构就使用了一种名为“贝叶斯网络”的机器学习系统,用大量的计算机来预测市场趋势,寻找准确的交易时机。  当然,其他人工智能基金公司的 AI 也是在几百台甚至几千台电脑上运行的。其中需要注意的是,他们所使用的技术中包括一种名为“进化计算(evolutionary computation)”的技术。进化计算的想法来自于基因进化和深度学习,它可以用来识别图像、识别文字以及完成一些任务,Google 和微软等公司都已经使用了这一技术。  讨论这种类型的基金时,不应再扯到“高频交易”之类的术语。它无法用于短期交易或者说是那种收到消息就立刻进行交易的行为。人工智能对冲基金适合进行长期投资,比如按小时计算、按天计算、按周计算甚至是按月计算的投资策略。更重要的是,决策的选择完全取决于计算机。  美国旧金山有一家创业公司叫Sentient Technologies,开发的也是自动交易系统。  根据彭博社的报道,Sentient 在于摩根大通的 AI 交易部门合作,但是 Blondeau 对于合作伙伴的消息拒绝评论。他说,基金的运作全部依靠人工智能。  以前的想法,现在终于实现了,股票交易真的不需要人来干预了。  “我们的系统可以让基金自动调整风险等级。”说这句话的是 Sentient 公司的首席科学馆 Babak Hodjat,他过去开发的技术被收购,现在变成 iPhone 上的 Siri。系统运行完全不需要人的帮助。“系统自动给出策略,然后给我们命令。它会显示:『现在情况为 A,使用 B 策略进行交易。』此外还会告诉我们何时退出,降低曝光量等一系列内容。”  Hodjat 还说,系统会从、网吧、游戏服务器等地几百万个处理器中抓取闲置的计算能力来进行计算。它的软件引擎也是基于进化计算的,与 Aidyia 系统里的技术有些相似。  简单来说,系统创造了大量、随机的虚拟股票交易员,测试他们在历史股票数据上的表现。然后选出最好的“交易员”,利用“他们”的“基因”来创造出一个最好的“交易员”。然后再在最好的交易员上重复这一过程…… 最后,系统返回一个能够成功进行自我操作的交易员。Blondeau 说,“经过几千次的基因改造,万亿次的竞争与淘汰,最后,就可以获得一批聪明的交易员来帮基金进行交易。”  人工智能可以找出图片中的一只小猫,那他也能发现股票交易中的一些特点,然后用来赚钱。  但这样也会有一个风险。  如果一家基金使用人工智能技术取得了成功,那么就会出现其他基金复制这一技术然后取得成功的风险。如果大部分基金都用人工智能,那么市场就乱了。  最后的最后,可能出现这样的情况:股票市场上,所有人都用人工智能对决的话,那谁也不能用它来赚到钱。&&美媒称中国这项技术将成下一代战争关键 已追上美 日 10:10 &&资料图:中国研制的四足智能机器人  美国《纽约时报》2月3日刊文称,美国国防部副部长罗伯特·沃克(Robert O。 Work) 2016年曾表示:“最聪明的人工智能人才都在Facebook和谷歌。”而现在中国拥有越来越多的人工智能人才。报道称,对于被广泛认为是下一代战争的关键因素的技术,美国对于人工智能科技不再拥有战略性垄断优势。  文章称,美国五角大楼将把人工智能应用于军事的计划正在形成之际,中国的研究人员也正如火如荼的在这一新兴技术领域进行探索。这种转变体现在中国公司在人工智能商业化领域取得令人惊异的进展方面。  文章认为,这种情形意味着美国正面临挑战,因为美国正采取一种新的军事战略,该战略是以其机器人和人工智能等技术拥有持续优势为前提的。  20世纪60年代,美国凭借在核武器方面的技术领先地位,获得了军事优势。20世纪70年代,以计算机芯片等全新技术为基础的智能武器,使美国保持了军事优势。现在,美国领导人希望通过大力发展人工智能和机器人武器,继续保持军事优势。但全球技术力量对比发生了变化。在年代,美国在技术领域一直具有优势。美国在计算机和材料科学方面领先于其他国家,并通过保密和出口管制维护其优势。1980年代末,微芯片成本的降低和普及,颠覆了五角大楼控制技术进步的能力。目前,先进的技术已经不再出自军用和大企业实验室,而越来越多地出自消费科技公司。  在消费电子制造业已经迁移到亚洲之际,中国的政府实验室及公司都对人工智能进行了大量投资。中国的快速发展触发了美国军事战略人员和技术专家之间的讨论:中国是仅仅在模仿美国而取得进步还是中国正在着手进行即将超越美国的自主研发。  美国国家外交关系协会新兴技术和国家安全专家亚当·西格尔(Adam Segal)说:“中国领导层正在考虑如何确保他们在下一波技术竞争中的竞争力。”2016年8月,《人民日报》曾报道,中国已经具备开发高水平人工智能巡航导弹系统的能力。这是对美国海军于2018年在太平洋的军事部署的回应。  虽然远程反舰导弹被称为“半自动”武器,而据五角大楼的消息,虽然目标由人类士兵选择,但导弹可以利用人工智能来避开拦截武器,击中最终目标。  百度首席科学家Andrew Ng(吴恩达)表示,在理解中国竞争速度方面,美国可能过于短视和自信了。他说:“在很多情况下,一些东西在中国和其他国家同时被发明,或首先由中国发明随后到海外生产,但美媒只报道美国的版本,这会导致一些误解,让人以为这些创新是美国最新发起的”。  报道称,科大讯飞(Iflytek)股份有限公司是代表中国智能进程的一个关键例子,但其在美国并未得到过多报道。该公司是一家人工智能公司,它一直专注于语音识别和自然语言理解。该公司曾在语音合成及中英文本互译领域赢得国际竞赛。该公司的中国技师称,他公司与政府监测技术发展部门关系密切,并称它正与科技部合作研发“应答仿真机器人”。科大讯飞股份有限公司董事长刘庆峰称:“我们的目标是在不久的将来,送该部机器人参加高考,并使其得到重点大学的认可”。  文章称,较之欧美的人工智能研发人员,中国技术人员的发展速度是值得注意的。去年4月,英特尔中国研究室主任吴甘沙离职并从英特尔和谷歌组建一支研发团队,建立了一家无人驾驶汽车公司。上个月,驭势科技(北京)有限公司仅经过九个月的研发便实现其目标——在拉斯维加斯国际消费电子产品展上进行展示。  吴甘沙称:“人工智能技术包括机器视觉、传感器融合、规划及控制。我们的汽车完全是自制的,每一程序都由我们自己编写”。  新德里“观察家研究基金会”海军武器分析师、前印度军官阿布希吉特·辛格(Abhijit Singh)称:“我认为中国在人工智能领域取得了很大进展,无论如何它还没办法与美国匹敌”。  但是对于这一点,在中国,直接参与到人工智能工作的中国研究者拥有极其不同的看法。中国人工智能研究者李开复说:“毋庸置疑,中国研究者是人工智能领域的一支重要推动力。在过去五年里,他们的地位已明显上升。”&&&&&&& &&&
TA的推荐TA的最新馆藏

我要回帖

更多关于 以太网 人工智能网络 的文章

 

随机推荐