对人工智能两大误解:无需担忧和永不出错 组图

 作者:綦净     |      日期:2017-07-05 09:04:10
人工智能,喜乎优乎(pixabay) 谷歌AlphaGo机器围棋手战胜韩国顶尖围棋高手李世石,引发全球热议人工智能和人类能力之优劣的讨论有人认为人工智能可以弥补人的不足,可以为人服务,使人受益;有人担忧人工智能将威胁人类的生存或者控制人类等等 据科技网站gizmodo近日报导,对于如何判断人工智能的优劣,需要注意对它的误解,才能有助于作出判断 误解:我们无需担忧人工智能 现实: 今年一月,脸书创始人扎克伯格(Mark Zuckerberg)说,我们不应该害怕人工智能,它会为人们做很多奇妙的好事实际上,扎克伯格说对了一半 我们不能保证所有人工智能产品都对人类有益因为人工智能是计算机程序,避免不了受病毒程序的影响一旦带有病毒的人工智能机器在运行,会有什么后果 麻省理工学院制造的情绪机器人Kismet(维基百科) 很多著名人士提出,人们应该警惕人工智能的潜在危险物理学大师霍金(Stephen Hawking)多次表示,人工智能的风险大到足以使人类灭绝他认为,未来100年内,人工智能的机器人将反过来控制人类 特斯拉汽车公司创始人马斯克(Elon Musk)形容人工智能是“召唤恶魔”他说:“如果要我猜人类最大的生存威胁是什么,我想那就是人工智能” 微软公司创办人盖兹(Bill Gates)表示,低度人工智能可成为替代劳工的工具,但数十年后出现的“超级智慧”系统会“厉害到令人担忧” 误解:人工智能不会出错 现实: 人工智能会出错,因为它本身是一种程序,无论程序怎样完善,都不可能完美无瑕而且,如何纠正人工智能出错,不是简单的修改程序等步骤能轻易解决的 以谷歌的AlphaGo为例,在与李世石第四局对弈中,第79子时犯了错误,之后步步出错,因此输给李世石 AlphaGo的开发者之一哈萨比斯(Demis Hassabis)在推特上表示,AlphaGo犯的错误直到87子才发现,但为时已晚,其胜率从70%至40%以下 业界人士分析,其原因是AlphaGo在复杂情况下的判断还是不够客观,碰到存储之外的围棋下法会犯错误,而且不能及时发现所犯错误,因此接连出现低级错误这种错误对人类来说,是应该很快就会发现并给予纠正 误解:人工智能永远不会达到人的智能水平 现实: 人工智能迟早会达到人的智力水平,具有高度的逻辑、推力、综合、分析、演绎等等能力 1996年2月,IBM的超级电脑“深蓝”首次挑战国际象棋世界冠军卡斯帕罗夫(维基百科) 1996年2月,IBM的超级电脑“深蓝”(Deep Blue)首次挑战国际象棋世界冠军卡斯帕罗夫(Garry Kasparov),以2:4落败1997年5月,再度挑战卡斯帕罗夫,“深蓝”以3.5:2.5击败卡斯帕罗夫,成为第一个在符合比赛规则击败国际象棋世界冠军的电脑系统 近日谷歌的AlphaGo以4:1赢了李世石但是,从“深蓝”到谷歌AlphaGo的人工发展,不只是硬件(如AlphaGo硬件性能至少是深蓝的1000倍),其依据的运算原理也有极大的发展,从穷举法变成“人工神经网络”,所以AlphaGo有一种类似人的学习技能,能够估计、分析和判断 所以纽约大学的心理学家马库斯(Gary Marcus)说,人工智能会超过人,问题只是时间而已 报导说,因为至今为止人类无法解开“意识”之谜,所以人工智能面临不可逾越的障碍——如何具有人的意识微软联合创始人艾伦(Paul Allen)认为,人类还没有解开人自身的意识之谜,