是否真的可信霍金,再言人工智能机器人继续持续发展下去或将取代人类!

4月18日消息,霍金再发警告:人工智能时代即将来临,人类将被机器代替?霍金作为本世纪最杰出的科学家和天文学家,他在人工智能方面也是很有建树的,霍金不仅一次发声,声明人工智能将给人类带来危害,可是随着时间一点点的流逝,留给人类的事件不多了。近日,霍金再发警告,告诫人类即将被人工智能替代,如果没有有效的防范机制,对人类来说将会发生重大灾难。
英国著名物理学家霍金(stephenhawking)再次就人工智能(ai)发声,他认为:“对于人类来说,强大ai的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”
英国当地时间10月19日,剑桥大学“莱弗休姆的未来智能中心(lcfi)”正是投入使用。霍金在庆祝典礼上发表了演讲。lcfi的一项重要使命是要化解ai风险,破解ai难题。
“我们花了大量的时间来学习历史。”霍金说,“让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。”
目前,人工智能在全球领域得到了各国政府的重视。但霍金一直对外称应该对ai持谨慎态度,提高警惕,因为人类有可能会因为自己建立的智能而灭亡。
霍金在演讲中批评了人工智能的无节制发展,他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。
“我们生活的每一个方面都会改变。总之,创造ai的成功可能是我们文明历史上最大的事件。”霍金说。
剑桥lcfi中心的学术总监huwprice在接受《卫报》采访时称,中心的研究重点非常集中。“我们一直在尝试组织出现终结者这样的基因,但就像它的名字一样,它会不断的来来回回。”
其实,这并不是霍金第一次就人工智能发出警告。在今年6月份,霍金在《拉里·金现场秀》视频访谈节目中,谈到了他对人类未来的担忧。
他说:“我不认为人工智能的进步一定会是良性的。一旦机器到达能够自我进化的临界阶段,我们就无法预测它们的目标是否会与我们的一致。人工智能有可能比人类进化得快。我们需要确保人工智能的设计符合伦理,要有切实的安全措施。”
这位物理学家一直对人工智能的风险安全问题直言不讳。更早前,他在接受英国广播公司采访也延续了一贯的理念:“全人工智能的出现可能给人类带来灭顶之灾。”
除了霍金外,人工智能领域里的许多先驱都提出了人工智能的风险问题。硅谷“钢铁侠”马斯克也表达了对人工智能的担忧。他曾与霍金一起,建立了人工智能防范联盟。
摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持,这同样表明电脑硬件的发展和人类发展一样是指数级别的。我们用这个定律来衡量1000美元什么时候能买到1亿亿cps。现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合。
也就是说现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平。听起来还是弱爆了,但是,让我们考虑一下,1985年的时候,同样的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。

智能照明控制系统的结构组成、功能和应用
面向汽车应用的AUTOSAR设计技巧
海辰储能将为Perfect Power供应1GWh的先进储能产品
大数据企业中昌数据发布2022第一季度报告
Forrester:中国作为全球最大智能手机市场,移动营销却慢人一拍
是否真的可信霍金,再言人工智能机器人继续持续发展下去或将取代人类!
关于手机监控报警助力家庭安防的性能分析
三星和西门子为何都抢着“上车”?
贸泽开售用于PCIe 4.0 设计的Intel Agilex F系列FPGA开发套件
高压继电器的基本原理
4K双路虚拟演播系统应用
得益于5G,疫情并未影响PCB行业
九项常被忽略的ADC参数
3D Mapping的出现打破了投影对于载体的限制
华盛顿大学团队新研究 电一下脑袋就能看到虚拟影像
金属薄膜电阻的特性分析,反馈电阻如何正确连接上同效电容?
华工安鼎正式加入欧拉开源社区 推动行业生态繁荣发展
炬芯机器人方案荣获“2017CITE创新产品与应用奖”
荧光法溶氧传感器怎么维护?光学溶解氧探头日程维护方法是什么?
高科技在线扬尘监测系统治理扬尘污染发挥的作用