AI也有负能量,渐渐出现“黑暗势力”?我们也要提前做好准备

我们在一片对18岁照片的花样赞美中,迎来了又一个新年。
按说新年应该是开心的时候,但是刚刚跨年结束,抬头一看居然要上班了!不由得悲从心来……所以今天我们打算说点不那么开心的事。
最近几天,各种对2018年的科技预测层出不穷,其中对ai的畅想占了大头,内容差不多是一片喜庆祥和。
但事有两来,当我们开始从ai中收获价值的时候,技术升级后带来的潜在风险也在升温。这就像汽车当然好过牛车,但汽车也会带来各种各样的交通事故。我们当然不能因此禁止汽车上路,但是也不能对交通问题视而不见。
今天我们来预测几个,很可能在2018年进入我们眼帘的“人工智能负能量”。
毕竟做好准备,是解决问题的前提条件。
一、人工智能伦理问题开始出现个案
2017年1月,在加利福尼亚州阿西洛马举行的beneficial al会议上,近千名人工智能相关领域的专家,联合签署了著名的《阿西洛马人工智能23条原则》。
随后,各种关于人工智能伦理道德的讨论、会议,以及相关协会和科技组织开始出现在公众视野里。
《23条原则》的主要内容,就是呼吁人工智能不能损害人类的利益和安全,同时人工智能必须可以被人类控制,同时人类要尽量尊重人工智能和机器人的安全。
听起来颇有点科幻的味道,但是在各行各业开始部署ai,尤其开始利用ai进行自动化决策的时候,人工智能的伦理与道德问题或许真的会浮出水面。
比如说,自动驾驶车辆在马上要发生事故时,是优先保护路人还是乘客?假如ai诊断系统,给出的建议是安乐死,那么它算是杀人吗?为了避免更大损失,ai系统是否能打破规则,自行其是?
这其中最著名的,大概就是去年谷歌批评上海交大某团队进行的“看脸定罪犯”研究。引发了媒体对于ai价值观的大量讨论。
在各个产业场景开始使用ai技术时,随之而来的边界问题、责权问题、道德选择问题这些在实验室中不会出现的矛盾将很可能被引发。
人类还从未真正讨论过这些。假如2018年人工智能的落地化足够快,伦理问题的苗头或许会临近。
二、难以根治的的算法歧视
记得2016年,微软推出过聊天机器人tay,却因为用户教给它大量种族歧视和脏话,一天内就被暂时下线。这引出了一个极具争议的话题:机器学习会吸收人类的知识和信息来塑造自己,那么假如它吸收的信息含有大量“不那么纯良”的东西呢?
2017年,算法歧视问题非但没有被解决,各种各样新的问题还应运而生。比如谷歌大脑会给女性图片打上很多关于家庭、弱势的标签,显然有悖于女权主义精神;而把黑人识别为大猩猩,则点燃了ai种族歧视的话题关注度。
所谓的算法歧视,对于普通消费者来说,最有可能在内容推荐和电商推荐两个地方感觉到。
比如说消费者刚看过宽大的衣服,电商就推荐减肥药,很可能让消费者联想到算法在歧视自己胖;再比如打开今日头条这类软件的时候,大家可能都出现过这种情况:偶尔点了一个推荐来的猎奇或者伪色情内容,然后再一刷新。
好嘛,蜂拥而至的类似内容啊,你本来想看的兴趣内容和专业内容瞬时间化为乌有。甚至你怎么点我不关心不喜欢,平台还是给你推荐。这就是因为算法的归类方式给你贴上了标签。这种歧视感也蛮严重的,好像背后有个人奸笑着对你说:“承认吧,你就是这么低俗……”
这类问题的根源,是机器学习技术进行个性推荐,今天还必须建立在两个逻辑的基础上:以过去算将来,以群体算个体。算法会吸收以前有过的经验来给你特定的某些东西,但很有可能歧视信息就包含在机器吸收的经验里。
在个性推荐系统越来越多场景应用可能的今天,我们恐怕短期内还难以根治算法的歧视。

WWDC2017发布最新10.5英寸的ipad pro,你会选择买吗?
我国三大运营商已获得全国范围5G系统试验频率使用的许可
iOS 14和tvOS 14系统更新,HomeKit迎来三项重要功能
日本开发出Dragon Firefighter消防机器人,可直接进入火场内灌救
在手机PCB Layout中布线要注意哪些事项
AI也有负能量,渐渐出现“黑暗势力”?我们也要提前做好准备
来看看这款李现同款手机能否激起“现女友”们的购买欲呢?
在选购冰箱时候 我们需要考虑以下五点
GoPro HERO8 Black首个媒体灯光选配组件将会在2020年1月开售
网卡
Linux ALSA声卡驱动之一:ASoC架构中的Machine
谷歌:Pixel 5的屏幕缝隙对防水性没有影响
移动通信网和蜂窝到底有什么关系
5G与SD-WAN未来将会是相互融合相辅相成的关系
镜头自动光圈马达驱动MS41908参数与替代
利亚德Micro LED应用场域广阔,订单不断
中国人发明的代码,知道是什么样的吗?
无源光网络PON技术视频监控系统解决方案
小米5C怎么样?小米5C自带神秘“基带锁”解锁变成“全网通”
一文读懂气体传感器是什么