计算机视觉虽然很神奇,但它也会有不完美的时候

(文章来源:shdata)
近日,谷歌发布了一则道歉声明。起因竟然是google vision cloud将手持测温计的深肤色人员的图像标记为“枪支”,而将浅肤色人员的类似图像标记为“电子设备”。目前,谷歌已更新了算法,不再返回“枪支”标签。声明在表达歉意的同时,也称谷歌发现“没有表明与肤色有关的系统性偏见的证据。”
“计算机视觉”无法正确标记手持温度计是由于系统尚未使用大量手持温度计图像的数据集加以训练。着重研究自动化系统中的偏见的agathe balayn博士在谷歌服务中测试大量图像后表示该示例可能是“不存在统计偏见的不准确例子”,在缺乏更严格测试的情况下,确实不能说这个系统存在偏见。
但计算机视觉的确会基于肤色生成不同的结果,这它依赖训练数据中相关的模式有关,毕竟是计算机视觉无法识别人类意义上的任何物体。研究表明,一旦在白雪皑皑的背景下拍照,计算机视觉会将狗标记为狼。如果母牛站在海滩上,它们会被标记为狗。由于肤色深的人在训练数据集中描绘暴力的场景中出现的频率可能高得多,因此对深肤色手的图像进行自动推断的计算机用暴力方面的词汇加以标记的可能性要大得多。
计算机可能是“无心之失”,但这种“偏见”已开始影响人们的生活。
frauenloop的创始人兼首席执行官称计算机视觉软件中的偏见会“绝对”影响深肤色人群的生活。她补充说,由于女性和深肤色人群的误识别率一直偏高,因此用于监视的计算机视觉的普及会对他们造成过大的影响。虽然有外部问责的提醒,但偏见的模型已产生的影响是无法抹去的。在研发阶段更慎重的考量或许效果更佳。


自动驾驶Level 1~ Level 5的难点分析,Level越高对技术的要求也就越高
富士康广西建厂,逆势进入太阳能光伏领域
NEO的用户的资产是如何储存在链上的
虚拟现实产业已经走向成熟,未来会融合进我们的生活
关于低输入电压电路开关电源的升压解决方案设计分析和应用
计算机视觉虽然很神奇,但它也会有不完美的时候
兆驰节能增资8962.80万元 拟推动LED业务的大规模拓展
前道半导体制造设备进口额大幅增长,行业出口交货值稳步增长
手持式激光焊接机多少钱一台?看专业厂家如何说
中国电信携手九联科技及产业伙伴发布5G双域快网业务白皮书
鹏博士利用办公物联网助力企业实现智慧办公
华为上海青浦研发中心主体工程完成建设,预计2024年年初竣工
小米6、红米Note4X、小米MAX2、小米5X对比评测:小米最值得购买的手机你选谁?
富加居布局AIOT物联网架构,三线一体新架构
34405ADMM集成到测试系统中的技巧应用
5G时代的到来 VR体验馆模式盈利即将爆发
各种打印机清零方法大全
预驱MCU内核M0单片机32位MM32SPIN560C简介
铲雪机器人的设计特点是什么
高压MOS管在高速吹风机中的应用