被青年小伙搭讪,被中年大叔索要电话号码,菜鸟客服背后的诱惑究竟是真人还是机器人?
近日,某论坛上传的一段对话音频再一次让网友激动热议。事情是这样的:菜鸟网络的智能客服通知网友取件,在与智能助手对话过程中,该网友后来觉察到与自己对话的可能是机器人,他立即询问并开始搭讪这个 ai 小姐姐:
男网友问:“你有没有男朋友哦?”
ai 小姐姐:“这还没有过年,你就要问我这么讨厌的问题了吗?”。随后机器人小姐姐表示拒绝回答这个问题,顺便说“给您拜个早年吧。”
由于 ai 小姐姐的声音过于逼真柔软,听到这儿,这位大哥就激动的不能自已,发出了阵阵娇喘声,“我靠”声不断,感觉是要把持不住了。
同时 ai 小姐姐还发话解释:“人类真的好奇怪呀...我有没有男朋友这个对你很重要吗?还是快点拿包裹好吗?”
男网友:好好好...
播放下面的语音,来感受下这位大哥从平静到疑惑,再到激动到快要溢出的扑通跳的小心脏。
其他网友听到这种让人忍俊不禁的人机对话也开始坐不住了,除了该论坛,还有微博上媒体转发的评论里几乎全是称赞,猜想是不是通过了图灵测试。
此外,此前还有报道称,杭州某小区驿站启用了菜鸟驿站的智能语音助手,用声音甜美的 ai 机器人来通知客户领取包裹。由于声音太过逼真,中年大叔误以为菜鸟驿站新来了美女员工,还上门索要电话号码......
不光上述两个案例的当事人,相信大部分人听完都难以分辨对方是真人客服还是语音助手。当然也有人质疑“ai 小姐姐”的背后其实是真人,毕竟有媒体报道曾揭露,所谓的智能客服其背后实际上有专门的真人客服在回应,比如此前备受关注的应用于银行柜台场景下的智能客服机器人娇娇就是如此。
据报道,娇娇在工作时会有两种模式,自动语音模式(需要行业知识库)以及输入语音模式。一般来说,智能客服对银行业务层面上所有问题都可以通过语音系统进行解答,而在实际操作中,当顾客问的问题超出了知识库范围后,或者因为口音等问题造成机器人无法识别时,语音系统将交由人工来监控,工作人员在回复时会使用网络上的一些流行用语,增加用户体验。
那菜鸟驿站智能助手如此逼真的声音背后究竟是不是机器人?ai科技大本营就此咨询菜鸟驿站总部的客服人员(真人),但对方的回复模棱两可,表示对网络上传播的对话无法查证,它有可能是智能助手,但也有可能是真人回复。
随后,ai科技大本营联系菜鸟网络公关就相关疑惑进行求证。菜鸟网络公关则确定网友上传的这段音频背后确是菜鸟驿站的智能语音助手,这是一个面向快递物流场景的产品,主要通过智能外呼来了解消费者对于配送服务的诉求,同时解答消费者在对话过程中对于包裹信息、驿站地址,驿站营业时间等物流信息的问题。此外,菜鸟方面就其他疑点做出回应:
问:除了音频中提前设置好的地址播放等语音提醒声外,该 ai 助手无论是说话气息,还是说话间声音的停顿,起承转合都异常平顺自然,几乎听不出有明显“机械音”的存在,目前很少有公司能达到这种水平,这是 ai 合成的语音吗?
答:物流场景在对话过程中涉及包裹信息、驿站地址,驿站营业时间等这些海量的个性物流信息,都是由 ai 技术合成。但有少量固定不便的话语,比如打招呼、新年彩蛋是人声的植入。
问:很多 ai 语音助手都只能回答特定场景下的问题。“你有没有男朋友?”这种开放域问题,一般情况下对于限定回答物流问题的 ai 助手而言,可以说是超纲了,另外,在后续客户没有提问的情况下,语音助手为什么自己先发声“人类真的好奇怪呀...”?
答:这是通过大数据分析得到的用户比较感兴趣的问题,并在特定时间节点植入彩蛋,定向的一些回答,希望可以给用户带来更好的体验。其次,虽然客户没有发问,但是一直有笑声和语气词,机器人判断用户还想继续上一个问题,触发了对上一个问题的第二轮答复。
问:如果用耳机听网友录音,会发现网友和 ai 助手的声音分别在不同的声道中,而一般正常上传的电话录音不会出现这种情况。另外,既然这位网友一开始并不知道对面是 ai 助手,一般来说,对于一次再普通不过的收件提醒电话,网友没有理由一开始就对对话进行录音?
答:关于这个问题,我们收到很多反馈,ai 助手很逼真,谢谢这位用户自己的上传,引发关注。此前还有媒体采访发布的录音是媒体现场见证实录,只是隐掉地址等隐私信息。
做到让人能难分辨真人还是语音助手的企业总难免被人质疑。去年 1 月,在 google 开发者大会上,ceo sundar pichai 现场演示了两段由 google assistant 与客户对话的通话录音,对话同样异常流利,其背后的 google duplex 技术在业界激起一阵波澜,google 母公司 alphabet 董事长 john hennnessy 更是称他们在预约领域通过了图灵测试,即便有媒体后来质疑其通话录音音频可能伪造,或者至少经过了剪辑,不过 google 最终并未直面质疑。
无论如何,语音助手正在“侵袭”人类的生活,以至于担心有一天被骗了,不管是语音助手还是 deepfakes 等技术应用确实在一定程度上“骗”过了人类的耳朵和眼睛。当然技术还在进步,如果你听过美国总统特朗普和前总统奥巴马的声音所做的 ai 合成音,很难预料未来会产生何种不良其影响。
如果有一天,不法分子利用你自己的 ai 合成语音去电话诈骗你的亲属,对于毫不设防的人可能很难防备,新技术一旦被诈骗分子使用,很明显可能更容易骗取亲属的信任,更不利于警察办案。
串联谐振有什么危害?有防备的方法吗?
Arm 2019年Q3季度芯片出货量达64亿颗,创下单季出货量新高
激光焊接机器人的焊接过程
智能插座和普通插座的区别是什么
智能温室大棚与传统温室大棚的区别是什么
菜鸟客服背后的诱惑究竟是真人还是机器人?
常用电烙铁的种类
Cherry发布“Viola”轴键盘,体验线性手感
让我们一起来看看Magic Leap怎么挽回一点口碑
如何实现IIC驱动封装以及AT24CXX存储器的封装
大学毕业设计一席谈之四十一 压电信号的睡眠检测算法(3)
什么是Redis主从复制
基于Xilinx FPGA的PCIE接口实现
Micro LED厂商齐聚,探讨行业未来的潜能与发展
ARM核MCU对模拟信号隔离采集的新方案
【安防】维安达斯智慧校园一键报警系统
使用78M6610+PSU能量测量处理器进行系统内校准
趣探实验室 | 信号分析——LPDDR4内存协议分析仪
安防企业竞逐智慧工地 科技助力工地高质量管理
分析师预计苹果AirPods Max明年销量数百万