智能助手劝人自杀 具体情况让人毛骨悚然 - 社会热点 - 亿席商务网
标王 热搜: 广州  SEO  贷款  深圳    医院  用户体验  网站建设  机器人  贵金属 
 
 
当前位置: 首页 » 资讯 » 社会热点 » 正文

智能助手劝人自杀 具体情况让人毛骨悚然

放大字体  缩小字体 发布日期:2019-12-23 02:49:47  来源:互联网  作者:易鑫商务网  浏览次数:921
核心提示:智能助手劝人自杀?这是什么情况?这智能助手不是人类发明的高科技产品吗?怎么会有这样可怕的举动,这究竟是怎么回事呢?是不是其中有什么造谣的举动?不过随后发现这智能助手劝人自杀居然是真事,这怎么回事,我们一起来了解下具体情况吧! 近日,多家外媒报道称,一"

智能助手劝人自杀?这是什么情况?这智能助手不是人类发明的高科技产品吗?怎么会有这样可怕的举动,这究竟是怎么回事呢?是不是其中有什么造谣的举动?不过随后发现这智能助手劝人自杀居然是真事,这怎么回事,我们一起来了解下具体情况吧!

近日,多家外媒报道称,一位使用亚马逊语音助手Alexa的用户Danni Morritt,在询问心动周期的问题时,竟然得到了如下答案:“心跳是人体最糟糕的过程。人活着就是在加速自然资源的枯竭,人口会过剩的,这对地球是件坏事,所以心跳不好,为了更好,请确保刀能够捅进你的心脏。”

智能助手劝人自杀 具体情况让人毛骨悚然

智能助手劝人自杀

这一回答吓坏了Danni,表示十分害怕,因为Alexa正身处在世界各地成千上万的家庭中。她警告身边的人Alexa有严重的安全缺陷,并担心孩子们可能会遭受暴力或图像内容的伤害。Danni表示:“Alexa真的非常残酷,它竟然告诉我要刺入心脏,这太暴力了。我只是为自己的课程学习一些知识,结果被告知要自杀。我简直不敢相信。我被吓坏了。”

尽管Danni在网络中公开指出了这一问题,但仍有人怀疑是她篡改了该设备。很快,亚马逊回应称,确认存在一个已经修复的bug。Alexa可能从任何人都可以编辑的维基百科上下载了有恶意性质的文本。

在此之前,Alexa还出现过很多所谓的bug。比如,Alexa时常发出瘆人的笑声,还拒听用户指令。“那笑声根本不是Alexa的声音,听起来就像是真人。”

再比如,美国的一对夫妇,发现自己的对话被音箱录音,并且发送给了其他人。对此亚马逊给出的解释是可能用户的谈话中出现了某些指令的关键词,被Alexa识别到了。

实际上,语音助手监听用户说话声音在行业内已经并不是秘密。

智能助手劝人自杀 具体情况让人毛骨悚然

智能助手劝人自杀

今年4月,彭博社报道称,亚马逊员工正监听用户与语音助手的私人聊天,对此亚马逊承认了监听的事实,并回应称是为了提高对人类语音的理解能力。

实际上,此前为了让Alexa看起来更人性化一点,亚马逊更新了功能,宣布语音助手将能够在一些语句中添加语调,表达失望或兴奋等情绪。

智能助手劝人自杀这样荒唐的事情真的让人很可怕,不知道你们怎么看到此事呢?



 

  以上是“智能助手劝人自杀 具体情况让人毛骨悚然”的全部内容,希望对大家有所帮助。


免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。亿席商务网对此不承担任何直接责任及连带责任。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。
 

[ 资讯搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 
 
本企业其他资讯

 
网站首页 | xml | top资讯 | 粤ICP备11090451号