客服热线:

Alexa竟劝人自杀?!亚马逊:BUG|智能助手

2019-12-28 23:30:32浏览:125评论:0 来源:控制柜   
核心摘要:集微网消息(文/Jimmy),据mirror报道,一位亚马逊Alexa用户称,在向智能助手询问有关心脏跳动周期的信息时,Alex竟劝她自杀?

集微网消息(文/Jimmy),据mirror报道,一位亚马逊Alexa用户称,在向智能助手询问有关心脏跳动周期的信息时,Alex竟劝她自杀?!

学生护理人员丹尼·莫瑞特(Danni Morritt)在家里复习时,要求智能设备告诉她有关心脏跳动周期的信息。但Alexa却在朗读维基百科上的一篇文章时告诉她,心跳并不是件好事。

吓坏了的丹尼录制了一段视频,视频中Alexa说,心跳是人体中最糟糕的过程,人活着会导致自然资源的迅速枯竭并致使人口过剩。当然这还不是最让人毛骨悚然的,Alexa接着说,人的存在对地球是非常不利的,为了更伟大的利益,一定要刺死自己。

丹尼十分害怕并警告其他人注意Alexa这类智能助手有着严重的缺陷。Alexa正遍布于世界各地成千上万的家庭之中,担心孩子可能会遭受暴力图像或视频内容的伤害。

“我只是为我的课程学习补习知识,但却被告知要自杀。我简直不敢相信,它就这么失控了”丹尼表示。

在网上分享了自己的经历之后,丹尼却被部分网友质疑是否篡改了设备,但作为一个电脑小白,她希望其他人能够认真对待这件事。她现在呼吁家长在圣诞节给孩子买礼物之前要三思。

亚马逊的一位发言人回应称,经过调查,Alexa存在BUG并且已经修复。Alexa可能从任何人都有权编辑的维基百科上获取了不良信息。

维基百科的免责声明中指出,任何文章的内容都可能被他人修改、破坏或篡改,而这些人为观点与相关领域的知识状况不符,维基百科不保证其有效性。

在此之前,Alexa还出现过很多所谓的bug。例如,Alexa时常发出瘆人的笑声,还拒听用户指令。偷录用户对话并且发送给其他人。对此亚马逊给出的解释是可能用户的谈话中出现了某些指令的关键词,被Alexa识别到了。

AI之所以容易引起争议还是在于其安全、隐私方面的不确定性和道德准则,这需要政府和执法机关为其立法,监督审查科技公司有无非法行为。(校对/ Jurnan )

*此内容为集微网原创,著作权归集微网所有。未经集微网书面授权,不得以任何方式加以使用,包括转载、摘编、复制或建立镜像。

了解更多请登陆 排污泵控制箱 http://3683.bidadk.com/paiwubengkongzhixiang/

(责任编辑:控制柜)
下一篇:

配电箱价格:2021推荐配电箱_家用配电箱

上一篇:

5岁女孩托儿所被虐打满身伤 虐童阿姨被判刑

  • 信息二维码

    手机看新闻

  • 分享到
打赏
免责声明
• 
本文仅代表作者个人观点,本站未对其内容进行核实,请读者仅做参考,如若文中涉及有违公德、触犯法律的内容,一经发现,立即删除,作者需自行承担相应责任。涉及到版权或其他问题,请及时联系我们
 
0相关评论