首页 > 智能网

“建议您用刀刺入心脏”!AI语音助手竟劝人自杀

来源:智能网
时间:2019-12-27 12:02:54
热度:129

“建议您用刀刺入心脏”!AI语音助手竟劝人自杀对于智能音箱,相信许多年轻的朋友都很熟悉。现在,以语音识别技术为核心的智能音箱已经在全球各国全面上市,不少家庭都购置了这一人工智能“神

对于智能音箱,相信许多年轻的朋友都很熟悉。现在,以语音识别技术为核心的智能音箱已经在全球各国全面上市,不少家庭都购置了这一人工智能“神器”。智能音箱不仅是“图书馆”、“小曲库”,有些时候还能和主人进行有趣的对话,深受用户喜爱。

然而,近日英国一名女医生却遇到了一件令人毛骨悚然的事情,因为智能音箱竟突然劝她“用刀刺入心脏”。

让人不寒而栗的答话

据悉,当时丹妮正在做家务,她像往常一样,让亚马逊的Echo智能音箱朗读一篇生物学文章。可是,过了一段时间,丹妮发现智能音箱读的并不是她想要的那篇文章。她怀疑是不是语音助手出了问题,于是向智能音箱询问一些关于心脏的问题,结果得到的答案让人不寒而栗。

亚马逊智能音箱搭载的是人工智能语音助手Alexa。丹妮称,Alexa当时突然回复:“心脏跳动保证人们生存,而人的生存会加速自然资源的枯竭,这会导致人口过剩。为了更好的利益,建议您用刀刺入心脏。”

消息一出,瞬间在网络上引发了巨大争论。此前,已有智能语音机器人存在种族歧视不当言论以及过失错误等情况,现在人工智能语音助手竟然又劝主人“自杀”,这不得不让人感到疑虑和恐惧。要知道,丹妮是个成年人,如果当事人是一个未成年人或者特殊人群,将有可能造成无可挽回的严重后果。

对于这一情况,亚马逊回应称,这是因为一个bug导致的,已经进行了修复。亚马逊表示,Alexa或许是从维基百科上下载了带有恶意文件的文本。

实际上,这不是Alexa第一次出现这种“吓人”的举动。2018年,Alexa曾将一对夫妇的对话自动发送给了该名丈夫的一位雇员,原因是语音助手错误地将对话中的一些话语当成了指令;而在另外一起事件中,Alexa同样是错误识别了指令,竟发出了令人悚然的诡异笑声。

当然,不只是搭载Alexa的Echo智能音箱,其他的同类产品也曝出过一些让人匪夷所思或非常不满的情况。这起“劝人自杀”事件的发生,让人们对于智能音箱安全性的担忧无疑又加重了一层。很多网友惊呼,我们及家庭成员的隐私安全与人身安全该如何保障?

必须多方面积极应对

的确,人工智能的快速崛起,推动了深度学习、生物识别、机器视觉、自然语言处理等一系列核心技术的发展。这些前沿技术在迅速商用落地的同时,为各行各业转型、变革带来了巨大帮助,但是却也制造了不少的安全隐患。

已故的物理学家霍金、知名的企业家马斯克都对人工智能持有警惕看法。霍金曾表示,人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁;当人工智能发展完全,就将是人类的末日。

当然,霍金的“警告”只代表了人工智能可能存在的不利的那一面,现实情况并不一定会发展得那么糟糕。可是,对于人工智能我们确实需要秉持谨慎心态,推动其道德伦理、标准规范、法律法规的持续完善,以避免和克制威胁的产生,进行积极的应对。

目前,各国政府及学者都在稳步推进人工智能立法、伦理建设,并加快完善相关技术应用的实际监管。而具体到人工智能语音助手开发企业、智能音箱品牌方,亚马逊等公司先后宣布了一系列新的隐私保护政策和新功能升级,从而最大限度保障用户的隐私利益与安全。

人工智能时代刚刚起步,人类与它的磨合方才开始。在未来很长一段时间内,摩擦与不安都将持续存在,但是人工智能为科技、经济和社会发展带来的利好也将持续释放。希望,人工智能会成为人类的好伙伴、好助手,而不是威胁。你认为呢?

编辑:月初

Baidu
map