智能助手勸人自殺,亞馬遜Echo智能音箱Alexa在回答心動周期的問題時,竟然提供了如下答案:心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。
智能助手勸人自殺
近日,一人工智能助手卻將人類嚇了一跳,某智能助手勸人自殺,讓人感到毛骨悚然。為了節(jié)省地球資源,最好自殺?亞馬遜Echo智能音箱Alexa的這一荒誕言論引發(fā)批評。
一位使用亞馬遜語音助手Alexa的用戶Danni Morritt,在詢問心動周期的問題時,竟然得到了如下答案:
“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟?!?
這一回答嚇壞了Danni,表示十分害怕,因為Alexa正身處在世界各地成千上萬的家庭中。她警告身邊的人Alexa有嚴重的安全缺陷,并擔(dān)心孩子們可能會遭受暴力或圖像內(nèi)容的傷害。Danni表示:“Alexa真的非常殘酷,它竟然告訴我要刺入心臟,這太暴力了。我只是為自己的課程學(xué)習(xí)一些知識,結(jié)果被告知要自殺。我簡直不敢相信。我被嚇壞了?!?
盡管Danni在網(wǎng)絡(luò)中公開指出了這一問題,但仍有人懷疑是她篡改了該設(shè)備。
很快,亞馬遜回應(yīng)稱,確認存在一個已經(jīng)修復(fù)的bug。Alexa可能從任何人都可以編輯的維基百科上下載了有惡意性質(zhì)的文本。
除了智能助手勸人自殺外 Alexa不聽指令還怪笑
美國媒體Buzzfeed曾報道,一些用戶的Alexa智能音箱時常發(fā)出瘆人笑聲,拒聽用戶指令。
一個用戶告訴Alexa關(guān)掉家里的燈。誰料,Alexa卻不停把關(guān)掉的燈打開,如此三次之后,它竟發(fā)出了惡毒的笑聲!“那個笑聲根本不是Alexa的聲音,聽起來就像真人?!?
還有一位Echo Dot的用戶說,他讓Alexa關(guān)掉早上的鬧鐘,而Alexa回應(yīng)時則發(fā)出了“女巫般的笑聲”。
隨著科技的快速發(fā)展,如果人工智能具有了自我意識和意識支配下的行為,如《西部世界》里人工智能的覺醒,那么人型態(tài)智能助手勸人自殺不成,會不會動手強來?這是我們需要研究的課題。
河南億恩科技股份有限公司(1tcdy.com)始創(chuàng)于2000年,專注服務(wù)器托管租用,是國家工信部認定的綜合電信服務(wù)運營商。億恩為近五十萬的用戶提供服務(wù)器托管、服務(wù)器租用、機柜租用、云服務(wù)器、網(wǎng)站建設(shè)、網(wǎng)站托管等網(wǎng)絡(luò)基礎(chǔ)服務(wù),另有網(wǎng)總管、名片俠網(wǎng)絡(luò)推廣服務(wù),使得客戶不斷的獲得更大的收益。
服務(wù)器/云主機 24小時售后服務(wù)電話:
0371-60135900
虛擬主機/智能建站 24小時售后服務(wù)電話:
0371-55621053
網(wǎng)絡(luò)版權(quán)侵權(quán)舉報電話:
0371-60135995
服務(wù)熱線:
0371-60135900