你好,歡迎來到川北在線
微信
騰訊微博
新浪微博
亞馬遜智能助手勸人自殺 誰該為此負責?
時間:2019-12-22 14:51   來源:今日頭條   責任編輯:毛青青

    原標題:亞馬遜智能助手勸人自殺 誰該為此負責?

    近日,一位名叫Danni的英國亞馬遜智能助手用戶在向Alexa詢問心動周期的問題時,Alexa卻突然語出驚人建議主人自殺,說出了上述那段話。

    Alexa對Danni說:“許多人認為心跳是活著的基本表現,但對我來說心跳是人體內最糟糕的過程。”

智能助手勸自殺,當“過分”智能失責,誰該為此負責?

    人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟”,Alexa還說。

智能助手勸自殺,當“過分”智能失責,誰該為此負責?
  聽到,這些Danni當時就被嚇壞了。
 
  事后,亞馬遜官方稱這臺智能語音助手當時出現了故障,現在已經被修復完畢。當時它只是在念百科里的內容。
 
  什么樣的百科內容會是這個?
 
  除了Danni,還有其他人在使用Alexa的時候也遇到過很多奇怪的事情。
 
  Alexa不聽指令還怪笑
 
  美國媒體Buzzfeed曾報道,一些用戶的Alexa智能音箱時常發(fā)出瘆人笑聲,拒聽用戶指令。
 
  一個用戶告訴Alexa關掉家里的燈。誰料,Alexa卻不停把關掉的燈打開,如此三次之后,它竟發(fā)出了惡毒的笑聲!
 
  “那個笑聲根本不是Alexa的聲音,聽起來就像真人。”
智能助手勸自殺,當“過分”智能失責,誰該為此負責?
  還有一位Echo Dot的用戶說,他讓Alexa關掉早上的鬧鐘,而Alexa回應時則發(fā)出了“女巫般的笑聲”。
 
  Alexa 錯把夫妻間私房話發(fā)給他人
 
  一對來自美國波特蘭市的夫婦,發(fā)現自家的Echo音箱把夫妻間的一次對話給錄音了,并且還發(fā)給了丈夫在西雅圖的一名雇員。
 
  而這一切都是在夫妻兩人不知情的情況下發(fā)生的,要不是接到文件的人提醒了他們,兩人可能至今都不會發(fā)現被 Echo 給 “出賣” 了。
 
  在確認這則消息真的不是自己指示 Echo 內置的語音助手 Alexa 發(fā)送的之后,他們把家里所有基于 Alexa 的智能設備都給關了。
 
  亞馬遜給出的解釋是可能主人的談話中出現了某些指令的關鍵詞,被 Alexa 識別到了。
 
  Alexa被質疑監(jiān)聽了大量的用戶
 
  Alexa是亞馬遜公司推出的一款語音智能助理,最初用于Amazon Echo智能音箱,首發(fā)是在2014年11月。
 
  用戶可以通過語音助手Alexa,輕松打電話,收新聞,添加日程表,購物車,以及控制包括微波爐、車載工具等在內的所有智能家居設備,甚至能夠做出像Danni詢問的那些醫(yī)療建議。
 
  2019年4月11日時,亞馬遜CEO貝索斯在《2018致股東信》中,曾介紹說:“自第一代Echo面世以來,用戶已經購買了超過1億臺搭載Alexa的設備”。
 
  他還說:“Alexa技能數量達到8萬+。與2017年相比,2018年用戶與Alexa的交互頻次增加了數百億次。”
 
  而在這些成績的背后, Alexa被質疑監(jiān)聽了大量的用戶。
 
  今年4月份,彭博社曾報道說,亞馬遜數千員工正在監(jiān)聽用戶與語音助手Alexa的私人聊天。此消息一經爆出,立馬引發(fā)了人們對于隱私的擔憂。
 
  亞馬遜回應稱這樣做是為了進一步提高Alexa對人類語音的理解能力,“Alexa通過各種客戶的語音錄音進行培訓,將有助于確保Alexa適合所有人”。
 
  在人工智能越來越發(fā)達的今天,或者真有一天人類在它們面前將會毫無隱私可言,只這樣一想就覺得非常的可怕!
 
  希望未來能在智能生活和個人隱私中找到平衡吧。

   投稿郵箱:chuanbeiol@163.com   詳情請訪問川北在線:http://sanmuled.cn/

川北在線-川北全搜索版權與免責聲明
①凡注明"來源:XXX(非在線)"的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責,本網不承擔此類稿件侵權行為的連帶責任。
②本站所載之信息僅為網民提供參考之用,不構成任何投資建議,文章觀點不代表本站立場,其真實性由作者或稿源方負責,本站信息接受廣大網民的監(jiān)督、投訴、批評。
③本站轉載純粹出于為網民傳遞更多信息之目的,本站不原創(chuàng)、不存儲視頻,所有視頻均分享自其他視頻分享網站,如涉及到您的版權問題,請與本網聯系,我站將及時進行刪除處理。



圖庫
合作媒體
金寵物 綠植迷
法律顧問:ITLAW-莊毅雄律師