當心 「失控」的科技智能產品出賣你的隱私(圖)
亞馬遜智能音箱Echo(圖片來源:Pexels)
【看中國2018年5月31日訊】(看中國記者聞天清編譯)它們一直在聆聽著你與他人的對話,也一直處於網際網路在線狀態中。你可知道當亞馬遜(Amazon)的虛擬語音助理亞歷克瑟(Alexa)如果失控時會發生什麼?它是否會在沒有得到你授權的情況下分享私人談話?如今,這種可能性已經成為現實了。
據美國華盛頓電視新聞臺KIRO7報導,來自俄勒岡州波特蘭市(Portland,Oregon)一名女士丹妮爾(Danielle)說,她家中的亞馬遜智能音箱Echo虛擬語音助理亞歷克瑟錄製了她與丈夫的一段對話,然後在他們不知道的情況下,將這段對話錄音分享發送給了丹妮爾丈夫在西雅圖的一個員工。
丹妮爾的家中擺放了幾個亞馬遜智能音箱Echo,通常是用來控制房屋冷暖、燈光和保安警報系統。丹妮爾表示,在他們談話的時候,亞馬遜智能音箱Echo就在她旁邊,當時音量設置為7(最大音量設置為10),但丹妮爾從未被請求得到她的授權許可之後發送出這段錄音。直到有一天,丹妮爾的丈夫接到了西雅圖員工的電話,告知說收到了他們夫妻談話的錄音。
隨後,丹妮爾停止使用家中所有的亞馬遜智能音箱Echo,並切斷它們的電源,她表示自己再也不敢使用亞馬遜智能音箱Echo了。她說:「我再也不會把那個智能音箱插上電源了,再也不相信它了。」
丹妮爾聯繫了亞馬遜公司,要求對此事件進行調查。
對此,亞馬遜公司發表了一份聲明稱,智能音箱Echo錯誤地將丹尼爾與她丈夫閒聊的話語當作了一系列的請求和指令,最終按照「指令」將錄音信息發到丹尼爾丈夫的員工那裡。
據美國《紐約時報》報導,這不是亞馬遜智能音箱Echo首次出現這種非同尋常的錯誤。在今年3月份,由於數名用戶反饋,在沒有指令的情況下,有時突然會聽到智能音箱Echo虛擬語音助理亞歷克瑟發出的笑聲。亞馬遜也提供了類似的解釋,在極少數情況下,虛擬語音助理亞歷克瑟錯誤地聽到「亞歷克瑟,笑」的指令。最終,亞馬遜將該指令用語改為:「亞歷克瑟,你會笑嗎?」
5月份,加州大學伯克利分校科研人員在一篇發表的論文中稱,他們已經證明虛擬語音助理的技術也可能會被操控和利用。科研人員表示,在沒有人注意的情況下,他們能夠將一些指令隱藏在語音用語指令文本中,虛擬語音助理,如蘋果的Siri、谷歌助理和亞馬遜的亞歷克瑟等都能理解這些指令並去執行。
丹妮爾的遭遇引起了網友的憂慮,他們在社交媒體上用幽默的方式表達了自己對這種智能產品的擔憂。
用戶:「亞歷克瑟,你在監視我嗎?」
亞歷克瑟(咳嗽):「沒有,當然沒有。」
用戶:「好,谷歌,去問問亞歷克瑟、Siri有沒有在聽我的談話。」
微軟旗下虛擬語音助理Cortana說:「如果你沒幹什麼壞事的話,就不需要擔心什麼。」