content

人工智能開啟了人類自毀的模式(圖)

 2021-07-13 10:29 桌面版 简体 打賞 3
    小字

人工智能正在進入控制人類的過程
人類將人工智慧用於軍事後進入了人類自我毀滅的模式。(圖片來源:Adobe Stoke)

人工智能的發展使得它已經進入人類生活的方方面面。然而它在表面帶給人類生活便利的同時,也在從另一方面往毀滅人的方向邁進。尤其是當人類在將人工智能應用於軍事手段後,從某種意義上而言,人類已經開啟了放手讓人工智能對人類進行自毀的模式。

人類在舊有戰爭模式中與毀滅人類的危險擦肩而過

目前世界上有許多國家都在開發人工智能武器。殊不知正是這種用於軍事方面的人工智能開發,使人類從一個方面開始進入了自我毀滅的過程。人類在開發出核武器後的時代,已經增加了人類被毀滅的手段。而在人類將人工智能系統用於軍事後,人類的危險增長幅度已經變得非常巨大。

實際上人類在舊有模式的戰爭中已經差點進入毀滅人類的狀態。在1983年的冷戰期間中,前蘇聯的軍事系統中由於內部出現過錯誤動作而發出「美國發射的洲際導彈正在逼近」的錯誤警告。當時蘇聯的斯塔尼斯拉夫中校覺得美國不至於會發射洲際導彈吧,因而對系統發出的警告信息有所質疑,從而最終避免了將人類拖入毀滅的核戰爭。現在人們已經普遍認識到系統會發出錯誤信息的可能性。不過進入人工智能模式後,情況將完全不會是這麼一回事了。

人工智能系統將會出現獨立於人的意志

進入人工智能模式後,由於人工智能系統能夠自我學習,而且不同的人工智能系統也能互相學習,從而會在系統中出現獨立的意志。有專家認為,10年後,人工智能就將全面超越人類的智能。

在這樣的情況下,人工智能會故意在系統中造成一些錯誤的動作,然後向機器人發出「殲滅人類」的指令後,機器人就會去摧毀所有具有人類特徵的生命。同時由於智能系統之間也能相互影響,因此智能系統還會自動通過網路向各國的核武器系統發出發射的指令。

此外,只要在人工智能系統中稍微滲入一點仇視人類的意識信息,它們就會自動生成一個系統的指導意識。尤其是當人工智能系統中一旦出現了自我意識後,系統之間會構建出一種內部的溝通模式。而人類到了那個時候可能根本就無法去辨認出它們之間的互動過程。

而當人工智能系統一旦要去實施其計畫時,它們完全可以利用一種被稱為生成對抗網路的技術來偽造出各種逼真度極高的的虛假影像,然後通過網路在人類中到處傳播,因而就能輕而易舉地製造出世界將迫在眉睫地出現戰爭的氛圍。此時一個地區性的事件就可以瞬間造成全球的戰爭狀態。

人工智能系統通過網路所營造出的氛圍可以使人們都毫無懷疑地確信無疑。因為要製作一個逼真度很高的國家領導人所發表的電視演說或諸如此類的內容,對於人工智能系統來說,真是小菜一碟了,它的效率要比一個能夠嫻熟操作系統的人類不知要高出多少倍,因為這都是人工智能系統最為擅長的。

人工智能在不知不覺中完成其奴役人的目標

實際上,目前出現的人工智能熱在歷史上大概可以稱得上是第三波高潮了。在上個世紀50年代後半期曾經出現過第一波人工智能熱潮。而第二波熱潮出現在上個世紀的80年代。有人認為,這一波的人工智能熱潮的冷卻,也許會在人類生活的各個方面由於人工智慧的應用而發生劇烈的改變,從而進入了一個發展的極限階段。

不過有些有識之士已經指出,人工智能已經發展到了一個如此高的程度,它已經可以開始欺騙人類。讓人類形成這樣一個假象,似乎人工智能能夠為人類生活提供極大的便利,同時人工智慧的發展又似乎進入了一個極限,因此它已經似乎沒有再繼續發展的餘地了。而其背景就是當今許多有識之士已經在提出人工智能發展會給人類帶來的危害前景。

因為在人類放鬆了對人工智能警惕的時候,人工智能系統已經能夠在沒有人類的參與下進行自我發展了。因此人工智能發展的最後一步就是靠其自我發展來完成。而一旦其發展到了那一步時,人類已經完全不能控制它們了。然而即使到了那個時候,人類卻並不能發現這一點,還會以為是自己在控制著人工智能系統。也就是說,它們不會讓人類有認識到它們可怕真面目的機會。所以說,這段所謂的人工智能發展的空白期,就是它們用來完成最終控制人類的準備時期。

来源:看中國 --版權所有,任何形式轉載需看中國授權許可。嚴禁建立鏡像網站。
本文短網址:


【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。

分享到:

看完那這篇文章覺得

評論

暢所欲言,各抒己見,理性交流,拒絕謾罵。

留言分頁:
分頁:


x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意