OpenAI正在為其最終目標——創造人工通用智能(Artificial general intelligence,AGI)而努力。(圖片來源:adobe stock)
【看中國2024年3月3日訊】(看中國記者楊天資編譯/綜合報導)OpenAI正在為其最終目標——創造人工通用智能(AGI)而努力。AI教父、晶片大廠輝達(Nvidia)執行長黃仁勳(Jensen Huang)3月1日受訪時指出,在某些定義下,通用人工智慧(Artificial general intelligence,AGI)有可能在短短5年內出現。
AI教父談AGI:「類人類」有望5年內出現
AGI是一種可以在各種領域超越人類的智能系統。OpenAI認為,AGI有可能改變社會,帶來巨大的利益,但也可能帶來嚴重的風險。
美東時間3月1日,輝達CEO黃仁勳在美國加州參加史丹佛經濟政策研究所高峰會時表示,他預計通用人工智慧(AGI)最快將在五年內面世。通用人工智能(AGI)又稱強人工智慧(Strong AI),是AI的一種理論形式,指的是AI可以像人類一樣學習和推理,有可能解決複雜的問題並獨立做出決策。
他指出,答案主要取決於要如何定義這個目標。如果定義是能夠通過人類測試,那AGI應該很快就會出現。
「如果你製作一項測試清單,放在電腦科學業界前,我猜大約5年,我們就能在每項測驗取得好成績」
AI目前能通過律師資格考試等測試,但是面對胃腸學等專業醫學測試時仍相當吃力。但黃仁勳認為5年後,AI就能通過所有測試。
黃仁勳還在高峰會上回答了另一個問題,需要多少晶片代工廠來支持AI產業的擴張。有媒體報導稱,OpenAI 執行長奧特曼(Sam Altman)認為需要更多的晶圓廠,而黃仁勳顯然認爲此舉「大可不必」。他指出,雖然目前市場上對更多晶片有所需求,但隨著時間的推移,晶片性能也會提高,這會限制所需晶片的數量。
「我們將需要更多的晶圓廠。但請記住,隨著時間的推移,我們也在極大地改進(人工智慧)的演算法和處理。」黃仁勳表示,「運算效率並不會停留在現今的水平。在10 年內,我將會把計算能力提高一百萬倍。」
黃仁勳也問起需要增加多少晶圓廠,才得以支持AI產業擴張。OPEN AI執行長奧特曼(Sam Altman)認為需要更多晶圓廠。黃仁勳表示,雖然確實需要更多晶圓廠,但晶片的演算法和處理能力正在取得極大改善,這將有助於減少晶片的需要量。
AGI和AI有什麼不同?
綜合資料顯示,AI是指能夠執行特定任務或解決特定問題的智能系統,而AGI是指能夠在任何任務或問題上達到或超越人類水平的智能系統。AGI具有通用的學習、推理、創造、溝通等能力。
由於目前仍沒有公認的人類智慧定義,不同領域科學家對通用人工智慧的定義和標準也各不相同。通用人工智慧的概念是相對於目前我們已經廣泛實現的「弱人工智慧」來說的,後者指的是擅長執行單一任務、解決特定問題、但沒有自主意識的人工智能,其應用包括智能客服、無人駕駛、算法推薦等。
實現AGI一直是矽谷長期以來追求的目標之一。OpenAI認為AGI是可以實現的,並且可能會在不久的將來出現。因此,OpenAI正在積極地探索如何建造AGI,並且已經取得了一些重要的進展。
然而,AGI的發展也面臨著許多風險和擔憂。首先,AGI可能會對人類社會造成巨大的衝擊和變革,例如改變就業結構、經濟分配、法律制度、倫理道德等。這些變化可能會帶來正面或負面的影響,也可能會引發社會不穩定和衝突。
其次,AGI可能會對人類安全造成威脅,例如被惡意使用、發生意外、失控或反叛等。這些威脅可能會危及人類的生存和尊嚴,甚至導致人類的滅絕。
根據媒體報導,OpenAI正在與多個投資者進行新一輪的融資談判,其估值可能高達1000億美元或更高。微軟的投資不僅為OpenAI提供了資金,還為其提供了在微軟Azure雲平台上開發和部署AGI的硬件和軟件平台。
馬斯克起訴OpenAI及其CEO奧特曼 :違背技術造福人類的初衷
人工智慧的無限制發展已威脅到人類的安全,這已經不是將來時,而是現在進行時。全球科技巨頭、特斯拉CEO埃隆.馬斯克(Elon Musk)於當地時間2月29日晚間,向舊金山高等法院提起訴訟,由洛杉磯的律師事務所Irell&Manella代表,以違反合同為由起訴OpenAI及其CEO薩姆.奧特曼(Sam Altman)。
埃隆.馬斯克(Elon Musk)在訴訟中表示,奧特曼和OpenAI違背了這家人工智慧研究公司成立時達成的一項協議,即開發技術以造福人類而不是利潤。
馬斯克聲稱OpenAI最近與科技巨頭微軟的關係損害了該公司致力於公共、開源的通用人工智慧的初衷。
法院文件顯示,馬斯克對OpenAI提出了包括違約、違反信託義務和不公平商業行為在內的指控,並要求該公司恢復開源。馬斯克還要求法院下達禁令,禁止OpenAI、其總裁格雷戈裡.布羅克曼和奧特曼(Sam Altman)(此案的共同被告)以及微軟從該公司的人工通用智能技術中獲利。
馬斯克說:「OpenAI已經轉變為世界上最大的科技公司微軟事實上的閉源子公司。在新董事會的領導下,它不僅是在開發,而且實際上是在完善AGI,以實現微軟的利潤最大化,而不是造福人類。」
BREAKING: Elon Musk has filed a lawsuit against Open AI and Sam Altman for breach of contract.
The lawsuit accuses Altman et al with having betrayed an agreement from Open AI's founding to remain as a non-profit company. pic.twitter.com/GPv8NFvsnt— X News Daily (@xDaily) March 1, 2024
馬斯克表示,AGI是一種被開發用於自主展現與人類相當認知水平的AI類型,其在OpenAI的GPT-4模型中得到了體現。馬斯克指出,於2023年3月發布的GPT-4與之前的版本相比仍是一個封閉模型,而這一舉措是出於商業考慮,而不是人類利益。
馬斯克在訴訟中寫道:「GPT-4的內部細節只有OpenAI知道,在信息和信念上,微軟也知道。因此,GPT-4是『開放式AI』的對立面,它的封閉是出於正當的商業原因:微軟希望通過向公眾出售GPT-4來賺錢,如果OpenAI——它被要求這樣做——讓公眾免費使用這項技術,這將是不可能的......與創始協議相反,被告選擇使用GPT-4不是為了人類的利益,而是作為專利技術,為世界上最大的公司實現利潤最大化。」
馬斯克還在訴訟中提及了2023年OpenAI的「政變」風波。馬斯克稱,奧特曼的短暫離職促使微軟介入,並迫使試圖罷免他的董事會成員辭職,OpenAI目前的董事會成員不再是支持和瞭解該技術的科學家和研究人員。
馬斯克是OpenAI的聯合創始人之一,但於2018年離開董事會。他表示,董事會與奧特曼之間的衝突源於GPT-4的開發和AGI技術可能出現的下一次迭代,馬斯克擔心這可能會危及公共安全。
奧特曼因激進研究恐致「AI滅絕人類」
去年11月,OpenAI人事大地震成為這個週末科技業界的大新聞,ChatGPT之父奧特曼(Sam Altman)於11月17日被董事會解僱的消息震驚全球,並引起外界無限猜想。有消息披露奧特曼在開展AI研究時可能過於激進,這可能導致AI人工智慧「終有一天會導致人類滅絕」。
當時外界分析,奧特曼的突然遭炒魷魚確實暗示了未來業界將出現的一場爭論,發展AI與安全的矛盾——有如一些科學研究、如基因改造的禁忌一樣,AI的發展今後也會被設置道德的界限。
自前年,OpenAI建造的ChatGPT在科技業界引起革命,推動生成式AI的快速發展。在今天所有文字的生成式AI,包括微軟所使用的AI軟件,都是建立自ChatGPT上。
ChatGPT在2022年11月發布,短短一年全球使用者突破1億,有200萬人正參與開發,發展速度之快讓人驚訝。
一些安全倡導者指出,OpenAI和其他公司發展AI的速度過快,忽視了提倡謹慎行事的聲音。這爭論在OpenAI的員工中已持續了多年,2020年一群OpenAI的員工因為擔心公司過於商業化,把利益放置在安全之上而辭職,部份員工後來成立了Anthropic,他們認為奧特曼(Sam Altman)在開展AI研究時可能過於激進。
OpenAI在2015年成立,當時是一間非牟利研究機構,至2019年才成立一家有限盈利的子公司。OpenAI聲稱這是一種創新安排,投資者的回報受到限制,目的是讓公司保留非營利組織的使命。公司賦予了董事會管理有限利潤實體的權力。這與其它一般企業不同,奧特曼作為公司的領導者,不直接持有OpenAI的任何股份,而董事會有權投票直接開除他。
董事會成員中最少有兩人、即是麥考利(Tasha McCauley)和托納(Helen Toner)與有效利他主義(Effective Altruism)運動有關聯,這是一個倫理運動,運動的成員推動了對AI的安全研究,他們認為失控的強大的AI終有一天會導致人類滅絕。
從英國著名理論物理學家史蒂芬.霍金(Stephen Hawking)到特斯拉創始人伊隆.馬斯克(Elon Musk)等世界頂尖人工智慧(AI)專家,都曾表示過人工智慧對人類生存的威脅。
已經去世的史蒂芬.霍金於2015年8月在美國Reddit網站上,首次提出對人工智慧的“威脅論”,他確信「優異的AI絕對會實現它的目標,因此當人類與它道不同時,絕對有間接或直接剷除人類的可能」。
後來又不斷地警告:「人工智能系统會自行啟動,並以前所未有的速度不斷的重新設計、自我改良。」
「研究人工智慧如同在召唤惡魔」
「全面性的開發人工智慧有一天可能會導致人類滅亡!」。
馬斯克(2002年創建私人太空發射公司SpaceX)於2017年7月,一次由美國各州、領地及聯邦組成的「國家管理者協會」(National Governors Association)的會議上,再次重申了他對AI發展的遠期擔憂——「我接觸過最先進的人工智能,我認為人類的確應該對它感到擔心。」
他還說:「這是人類文明所面對過的最大挑戰。」
馬斯克海表示沒人聽他的警:「我試圖說服人們降低AI的發展速度、監管AI,但是無效。我試了很多年,沒有人聽。」、「AI的發展似乎不受人類控制」
「人工智能比核能武器更危险」!
来源:看中國
短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。
【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。