OpenAI的神秘項目「Q*」近日被曝光。(圖片来源: Johannes Simon/Getty Images)
【看中國2023年11月28日訊】(看中國記者程帆編譯綜合報導)過去幾天,科技界似乎發生了翻天覆地的變化,這要歸功於AI(人工智能)先鋒OpenAI公司上演的一場冒險劇。因在產品安全問題上的分歧、缺乏一致的溝通,其公司董事會宣稱要解雇首席執行官(CEO)奧特曼(Sam Altman)。
儘管,上週OpenAI人事風波最終以奧特曼回歸而告一段落。然而,另一個將威脅人類、代號為「Q*」的神秘項目卻被拋了出來,人們對這個強大的新AI模型有太多的擔憂。
根據矽谷科技新聞The Information的報導,今年早些時候,OpenAI首席科學家苏茨基弗(Ilya Sutskever)領導的團隊取得了突破性進展,並建立了一個名為Q*(Q-star)的新模型。
據悉,新模型是一種能夠自行解決基本數學問題的演算法,包括那些超過其訓練資料之外的問題。這也使得它向備受期待的AGI(即通用人工智能,使AI能夠執行人腦可完成的任何智力任務)邁進了一大步。換句話說,它可能有了人類或超越人類級別的數學和邏輯能力,並能完成一些人類的中高端腦力勞動,這是GPT4等不具備或不擅長的東西。
總體來講,Q*展示了類似人的高階推理能力。例如,它將可以像人類一樣通過邏輯和推理來開拓出新領域、得到新知識。有人也稱之為「第四次」知識界限突破。
然而,這項尖端科技也引發了OpenAI內部員工的擔憂。據路透社消息,他們認為,公司尚未具備足夠的安全保障,來「商業化」這種先進的模式,因此它可能威脅人類。這項警告被認為是導致奧特曼解僱的最直接原因之一。
就在本月中旬召開的亞太經濟合作會議(APEC)工商領袖高峰會中,奧特曼還特地提到了新模型的製作,聲稱將使他們「揭開無知的面紗,推進發現的前沿」。
下面是Q*項目對人類構成威脅的潛在原因:
高階邏輯推理與對抽象概念的理解:目前網路上的所有報告都顯示Q*具有邏輯推理和理解抽象概念的能力。這是一個巨大的飛躍。迄今為止,還沒有任何AI模型能做到這一點。雖然在實踐層面上,這是一個突破,但它也可能導致人類無法預見某些不可知的行為或決策。
深度學習與程式設計規則:研究員卡拉諾夫斯卡(Sophia Kalanovska)向商業內幕(Business Insider)介紹道,Q*這個名字是Q-learning(一種強化學習AI)和a-star(一種智能搜索方法)的融合。她表示,新模型把深度學習與人類程式設計規則結合起來,會使其比目前其他任何AI模型都更加強大和通用。從本質上講,這可能導致該模型不僅從數據中學習,而且還能像人一樣應用推理,會使人類對其控制或預測變得困難。
發展新想法的能力:截至目前,AI模型主要是重複現有訊息,而Q*則是一個里程碑,它將能夠產生新想法並在事件發生之前就解決問題,或做出超越人類理解範圍的決策與行動。
意外後果與誤用:Q*功能也可能導致誤用或出現意外。一旦被壞人掌握,可能會為人類帶來滅頂之災。即使有人出於善意使用它,Q*推理和決策的複雜性也可能導致其對人類造成某種損害。
上述是基於網上對Q*相關問題的探討。這些擔憂強調,在開發先進AI時,人們必須深思熟慮,並需要一個強而力的道德和安全監督框架護航。