防範AI災難?OpenAI招聘新任「準備主管」應對未來重大風險

正當全球對人工智慧(AI)的潛力既感興奮又感焦慮之際,開發出ChatGPT的科技巨擘OpenAI正悄悄展開一場特殊的人才招募,尋找一位全新的「準備主管」(Head of Preparedness)。根據The Financial Express報導,這個位於舊金山、年薪高達55萬美元外加股權的職位,任務相當艱鉅:專門應對來自最前沿AI模型可能引發的災難性風險。

這項招聘行動的背後,是連OpenAI執行長Sam Altman本人都公開承認的憂慮。他在社群平台X上坦言,伴隨模型能力不斷躍進,它們正開始帶來一些「真正的挑戰」。 Altman點出,AI對心理健康的潛在衝擊在已初見端倪,同時更先進的模型甚至已開始能發現電腦系統中的嚴重安全漏洞,這一切都讓AI的雙面刃特性愈發明顯。

根據Analytics Insight引述的職位描述,這位準備主管將主導OpenAI內部的「準備框架」(Preparedness Framework),這是一套為了識別、評估並減輕先進AI系統相關風險而設計的流程。 具體工作內容橫跨研究、工程與政策等多個領域,要求負責人建立能力評估機制、打造威脅模型,並設計出能與AI技術同步擴展的安全措施。

OpenAI在其官方發布的準備框架中,詳細闡述了他們關注的幾大「災難性風險」類別。 其中最引人注目的領域包括網路安全、生物與化學武器潛在威脅,以及AI系統失控的「自我完善」能力。 該框架的目標是在模型被部署到真實世界前,就透過嚴格的內部審查,確保有足夠的防護措施來將潛在的嚴重傷害降至最低。

近期的資安事件或許更凸顯了這份工作的急迫性。根據The Times of India報導,OpenAI的競爭對手Anthropic不久前便揭露,有與國家關聯的駭客利用其AI編碼工具,對全球約30個組織發動攻擊,目標涵蓋科技、金融甚至政府機構。 這類事件證實了許多專家的擔憂:AI正同時為網路世界的攻擊方與防守方「超級充電」,軍備競賽已然升級。

除了外部威脅,內部團隊的穩定性也是OpenAI面臨的挑戰。Engadget的報導提到,OpenAI的安全團隊在過去幾年經歷了多次人事變動。 前任準備主管Aleksander Madry已於2024年7月被調離原職,後續接手的幾位高層也相繼離開該團隊或公司,顯示出在這個高速發展的領域中,尋找並留住能應對巨大壓力的人才並非易事。

Altman也直言不諱地形容這是一個「壓力極大的工作」,獲聘者幾乎「一上任就得直接跳入深水區」。 理想的候選人不僅需要擁有機器學習、AI安全或相關風險領域的深厚技術背景,還必須能在充滿不確定性的環境中,針對高風險決策做出清晰且果斷的技術判斷。

這項招聘行動不僅僅是OpenAI一家公司的內部事務,更反映了整個AI產業對於如何負責任地發展強大技術的集體焦慮。 當AI的能力邊界以驚人速度向外擴張時,如何建立一套有效的「煞車系統」與「防護網」,確保這項革命性技術始終為人類福祉服務,而非帶來無法挽回的災難,已成為所有頂尖實驗室都無法迴避的核心課題。


相關報導:financialexpress.comengadget.com