OpenAI開出「風險應變主管」職缺 年薪55.5萬元+股票
聊天機器人ChatGPT開發商OpenAI願意支付55.5萬美元年薪外加股票報酬,聘請一位主管,專門負責減輕AI帶來的負面衝擊。
儘管高薪誘人,但要承擔的職責可不小,因為AI有許多負面衝擊,包括導致就業機會流失、假訊息、惡意人士濫用、環境破壞,以及人類逐漸喪失自主行動力等等。
OpenA執行長奧特曼(Sam Altman)上周六在社群平台 X 貼文中,形容這份工作「壓力山大」(a stressful job)。他寫道:「你幾乎會立刻被丟進泳池深水區(意指要獨自應付一個棘手且困難的環境)。」
奧特曼說,「風險應變主管(Head of Preparedness)」這個職位「會在重要時刻扮演關鍵角色」。
他寫道:「模型正在快速改善,現在已能做到許多厲害的事情,但同時也開始帶來一些重大挑戰。在2025年,我們就已初步看到模型對心理健康可能產生的影響;而現在,模型在電腦安全領域的能力也變得如此先進,甚至開始自行發現關鍵漏洞。」
奧特曼說:「我們在衡量模型能力成長方面已具備穩固基礎,但正邁入一個需要更細緻理解與評估的新階段,不僅要了解這些能力可能如何被濫用,也必須思考如何在產品層面及整個世界中限制其負面影響。」
ChatGPT帶動AI聊天機器人在消費市場迅速普及,許多使用者利用這項技術來查資料、撰寫電郵、規劃旅行,或完成其他簡單任務。
然而,也有部分使用者將聊天機器人當作心理諮商的替代方案,這在某些情況下反而加劇心理健康問題,包括助長妄想與其他令人憂心的行為。
OpenAI在10月表示,正與心理健康專家合作,改善ChatGPT在面對出現精神病症狀、自殘傾向這類令人擔憂行為的使用者時的互動方式。
OpenAI最初核心使命,是以造福全人類的方式發展AI,因此一開始就將安全機制視為營運核心的一環。然而,隨著產品逐步推出、以及獲利壓力增加,一些前員工表示,公司開始將獲利置於安全之上。
曾領導OpenAI安全團隊(現已解散)的萊克(Jan Leiki)去年5月在X上宣布辭職並同時發出批評,公司已偏離確保技術安全部署的使命,「打造比人類更聰明的機器,本質上就是項危險的事。OpenAI正代表全人類承擔極其重大的責任。但在過去幾年裡,安全文化與流程卻被光鮮亮麗的產品擠到一旁。」
不到一周後,另一名員工也在X上宣布辭職,也提出同樣的安全疑慮。前員工Daniel Kokotajlo在2024年5月的一篇部落格文章中表示,他辭職是因為「對公司在通用人工智慧(AGI)出現前後是否能負責任行事,逐漸失去信心」。
OpenAI的前任「風險應變主管」Aleksander Madry去年7月轉任新職。這一職位隸屬於OpenAI的安全系統團隊,負責為模型建立防護機制、框架與評估制度。這份工作的年薪為55.5萬美元,另加股票報酬。
職缺說明顯示:「你將直接負責領導並協調能力評估、威脅模型與緩解措施,打造一套一致、嚴謹且可在營運上擴展的安全流程體系。」

FB留言