隨著人工智慧(AI)技術的飛速發展,其潛在風險也日益受到關注。一封由OpenAI、Google DeepMind以及Anthropic三大AI龍頭十多位現任和前任員工連署的公開信,揭露了AI產業內部的隱憂:員工擔心自己無法自由表達對AI威脅人類的擔憂,因為他們受到保密協議、缺乏舉報保護機制以及害怕報復的限制。
華爾街日報報導,這些員工呼籲AI公司建立員工安全揭露擔憂的管道,並允許員工將擔憂公開。他們指出,保密協議阻礙了員工公開討論相關問題。「最了解尖端AI系統運作方式和部署風險的人,卻不能完全自由地發聲」,簽署這封信的前OpenAI員工桑德斯(William Saunders)說。
自主AI系統失控 恐導致人類滅絕
除了桑德斯之外,還有六名前OpenAI員工,以及四名現任OpenAI員工、一名前DeepMind員工和一名現任DeepMind員工也簽署了他們的姓名,簽署者中有六人選擇匿名。
該信的簽名者表示,由於政府對AI公司沒有廣泛的監督,現任和前任員工是少數一些能讓公司承擔責任的人。他們說,他們擔心的問題之一是人類可能會失去對自主AI系統的控制,進而導致人類滅絕。信中還要求公司允許員工匿名舉報問題,不對舉報人進行報復,不強迫簽署可能會讓他們保持沉默的協議。他們希望AI公司更加透明、注重保障措施。
三位頂尖的AI專家也表支持,包括羅素(Stuart Russell)以及被稱為「AI教父」的本吉奧(Yoshua Bengio)和辛頓(Geoffrey Hinton)。辛頓去年離開Google,以便能更自由地討論AI風險。
OpenAI回應稱,他們同意該有政府監管,強調會在發布技術之前,先創建必要的安全保障,並已設有匿名的誠信熱線,且成立了由包括執行長阿特曼(Sam Altman)領導的安全委員會。然而,連署員工認為,公司在開發AI技術的競賽中無視風險,希望AI公司更加透明、注重安全保障。DeepMind和電商龍頭亞馬遜支持的Anthropic暫未回應。自由時報0605