一群 OpenAI 前任與現任員工週二 (4 日) 發表公開信警示,人工智慧 (AI) 公司對 AI 的「嚴重風險」應該更加透明,同時應該保護 AI 風險舉報人。
OpenAI 的現任和前任員工在公開信中寫道:「公司有強大的商業利益動機來避免有效的監督,我們認為公司治理的客製化結構不足以撼動這一點。」
信中提到,AI 公司擁有大量非公開資訊,包括他們的技術可以做什麼,他們採取的安全措施的程度以及技術對不同類型傷害的風險水平。
信中內容還寫到:「我們也理解這些技術帶來的嚴重風險,從操縱到失去控制,即所謂的奇點,這可能會導致人類滅絕。這些公司目前只有微弱的義務與政府分享其中一些資訊,而沒有與民間社會分享。我們認為不能依靠他們自願分享它。」
這封信還詳述現任和前任員工對人工智慧產業舉報人保護不足的擔憂,並指出,如果沒有有效的政府監督,員工在追究公司責任方面處於相對獨特的地位。
公開信稱:「寬泛的保密協議阻止我們表達我們的擔憂,除非是那些可能未能解決這些問題的公司,普通的舉報人保護是不夠的,因為它們側重於非法活動,而我們擔心的許多風險尚未受到監管。」