《日經新聞》週五報導,日本政府希望今年晚些時候釋出 AI 指導方針,期望排除可能與 AI 有關的偏見和其他濫用行為,敦促企業披露用於訓練生成式 AI 程式的數據類型,確保企業保持透明度,但日本的 AI 指導方針不具有法律約束力。
歐盟正計劃為 AI 制定詳細規定,嚴格界定從開發者到用戶的法律責任。在美國,Google 在內的 7 家 AI 開發企業已承諾,將負責任地開發 AI 技術,白宮正在積極制定一項「管理 AI 使用」的行政命令。
不過,日本政府態度相對開放,考量生成式 AI 的發展速度,目前僅打算提供規範,供企業在開發和使用生成式 AI 時使用。
日本政府為了鼓勵採用這些指導方針,將建立一種認證,證明公司正在遵循最佳實踐,政策制定者還設想要求企業在競標政府合約時遵循這些方針。
據報導,日本經濟產業省和總務省將與約 100 名專家合作,制定日版指導方針,供各部門參考。
據了解,該指導方針草案分為兩部分,第一部分包含適用於所有企業的一般規則。本節包括指導操作員意識到生成式 AI 程式的錯誤訊息或偏見風險的原則,企業將開發遵守法治並考慮人權的服務,並敦促管理人員建立內部風險管理結構。
第二部分則針對五類企業的具體規則。五類企業分別是:為生成式 AI 開發基礎模型的企業、使用數據訓練 AI 的企業、系統開發商、服務提供商和使用 AI 服務的公司。
負責 AI 開發和機器學習的運營商應保持一定程度的透明度,披露其 AI 項目所涉及的功能、目的和風險。
披露指南也將適用於為機器學習收集的數據類型。了解原始數據的性質將有助於 AI 服務提供商更好地決定是否採用某個程式。這些披露還將有助於調查與 AI 程式有關的任何問題。日本政府將探索使用外部審計,以確保企業保持透明度。