中國發布《新一代人工智能倫理規范》 融入人工智能全生命周期
中新網北京9月25日電 (記者 孫自法)中國國家新一代人工智能治理專業委員會9月25日發布《新一代人工智能倫理規范》,旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關活動的自然人、法人和其他相關機構等提供倫理指引。
同時,增強全社會的人工智能倫理意識與行為自覺,積極引導負責任的人工智能研發與應用活動,促進人工智能健康發展。
《新一代人工智能倫理規范》第一條即開宗明義:本規范旨在將倫理道德融入人工智能全生命周期,促進公平、公正、和諧、安全,避免偏見、歧視、隱私和信息泄露等問題。
該倫理規范明確提出,人工智能各類活動應遵循增進人類福祉、促進公平公正、保護隱私安全、確保可控可信、強化責任擔當、提升倫理素養等六項基本倫理規范。
人工智能特定活動應遵守的倫理規范包括管理規范、研發規范、供應規范和使用規范共18項具體倫理要求,管理規范包含推動敏捷治理、積極實踐示范、正確行權用權、加強風險防范、促進包容開放;研發規范包含強化自律意識、提升數據質量、增強安全透明、避免偏見歧視;供應規范包括尊重市場規則、加強質量管控、保障用戶權益、強化應急保障;使用規范包含提倡善意使用、避免誤用濫用、禁止違規惡用、及時主動反饋、提高使用能力。
其中,加強風險防范方面,增強底線思維和風險意識,加強人工智能發展的潛在風險研判,及時開展系統的風險監測和評估,建立有效的風險預警機制,提升人工智能倫理風險管控和處置能力。
保障用戶權益方面,在產品與服務中使用人工智能技術應明確告知用戶,應標識人工智能產品與服務的功能與局限,保障用戶知情、同意等權利。為用戶選擇使用或退出人工智能模式提供簡便易懂的解決方案,不得為用戶平等使用人工智能設置障礙。
組織實施上,《新一代人工智能倫理規范》自公布之日起施行,并根據經濟社會發展需求和人工智能發展情況適時修訂。(完)