本報北京4月4日電 (記者王政、劉溫馨)為規(guī)范人工智能科技活動倫理治理,推動人工智能產(chǎn)業(yè)健康發(fā)展,近日工業(yè)和信息化部等十部門印發(fā)《人工智能科技倫理審查與服務辦法(試行)》,提出建立和完善人工智能科技倫理標準體系,支持人工智能科技倫理審查技術創(chuàng)新,強化以技術手段防范人工智能科技倫理風險。
辦法提出,開展人工智能科技倫理審查,重點關注人類福祉、公平公正、可控可信、透明可解釋、責任可追溯、隱私保護等6個方面,包括人工智能科技活動是否具有科學價值、社會價值;訓練數(shù)據(jù)的選擇標準,算法、模型、系統(tǒng)的設計是否合理;是否合理披露算法、模型、系統(tǒng)的用途、運行邏輯等信息;是否采取充分措施確保隱私數(shù)據(jù)得到有效保護等。
(責任編輯:楊秀峰)