在信息技術背景下,伴隨著人工智能和大數據的飛速發展,智能算法在社會各個領域得到廣泛應用。算法技術不僅為政府、企業和公眾帶來了良好的生活體驗,而且大大提升了經濟生產效率和效益。然而,智能算法的廣泛應用也帶來了一系列社會治理問題,需對此作出積極應對之策。
當前,人工智能算法面臨四大風險。第一,資本與技術壟斷帶來的數據安全風險。當今社會是信息社會,數據是信息與算法的基礎。少數資本和科技頭部企業不僅掌握著億量用戶的基礎數據,而且通過運用算法技術對用戶行為進行長期跟蹤和深度分析。一旦數據泄露,可能侵犯公民隱私安全。此外,大型跨國公司的數據跨境流動,可能帶來海量數據和重要數據出境后的安全風險,甚至可能威脅國家安全。第二,算法的專業性和隱蔽性極易導致算法的濫用風險。算法作為時下風行的一種技術手段,大多涉及技術創新和知識產權。對算法的監管力度不足將導致一些企業為了實現商業利潤最大化而濫用算法技術。例如,各種商業平臺的大數據“殺熟”技術,就是利用大數據計算客戶的行為偏好,從而針對同一產品制定出差別化的價格。第三,因監管制度缺失而引發的未知風險。目前,我國與算法監管相關的法律法規主要有《網絡安全法》《電子商務法》和《民法總則》等。這些主要是對互聯網外部法律秩序的規范,而對作為網絡內部規則的算法不夠明確,對算法治理主體的權利和責任劃分尚不明晰。加上算法技術的專業性、復雜性、隱蔽性和高科技性等特征,往往導致算法監管和問責的難度極大,從而容易引發算法操縱、算法偏見等未知的風險。第四,算法在輿論領域的廣泛應用可能影響受眾認知。智能算法在網絡的廣泛應用,主要體現在精準推送上。“精準推送”的信息往往更加關注個體用戶的偏好,而非信息本身的公共價值,單一精準的推送極易導致人們形成單向度思維觀念。
為了有效應對智能算法面臨的風險,我們亟須從法律、行業管理和技術創新等層面對算法進行規制。
一是加快智能算法領域的立法進程。首先,要明確算法相關責任主體的權利和義務。秉持誰應用誰負責的態度,明確算法研發主體和應用主體的責任清單。其次,針對算法引發的倫理和法律問題,建立和完善審查機制。2018年5月生效的歐盟《一般數據保護法案》,給予用戶申請基于算法得出結論的解釋權。美國紐約州針對算法歧視問題于2017年通過了《算法問責法案》。這些案例為我國建立健全智能算法應用方面的法律法規提供了有益借鑒。
二是優化智能算法領域的行業規范。行業自律與規范是行業管理的重要手段。一方面,應建立行業規范管理標準。目前,國內人工智能領域缺少統一、規范的行業準則。企業應積極借鑒國內外經驗,提出可行方案,不斷加強行業自律。另一方面,可以通過建立算法行業協會,管理和規范企業、行業行為。
三是加快推進算法設計的優化與技術進步。應加快推進人工智能算法設計中的因果推斷研究,構建算法研發者、數據科學家、人文社科工作者以及相關領域專業技術人員之間的多方合作,以實現技術與人文因素的良性互動。除此之外,智能算法可與區塊鏈技術相結合,借助區塊鏈的透明性、即時性來改善智能算法的黑箱操作困境,從而使智能算法更為科學合理,更好地為人類服務。
總而言之,我們必須從實際出發,準確把握算法技術發展趨勢,綜合評估算法技術帶來的風險,多方位、多層次加強對智能算法的規劃和引導,提升智能算法的社會經濟效益,降低安全風險和隱患。
(本文系教育部重大課題攻關項目“積極參與全球治理體系改革和建設研究”(20JZD057)階段性成果)
(作者單位:華東政法大學中國法治戰略研究中心)
來源:中國社會科學網