在算法決策的時代,法律如何定義邊界?當人機交互變得日益復雜,責任歸屬該如何界定?從自動駕駛歸責到AIGC內(nèi)容風險,從個人隱私保護到算法公正透明,我們必須面對技術(shù)革命帶來的法律困境。技術(shù)與倫理的平衡點在哪里?未來法律的變革方向是什么?

4月20日,第七季“三聯(lián)·新知大會”的首場活動“未來契約:AI時代的法律刻度”在三聯(lián)韜奮書店美術(shù)館店舉辦。中國社會科學院文化法制研究中心研究員周輝、北京大學法學院副教授戴昕、清華大學公共管理學院副教授陳天昊和對外經(jīng)濟貿(mào)易大學法學院教授張欣等法學專家深入探討了AI時代的法治問題,剖析如何構(gòu)建一個既能促進創(chuàng)新又能守護人類核心價值的法律框架。

第七季“三聯(lián)·新知大會”的首場活動“未來契約:AI時代的法律刻度”活動現(xiàn)場(主辦方供圖)。

法律怎樣定義算法?

活動現(xiàn)場,周輝從算法的概念談起,“簡單來說,算法就是為了讓電腦來解決問題而設(shè)計出來的一套計算方法,這是當前的數(shù)字時代或者是AI時代的一個場景的界定。但在早期時代,算法更多的是用來解決具體的算術(shù)問題,從特定條件得出相應(yīng)的結(jié)果。到了近代,尤其是討論到AI早期的一些概念——涉及圖靈機以及我們現(xiàn)在信息通訊技術(shù)的發(fā)展,使得我們對算法的理解,可能相對感覺會更加復雜。到了大數(shù)據(jù)時代,基于這種技術(shù)的復雜性,相應(yīng)的展示過程和呈現(xiàn)結(jié)果更加多樣性,才有了現(xiàn)在受到關(guān)注的‘算法黑箱’、透明度等問題。我們開始需要去追問:為什么在這套算法下會得到這樣的結(jié)果?”

周輝說,2023年以來OpenAI帶來生成式AI,算法在人工智能項下又有了新的要素,“我們要擁抱AI,適應(yīng)以生成式人工智能帶來的新質(zhì)生產(chǎn)力的發(fā)展給社會帶來的機遇,和可能面臨的挑戰(zhàn)。算法在推進AI擴展,先進的算法會推進AI進步和社會福利的增加。比如算法的改進,可以減少訓練大模型所需要的算力、時間,甚至有可能節(jié)省對數(shù)據(jù)的需求。在這種情況下,考慮人工智能的發(fā)展,同時也要考慮算法如何給它一個更好的發(fā)展和創(chuàng)新空間。特別是算法的科學性,會影響算法的準確性和速度?!?/p>

周輝指出,法律關(guān)注的是社會關(guān)系的調(diào)整,算法所處的無論是數(shù)字時代還是人工智能時代,使得這種連接更廣泛,產(chǎn)生區(qū)別于物理空間的線上空間的新型聯(lián)系?!叭绻蜷_自己常用的生活類App,無論購物、刷短視頻還是看一些資訊等等,在目前這種算法已經(jīng)廣泛滲透在各類應(yīng)用的場景下,每個人看到的內(nèi)容可能都是有差別,不同的。從傳統(tǒng)的互聯(lián)網(wǎng)經(jīng)濟、數(shù)字經(jīng)濟到現(xiàn)在的AI經(jīng)濟,可能來自商業(yè)模型的屬性,算法在商業(yè)模型上發(fā)揮很大的作用?!敝茌x表示,算法可以把一些閑置資源更好地調(diào)動起來,“當然從法律的視角下,還會考慮算法能不能在相應(yīng)的社會問題治理中發(fā)揮積極的作用,對于公共信息的傳播、觸達以及對于應(yīng)急事件的處理,怎么樣通過社交平臺快速地傳達給需要接收到相關(guān)信息的用戶,其實背后也是需要算法的計算和資源的匹配?!?/p>

那么,法律怎樣定義算法呢?周輝表示,不同的法律有不同的概念,“《中華人民共和國個人信息保護法》最早觸達算法概念是自動化決策,可能面向大數(shù)據(jù)殺熟的問題。自動化決策并沒有完全被否定,而是說自動化決策需要滿足法律要求的規(guī)則?!痘ヂ?lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》對應(yīng)用算法推薦技術(shù)做了法律界定,強調(diào)利用生成、合成不同類的算法技術(shù)向用戶提供信息。除此之外,其他規(guī)定里也有一些關(guān)聯(lián)的相關(guān)要求。周輝認為,在平臺、算法部署和用戶感知之間,平臺扮演著很重要的治理角色:首先,有直接的技術(shù)觸達力和對平臺內(nèi)資源的調(diào)配的能力;第二,通過算法的應(yīng)用,對所關(guān)聯(lián)的社會主體和經(jīng)濟業(yè)態(tài)產(chǎn)生社會影響力;第三,有技術(shù)團隊,可以在一定程度上找到算法的Bug;第四,平臺也可以通過用戶協(xié)議收集相應(yīng)的用戶數(shù)據(jù)、生態(tài)數(shù)據(jù),這些都會具體影響到算法的質(zhì)量和算法相應(yīng)的效果。

算法透明的挑戰(zhàn)何在?

“在我們談算法治理的時候,最重要的一點就是算法的公開透明。”張欣以“算法透明的迷思與制度建構(gòu)”為題進行了分享。張欣曾在《算法解釋權(quán)與算法治理路徑研究》一文中對算法透明的問題進行了探討,在張欣看來,制定制度要討論立法的必要性、正當性和可行性,其中有幾個問題:算法透明為什么是重要的?為什么算法透明是大家的共識?步入大模型時代,算法透明的挑戰(zhàn)何在?

張欣表示,人們之所以不害怕人類的決策,而對算法做出的決策感到恐懼、焦慮,是因為面對傳統(tǒng)人類決策的時候,我們可以非常快速地找出決策主體,但算法做出決策不為我們所知曉,且通常跟人類的決策混在一起。同時,我們已經(jīng)在長久的時間以來創(chuàng)建出了一整套面對人類決策的知情、異議、救濟等程序,但在面對算法時,我們需要進行一系列的更新、升級、換代,把傳統(tǒng)的面向人類決策的一整套信譽機制、權(quán)力救濟機制等,在算法時代進行正當程序的轉(zhuǎn)換和升級?!霸谕该鞯臓顟B(tài)下落到法律的層面,就出現(xiàn)了第一個非常重要的權(quán)利——算法解釋權(quán)?!睆埿辣硎荆谶@之中存在很多爭論,并不是所有的學者都同意算法解釋權(quán)。這很可能需要的是算法問責的一整套機制。

接下來,算法透明何以實現(xiàn)呢?張欣指出,算法大模型透明有很多挑戰(zhàn):首先是技術(shù)復雜性和黑箱的問題;第二是知識產(chǎn)權(quán)和商業(yè)秘密保護的問題;第三是數(shù)據(jù)隱私和安全的問題;第四是模型的動態(tài)性和持續(xù)演化;第五是全球科技博弈的白熱化,使得全球監(jiān)管開始呈現(xiàn)碎片化。而這些問題,都是算法透明需要面對和解決的挑戰(zhàn)。但與此同時,張欣認為,“雖然算法透明治理可能面臨重重挑戰(zhàn):技術(shù)黑箱、商業(yè)機密的壁壘高筑,數(shù)據(jù)隱私與安全的紅線不容逾越,統(tǒng)一標準的建立更是步履維艱。但算法透明絕非僅僅是一個技術(shù)性或合規(guī)性的議題,它本質(zhì)上關(guān)乎社會的核心話題:信任。我覺得,算法透明不是一項簡單的技術(shù)工程或者治理任務(wù),它其實是關(guān)乎整個未來價值選擇和社會構(gòu)建的過程?!?/p>

探討技術(shù)與人文的平衡之道

據(jù)悉,第七季“三聯(lián)·新知大會”將持續(xù)至4月27日。4月23日,中國社會科學院研究員呂鵬、中國人民大學副教授董晨宇和抖音內(nèi)容策略運營經(jīng)理李曉涵等專家將聚焦算法在社會生活中的運作機制?!皵?shù)據(jù)驅(qū)動的算法能夠?qū)崟r監(jiān)測社會輿情,并據(jù)此調(diào)整管理策略,這既帶來效率提升,也可能引發(fā)新的社會問題?!贝藞龌顒又校c會嘉賓們將對算法是否制造了“信息繭房”、平臺對網(wǎng)暴與謠言的應(yīng)對策略,以及用戶與推薦系統(tǒng)的真實互動模式等問題展開討論,探討技術(shù)與人文的平衡之道。

神經(jīng)網(wǎng)絡(luò)如何模擬人腦學習?大模型用什么“語言”思考?AI與人類思維有何本質(zhì)差異?這些問題不僅關(guān)乎技術(shù)進步,更直接影響我們的就業(yè)選擇、信息獲取甚至思維模式。4月25日,中國科學院計算機網(wǎng)絡(luò)信息中心首席科學家廖方宇,香港科技大學(廣州)講席教授、協(xié)理副校長熊輝,中國科學院計算技術(shù)研究所高級工程師尹芷儀等計算技術(shù)專家將深入淺出地解析AI背后的算法原理,追溯算法發(fā)展,并展望其未來發(fā)展方向。

最后一場活動將于4月27日舉行,中國社會科學院財經(jīng)戰(zhàn)略研究院研究員李勇堅,中央財經(jīng)大學中國互聯(lián)網(wǎng)經(jīng)濟研究院教授歐陽日輝,抖音應(yīng)用算法負責人冉蛟將深入探討算法對經(jīng)濟的深遠影響。研究顯示,AI技術(shù)正在創(chuàng)造新型就業(yè)崗位,如數(shù)據(jù)科學家、算法專家等,同時也在重塑傳統(tǒng)行業(yè)。此場活動討論將從量化高頻交易切入,分析算法如何重構(gòu)市場機制;聚焦AI帶來的就業(yè)變革,探討工作崗位替代與新職業(yè)形態(tài);剖析算法推薦對消費行為和財富分配的影響,以及大模型與推薦算法的融合趨勢。

記者/何安安

編輯/張進

校對/趙琳