AI向善:何為善、如何為
近些年來,我國人工智能相關技術和產(chǎn)業(yè)發(fā)展迅速,對經(jīng)濟社會和人的全面發(fā)展帶來巨大影響,關于AI向善問題引起全社會高度關注。廣義的“善”是諸多社會科學研究的立意和主題,技術是否向善,根本在于是否促進經(jīng)濟發(fā)展、社會進步和民眾幸福,也就是能否增進人類福祉。社會科學能夠深刻洞察并前瞻性地審視人工智能是否向善發(fā)展,可以從理念、評價標準、實現(xiàn)路徑和行為主體等維度,為此議題提供獨特的學術貢獻,讓我們更有能力從資源配置效率、社會福利損益、財富公平分配、公眾意愿感知評測以及維護社會和諧等方面判斷AI之善惡,為促進AI向善發(fā)揮重要作用。
何為善:社會科學的視角
長期以來,關于AI向善的討論已經(jīng)很多,理念上的共識度相當高。諸如安全性、透明性、非歧視、可解釋、可追溯、公平公正、包容開放、尊重隱私、共享利益、以人為本、人類控制等理念不斷被重復討論,但對于如何實現(xiàn)、誰來執(zhí)行這些“善”落地的討論較為不足,缺少一般性、穩(wěn)定性和可度量性。這個問題需要更多放到社會科學知識體系內(nèi)進行深入討論。
合理是善,即高效配置資源、增加社會福利和公平分配。經(jīng)濟學將“合理”定義為資源配置效率提高、社會福利增加與相對公平分配,前者可用全要素生產(chǎn)率、收入增長等衡量,后者可用基尼系數(shù)等衡量。以此為標準,AI在提升全要素生產(chǎn)率和促進社會福利增長等方面有明顯貢獻,體現(xiàn)了技術的合理之善。經(jīng)濟學為實現(xiàn)合理之善指明了路徑與主體:讓市場在AI相關領域發(fā)揮配置資源的決定性作用,這決定了企業(yè)是核心行為主體。同時,市場的有效運行離不開平等競爭、公平準入等良好環(huán)境,因此必須健全并完善市場規(guī)制。從公平分配角度看,AI目前尚存在“不善”影響:一方面財富更加集中在創(chuàng)新成功的少數(shù)人手中,另一方面AI產(chǎn)生的替代作用主要影響中低收入群體。解決這個問題,既需要AI企業(yè)的努力,也需要政府更好發(fā)揮作用,在以替代勞動為主要效果的AI技術應用和AI新創(chuàng)就業(yè)機會之間保持必要的平衡,并在完善長期社會保障制度方面更好地履行政府責任。
用益是善,即提供超出GDP邊界的消費者獲益。有些技術進步的收益無法用標準意義上的GDP增長來衡量,卻能帶來大量消費者剩余或稱之為用益,通俗地講就是給人民群眾帶來便利、幸福等諸多獲得感,AI技術在這方面的表現(xiàn)極為突出。首先,AI帶來了便利之善?;诰W(wǎng)絡、AI模型和智能體的大量自助服務為使用者帶來很大便利,卻并沒有產(chǎn)生可以計入GDP的經(jīng)濟行為,相反卻替代了原先可以計入GDP的服務,如自助訂票取代了訂票服務、免費網(wǎng)絡信息取代報刊訂閱、電子郵件取代郵寄信件等。文化領域尤為典型,娛樂平臺與生成式AI極大便利了消費,但市場規(guī)模并未同步增長。其次,AI帶來了平權之善。AI將海量普通消費者帶入原本只有高收入和高知識群體才普遍擁有的消費領域和創(chuàng)意領域。比如,在文化消費領域,文字閱讀能力差的消費者可以選擇讓AI提供或生成圖像和視頻等形態(tài)豐富的文化產(chǎn)品;在文化創(chuàng)意領域,普通人也能將靈感轉(zhuǎn)化為文化產(chǎn)品并與人分享。用益之善以免費、自娛、互助等方式呈現(xiàn),無法用GDP增長或收入增加來衡量,但可通過條件價值評估法(詢問愿意支付多少)或意愿價值評估法(詢問放棄用益需補償多少)來測算。有研究表明,低收入者獲得的用益相對其收入的比例要顯著高于高收入者,表明AI確有平權和提升低收入者福利之善。但是,用益方面也存在“不善”影響。有些帶來一時心理愉悅感的消費會造成深層、長期的身心損害,例如沉溺網(wǎng)絡游戲、厚重的信息繭房導致認識受限等。對此,技術持有方和使用方應有克制和自律的責任,沒有應對之策就不要輕易做出這些不善之舉,發(fā)現(xiàn)不良后果就要以技術之力加以約束限制,這就如同產(chǎn)品生產(chǎn)者負有產(chǎn)品質(zhì)量責任,不能出售危害健康和危及生命的產(chǎn)品。同時,還需要政府與社會協(xié)同給予應對處置。對那些全社會有共識的“惡”——如挑戰(zhàn)人類價值觀底線、侵害個人隱私、宣揚恐怖主義等言行或內(nèi)容——公權力部門就要進行強力處置。
合意是善,即科技長期后果的社會共識度和接受度較高。社會科學多個學科都有關于“合意”的研究,例如社會學視閾中的社會共識代表著一種較高程度的社會合意。這里,我們將“具有最大公約數(shù)的社會共識和由此決定的社會團結(jié)”定義為合意,并用合意性來討論AI時代的科技倫理問題??萍紓惱韱栴}久已有之,但在AI時代特別突出,其性質(zhì)有根本變化。過去我們講科學是“發(fā)現(xiàn)自然規(guī)律”,那些都是自然秩序中內(nèi)生之規(guī)律,是自然界萬億年間各種力量博弈和演進形成的規(guī)律?,F(xiàn)在AI努力構建自然界和人類社會演進中并不存在的狀況,創(chuàng)造新的秩序,不少探索意在改變?nèi)祟愖匀粻顩r或者人類社會狀況。此種情景下,人類對某種科學發(fā)展方向是否認同就變得很重要,這就是合意性。當科學家們試圖改變經(jīng)千萬年演進形成的人類特征和自然規(guī)律時,公眾必須知情和參與,表達合意與否。這種討論或許難以用類似意愿價值評估法來推進,往往需要公共透明開放的集體性磋商??茖W家有責任向公眾說明其全部可能后果,而不僅僅講其有利之處,同時允許全社會進行充分討論,形成具有最大公約數(shù)的社會共識。各方充分表達并持續(xù)博弈才能找到合意性的趨近路徑和現(xiàn)實位置,不能聽由技術邏輯成為主導因素。
機制探討:各方協(xié)作促進AI向善
AI之善不會自動發(fā)生。向善的激勵來自何方?機制如何設計?實踐表明,與“向善”相容的激勵機制和導致“不善”的因素在多個層面都存在,AI時代“不善”和“向善”的力量都與之前有所不同,“向善”既需要自我約束也需要社會約束。
第一,AI創(chuàng)新與生產(chǎn)者的“向善”激勵相當顯著而且有效。AI需要非常大規(guī)模的應用,如果其“善”得不到社會共識甚至被指為“不善”,是不可能被很好地長期應用的。全社會對AI安全和倫理問題的高度關注,給企業(yè)和創(chuàng)業(yè)者帶來了無處不在、強大且持續(xù)的壓力與價值觀導向。信譽維護要求生產(chǎn)者“向善”,被社會認為“不善”時需要快速回應調(diào)整。從這個角度講,“向善”激勵機制在這個時代是泛在而強大的。
第二,分布式治理是AI向善的治理特色。AI和數(shù)據(jù)產(chǎn)業(yè)與以往產(chǎn)業(yè)最重要的不同是應用的場景化。過去市場資源配置是一對一的,但AI時代的資源配置是簇群式、場景化的,我們將其定義為分布式資源配置。在分布式資源配置中,利益和理念相關者針對特定場景結(jié)成共同體,市場和社會主體自主選擇特定交易與合作對象。并且,每個場景都有自身的規(guī)則,例如平臺有各自的交易規(guī)則、退貨規(guī)則、違規(guī)懲罰規(guī)則等,規(guī)定了何為本場景中的“善與不善”,也就是參與者能做什么不能做什么。參與者遵循這些規(guī)則,使這些共同體同時具備了治理功能,這可以稱之為分布式治理。
第三,公權力的治理必不可少。有些后果嚴重的“不善”不能交給市場和社會博弈,而是應由政府明確“不得為”的負面清單。例如,不得未經(jīng)用戶同意侵犯用戶隱私,不得發(fā)布虛假信息、恐怖主義、仇恨言論等。要讓市場和社會治理有效,政府最重要的職能就是強制公開透明。一方面,企業(yè)必須讓消費者可以清晰看懂用戶協(xié)議,協(xié)議細節(jié)的公開透明非常重要;另一方面,凡是與人類自身和人類社會相關的創(chuàng)新,提供者要向社會和公眾講清楚在做什么以及可能的后果。此外,政府發(fā)布指南和優(yōu)秀案例、批評不當做法、約談相關企業(yè)等,這些都對AI向善有顯著引導作用。
?。ㄗ髡撸航′?,系中國社會科學院大學教授、國家數(shù)據(jù)專家咨詢委主任委員)
責任編輯:孟媛