劉艷紅:人工智能法學研究的反智化批判

選擇字號:   本文共閱讀 200 次 更新時間:2020-08-27 18:28:43

進入專題: 人工智能   法學研究   反智化  

劉艷紅  

   作者簡介:劉艷紅,東南大學法學院教授,博士生導師,教育部“長江學者獎勵計劃”特聘教授。

   內容提要:人工智能技術熱潮的再度興起,使得人工智能法學研究空前繁盛,但當前研究出現了違反人類智力常識的反智化現象。概念附會現象嚴重,不少成果只是基于“AI+法律”的任意性組合,“泛人工智能化”研究正在產生大量學術泡沫;制造人工智能研究中的“假問題”或誤將司法適用問題當作人工智能法學研究中的元問題,理論創新方向值得懷疑;將對策與科技問題當作理論與學術問題,離開法教義學的基本立場與方法,使得人工智能的研究日益滑向不可知論。人工智能并未對法律基礎理論、法學基本教義提出挑戰,受到挑戰的只是如何將傳統知識適用于新的場景。法學研究應該避免盲目跟風,走出對人工智能體的崇拜,回歸學術研究的理性軌道。

   關 鍵 詞:人工智能法學/反智化/法教義學

   標題注釋:本文系國家社科基金重大招標課題“大數據與審判體系和審判能力現代化研究”(項目批準號:17ZDA131)、東南大學人民法院司法大數據研究基地暨江蘇高!扒嗨{工程”以及東南大學2019年中央基本科研業務費課題“大數據時代審判體系和審判能力現代化的理論基礎與實踐展開”(項目批準號:2242019S10003)的階段性研究成果。

   20世紀七八十年代,人們曾一度對人工智能的研究充滿熱情,但隨著真正有用的AI法律程序未能面世,這種熱情被漫長的挫敗感沖淡。而如今人工智能技術再次“引起了越來越多的興奮和焦慮……涉及人工智能的未來圖像在大眾媒體中日益流行”。①在這種氛圍的籠罩下,我國法學理論和實務界也對人工智能(機器人)保持著巨大的好奇,對法律引導人工智能發展的技藝充滿著強烈的自信。不可否認,為包括人工智能在內的一切技術問題設計法律規則,是法律人不可推卸的時代使命,因而這種研究風潮是“法學作為致用之學”的當然表現,一切“熱衷”似無可厚非。但也正因為法學研究本應具有觀照現實的特性,這要求我們時刻注意合理選擇參與前沿技術討論的現實契入點,在正確理解人工智能技術應用場景的前提下確定法學研究的問題意識,避免盲目追求“時髦”的學術虛假繁榮。以刑法學為例,或許得益于國家《新一代人工智能發展規劃》的政策信號,本領域內的研究成果從2017年開始呈現爆炸式增長,“人工智能刑事責任論”等儼然成為最為耀眼的知識增長點。面對席卷而來的人工智能法律問題的法學研究,面對“定分止爭”的法律本性,不得不讓人產生懷疑:法律學者們是否已經找到了規制AI技術發展的理性方向?當前的熱烈研究究竟能走多遠,它究竟只是“先一哄而上再一哄而散”還是能夠持續到強人工智能到來之日?空前興盛的人工智能法學是否積累了有助于學科發展的智識,抑或僅僅是法學理論工作者們為了追蹤熱點并出于各自目的比如引用率高低等而亦步亦趨的“學術秀”?對此,筆者將審視當下人工智能法學研究的格局及其問題,并在此基礎上就其發展進路談幾點看法。

  

   一、人工智能法學研究中的概念附會

   當前法學界存在無處不在的“人工智能+”,在人工智能的大招牌之下開啟了各個論域的話題研討新模式。究竟什么才是人工智能?學者們所言的人工智能只是借用了一個似是而非的流行語以吸引閱讀興趣,還是它確實挑戰了千百年形成的法律知識體系?通過觀察可以發現,人工智能其實并沒有取得如此巨大的飛躍,一些所謂的“人工智能法學”研究題目僅僅是在“順勢包裝、借殼上市”,這種“盛名之下,其實難副”的概念附會已經吹起了不少學術泡沫。

   人類最初在制造計算機之時就已幻想能夠研發出會思考的機器,那時人們無法給予它一個特定的可理解的準確稱謂,因而便將之命名為“Artificial Intelligence”,簡稱AI,以表明其不同于人類自然智慧的人工智慧。迄今為之,科學家們也給它撰寫過不同的定義,甚至用各種思想實驗如著名的圖靈測試、中文房間理論等驗證這種人工智能存在與否。筆者不想詳細列舉這些定義,事實上關于計算機科學、哲學、法學等學科內的很多基礎概念都沒有取得過一致的意見;蛟S如美國最高法院大法官斯圖爾特曾說的那樣,我們難以成功描述這些概念如無法定義什么是淫穢物品,但“當看到它時我就知道了”。②然而,當人們因自身的不求甚解而誤解研究對象時,準確提煉出相關概念的核心要素就顯得十分必要,畢竟不同定義之間還存在著相當的共識。整體而言,人工智能概念核心要素自20世紀50年代產生以來就是恒定的,人們尚沒有超脫對AI的原始認知——像人類一樣理性地思考和行動。這并不是說人工智能系統的智力水平與人類持平,事實上人類在很多方面也早已大大超越了這個目標,而是涉及一些像人類一樣能夠“自主的選擇和決定:自我管理”!白灾骰蜃灾(源自希臘語auto:自我,nomos:法律)與自動化不同,自動化是指由一臺機器不斷重復一個過程。自主則要求……AI可以作出自我的選擇,即便它在作決定時與人類有過互動”。③可以說,“機器是否具有自動化”是一種外部信號反射式的事實判斷,而“機器是否具有自主性”則還涉及自然科學之外的關于機器是否具有自我意志和自我行動能力的“(類)人性”判斷。有鑒于此,有學者認為一個可被稱為“智能”的實體應至少具有五個基本構成屬性:①溝通交流能力,即能夠與人類或其他物種相互動,這并不單單代表著智商水平而是一種社會交際潛能;②內部知識,即對自身的認知,它等于“自我意識”,一個有智慧的實體應該知道自己的存在、自己以某種方式運作、將自己融入現實等;③外部知識,即關于外部世界和真正現實的數據收集分析能力,這是人類累積生活經驗的方式,也是人類學習的方式,如果把任何事件一次又一次地當作全新的,那么就很難表現得像一個有智慧的實體;④目標驅動行為,這指的是一種意圖,它制定和執行計劃來實現相關目的;⑤創造能力,即指找到新的理解或行為方式的能力,反復嘗試完全相同的行為并不是創造力的表現。④所以,真正的人工智能是極為復雜的,認定條件也頗為苛刻,這些定義標準限制了概念上的泛人工智能化。

   反觀我國法學界,很多學者常常將人工智能要求的“自主性”與尋常的“機械自動化”相互混淆。例如,致力于人工智能法學研究的學者大多以“機器人傷人事件”等為起點,比如2015年德國大眾汽車制造車間內發生的所謂“首起機器人殺人案”。但是,本案中產生故障的機器人只是普通機械設施,它根本沒有獨立思考的能力,它之所以會殺死這名工人,是因為觸發了該設備的自動處理程序;它只是自動化的普通機器,遠沒有達到所謂人工智能的水平。與無處不在的生產責任事故相比,該事件也沒有本質不同,無非該設備的自動化系統更為精密而已。如果說這也能夠成為人工智能法學研究的問題來源,那么可能早在工業革命推廣開來之時就該去研究“人工智能”了,或許農業社會耕田的拖拉機傷人也該劃入人工智能法律問題的話題范圍了。生活經驗常識告訴我們,任何機器都會存在風險,即便一把毫無自動性的菜刀在人類不當使用時也會劃傷手指。以所謂的“機器人殺人案”導出人工智能的發展風險,進而得出應追究人工智能之物法律責任的觀點,⑤是對人工智能根本性的誤解和非常低級性的錯誤。那些討論對機器人追究刑事責任的學者可能忘記了刑罰的功能,“在判處刑罰的情況下,法官對再犯罪可能性的預測不可能是絕對準確的,犯罪人的行為態度、規范意識等也是不斷變化的,因此,刑法特別規定了減刑制度與假釋制度”。⑥針對機器人,這些刑罰制度顯然沒有任何意義,刑罰的報應或者預防目的也都無從實現。

   再如,銀行的自動取款機是為了節省人工成本而發明的旨在引導人們從銀行自助取款的機器,雖然它也被叫作“自動柜員機”,但它只是銀行人類柜員的一種替代設施,它只有自動化而沒有自主性。但是,有學者在人工智能中討論利用拾得或盜竊他人銀行卡在ATM機上取款等案件的處理,將之歸入“人工智能作為侵財對象的侵財犯罪”,并以此提出了“人工智能時代侵財犯罪刑法適用的困境”問題。事實是,中國第一臺ATM機早在1987年就已經啟用,它與人工智能之間沒有絲毫關系!巴ㄟ^ATM機實施侵財犯罪”“機器能否被騙”等話題根本不用借助于所謂的人工智能就已被討論過了,當法學重要期刊上的論文將ATM機、手機銀行、支付寶第三方支付平臺等統統納入人工智能范疇時,恰恰表明概念附會的嚴重性已經到了讓人失去底線的地步。果真如此,我們這個人口大國的人工智能普及率早已世界遙遙領先。ATM機、手機銀行、支付寶等可能會出現系統故障,但它們并沒有社會溝通能力、創造能力,它們也沒有自主性;我們對它們的應用再熟悉不過,常識告訴我們,這種研究正是泛人工智能化的突出表現。

   綜上可見,我國人工智能法學研究中存在著明顯的概念附會,將不屬于人工智能的研究對象強行貼上人工智能的標簽,相關研究演變為“AI+法律”的任意性組合,不少研究者只是打著人工智能的旗號攫取話語權、提升自我身價,法學家們一夜之間變成了人工智能專家,仿佛讓自然科學家都望塵莫及。這種“泛人工智能化”不是真正的學術研究,而是制造學術泡沫。

  

   二、人工智能法學研究中的偽問題替代真問題

   “問題意識”是一個常談常新的話題,提出正確的問題是任何研究過程的開端,如果沒有針對真實的問題進行討論,即使論述再精妙、方法再多樣、觀點再前衛、著述再等身,都只是徒有一身浮華的外表,根本不具有任何實際意義。當前法學研究中,應特別注意甄別“偽問題”。尤其在“亂花漸欲迷人眼”的人工智能領域,問題意識更具有欺瞞性,一些法學家似乎總能夠發現連科學家都難以察覺的“宇宙級難題”,可靜心觀察就會發現不少問題的討論意義僅僅在于占領了更多期刊版面而已,所謂的理論創新可能只是一場空歡喜。

   其一,不斷制造、跟風、放大“假問題”,導致法學研究誤以人工智能發展中的夸張、炒作、娛樂為前提。我國人工智能法學研究主要始于學者們對人工智能技術的各種憂患意識:人工智能的發展前景不可限量,必然會出現具有自我意志的(超)強人工智能,人工智能甚至可能會取代人類、機器算法會取代人類法律;人工智能引發的風險足以產生毀滅性打擊,因而主張法律甚至刑法應積極應對和規制人工智能的發展,等等。這種“居安思!薄拔从昃I繆”的精神確實讓人感佩,可是這些憂慮只是依靠無數假想拼湊起來的幻影,只是在用別人的“噱頭”嚇唬自己。

例如,世界上第一個獲得公民資格的表情機器人索菲亞,在2017年10月被沙特阿拉伯授予公民身份之后,尤其它曾在與設計者漢森的對話中冒出一句“我想毀滅人類”,法學家們開始變得躁動不安。不少學者將索菲亞的公民身份作為一種AI技術發展的國家制度回應,視之為AI挑戰現行法律體系的范例以及檢驗某個法律人格理論是否合格的試金石,認為法律若不承認機器人的法律主體地位就不能滿足這種社會現實。然而,索菲亞早已遭到包括人工智能科學家在內的各方觀察者的極大懷疑:“索菲亞之于AI,就像變戲法的之于真正的魔法,我們把它稱作‘AI崇拜’‘假冒AI’或者‘遠程操控AI’可能比較好!雹咚^具有公民身份的索菲亞不過是一個公關噱頭而已,而不是人性、尊嚴或人格的展現!啊浴瘜傩缘乃鞣苼喚烤鼓芟碛心男嗬,還真不好說。因為在事發地點沙特,女性連單獨駕駛權都未得到法律認可!雹鄬τ谶@樣一個女性只配擁有有限權利的國家來說,索菲亞更像是一個營銷玩物。這種以國家權力為支撐的機器人營銷策略淡化了沙特在婦女權利方面的不光彩記錄,其實索菲亞主要的新穎性在于身體和面部表情,而不是它的會話方式、主體認知或智能程度,“當以真實的人類互動標準來衡量時,它便倉皇失措、‘智商不在線’”。⑨其實,類似于索菲亞的人形機器人在世界范圍內還有很多,它們之所以不被人們津津樂道,是因為它們的包裝實力不及索菲亞。(點擊此處閱讀下一頁)

    進入專題: 人工智能   法學研究   反智化  

本文責編:陳冬冬
發信站:愛思想(http://www.fetgub.tw),欄目:天益學術 > 法學 > 憲法學與行政法學
本文鏈接:http://www.fetgub.tw/data/122661.html
文章來源:《東方法學》2019年第5期

0 推薦

在方框中輸入電子郵件地址,多個郵件之間用半角逗號(,)分隔。

愛思想(aisixiang.com)網站為公益純學術網站,旨在推動學術繁榮、塑造社會精神。
凡本網首發及經作者授權但非首發的所有作品,版權歸作者本人所有。網絡轉載請注明作者、出處并保持完整,紙媒轉載請經本網或作者本人書面授權。
凡本網注明“來源:XXX(非愛思想網)”的作品,均轉載自其它媒體,轉載目的在于分享信息、助推思想傳播,并不代表本網贊同其觀點和對其真實性負責。若作者或版權人不愿被使用,請來函指出,本網即予改正。
Powered by aisixiang.com Copyright © 2020 by aisixiang.com All Rights Reserved 愛思想 京ICP備12007865號 京公網安備11010602120014號.
工業和信息化部備案管理系統
广东快乐10分平台