本站小編為你精心準備了人工智能犯罪的刑法應對參考范文,愿這些范文能點燃您思維的火花,激發您的寫作靈感。歡迎深入閱讀并收藏。
當前,人工智能正以其強勁的技術力量,推動社會形態和社會結構發生重大變革。2017年7月,國務院制定了《新一代人工智能發展規劃》,對我國人工智能的發展進行全方位謀篇布局。2017年10月,黨的明確提出把建設智慧社會作為加快建設創新型國家的重要內容。新型社會形態需要與其相匹配的法律制度,智慧社會已初具雛形,但與其相對應的法律制度卻尚未建立,由此導致社會治理的罅漏和遲滯。特別是,對于對人類社會安全存在潛在威脅的人工智能的“失控”行為,更需要制定現實性和前瞻性兼具的刑事治理對策。事實上,人工智能的出現和發展,正是社會學家烏爾里希•貝克所描繪的風險社會的一個縮影。因此,本文擬從風險社會理論的視角出發,剖析對人工智能犯罪追究刑事責任的困境,探究刑法應對人工智能挑戰人類生存安全問題的應然路徑。
一、人工智能風險刑法應對的合理性
人工智能,是通過計算機語言編寫的方式對特定對象的需求信息、數據結構、運行指令等進行處理,進而實現目標對象模仿人類做出類人反應的一種技術方法。人工智能的本質特征,在于能夠在深度學習的前提下自主地進行分析、判斷和決策。與前人工智能時代的產品相比,人工智能雖然亦以為人類的生產生活提供便捷幫助為出發點,但卻因其深度學習和以之為基礎的自主決策的存在,導致其設計和制造者以及使用者對其最終將作出何種行為難以做到充分的認知和絕對的控制。就此而言,人工智能與前人工智能時代的產品有著本質區別。根據烏爾里希•貝克、安東尼•吉登斯等社會學家提出的風險社會理論,不難發現,人工智能所隱含的風險其實是風險社會中新型風險的一個重要表現形式,因而可以適用刑法對風險社會風險的應對策略。一方面,人工智能作為一種新技術,其研究和開發均建立在人類決策基礎之上,符合風險社會之“風險”的人為性特征。關于風險與決策之間的關系問題,貝克曾指出:“風險總是依賴決策———就是說,它們以決策為前提。它們產生于從不確定性和危險向決策的轉變之中(并推動著決策的制定,這反過來又制造了風險)?!雹賹τ谌斯ぶ悄芴貏e是強人工智能(這種人工智能具有在深度學習后獨立而不受原始算法編寫者控制地作出判斷和決策的能力)而言,盡管直接作用于客觀世界的行為并非人類直接作出,也非直接按照人類特定的指令作出,但這卻不能否定人類決策對人工智能的行為具有根本性和決定性的影響。人工智能據以深度學習的原始算法由人類輸入,作為其深度學習內容的數據庫由人類提供,因此,盡管人工智能后續中可能習得新的算法,數據庫也會動態地發生變化,但是人類卻可以在源頭上控制其風險的發生。傳統刑法以人的行為為規制對象,這同樣適用于對人工智能行為的控制。因為人工智能的風險是否發生,可以通過人的行為進行控制。換言之,由人工智能潛在風險導致的實害結果能否發生,人的行為具有壓倒性、絕對性的影響。所以從調整對象的角度來看,刑法對人工智能的犯罪風險進行防控具有合理性。另一方面,人工智能經過深度學習后的潛在風險具有不確定性,是否具有導致實害結果的高度可能性、實害結果有何種程度的嚴重性等均難以為人類所準確認知。人工智能所潛隱的風險一旦引發實害結果,人類將面臨不可估量的災難。雖然人工智能開展深度學習最初的算法和數據庫由其設計和制造者決定,但是隨著其深度學習的進行,人工智能完全有可能學習和掌握新的算法,并且可以自主決定學習其他數據庫的內容,因此,人工智能最終影響和改變客觀世界的狀態,并不為人類所完全規劃和掌控。這種不確定性,正是現代風險社會的又一典型特征。吉登斯將這種現代性譬喻為一頭猛獸,并以生動的筆觸作了如下描述:“一個馬力巨大又失控的引擎,作為人類集體我們能夠在某種程度上駕馭它,雖然它咆哮著試圖擺脫我們的控制,而且能夠把自己也撕得粉碎。這頭猛獸壓碎那些敢于抵抗它的人,而且,雖然它有時似乎也有固定的路徑,但當它突然掉轉頭來時,我們就不能預測它飄忽不定的方向。駕馭它決不是完全令人掃興和毫無益處的,這個過程經常令人興奮異常,而且還充滿了希望。但是,只要現代性的制度持續下去,我們就永遠不可能完全控制駕馭的路徑或速度?!雹诤翢o疑問,人工智能強大的深度學習能力、獨立的自主判斷和決策能力,必將成為風險社會的又一頭猛獸。這頭猛獸,如果脫逸人類的控制,將對人類社會造成怎樣的危害,是難以預測的?!邦A防犯罪比懲罰犯罪更高明,這乃是一切優秀立法的主要目的。”③安全是人工智能時代的核心價值,人類如果等到人工智能風險引發實害結果后才考慮建立風險防范的法律制度,很可能導致風險失控的災難性后果。刑法作為人類社會安全的最后保障法,在防控人工智能犯罪風險的法律體系中,絕不能缺位。
二、人工智能犯罪主體的定位
(一)人工智能犯罪主體的定位之爭在未來的刑事立法中,人工智能能否被擬制為一種獨立于自然人和單位的新型犯罪主體的問題,是討論人工智能刑事治理的邏輯起點。只有明確誰應當對人工智能“失控”行為所造成的危害結果承擔刑事責任,才能夠以此為基準建立起對于人工智能犯罪治理的法律體系。然而,對這一基礎性問題,理論界卻存在著針鋒相對的兩種立場。一種立場可以歸納為“強人工智能犯罪主體肯定說”,即認為以人工智能產品是否具有辨認能力和控制能力以及是否能在人類設計和編制的程序范圍外獨立作出判斷和決策為依據,可以將人工智能產品分為強人工智能產品和弱人工智能產品,其中具有脫離程序的獨立意志的強人工智能產品,具有獨立的犯罪主體地位和刑事責任能力。①另一種立場則可以歸納為“人工智能犯罪主體否定說”,即全面否定人工智能被擬制為犯罪主體的理論自恰性,認為應當由人工智能產品的設計和制造者以及使用者承擔刑事責任,而不應將人工智能產品作為獨立的犯罪主體追究刑事責任。②上述第一種觀點在一定程度上可以防止技術發展的萎縮,同時填補了無法追究自然人或單位主體刑事責任情形下的法律漏洞,有其合理之處,但卻不當地降低了人工智能產品設計和制造者和使用者的注意義務。第二種觀點立足于人工智能的意志產生與設計和制造者、使用者為其提供算法和數據庫背后的意志之間的因果關系,抓住了人工智能與人類在善惡觀和倫理觀上所具有的本質差異,并敏銳地指出強人工智能犯罪主體肯定說為人工智能設計的新型刑罰的不可行性,但在論證方面尚需要進一步闡釋。
(二)應然定位:人工智能不應被擬制為犯罪主體盡管具有自主決定能力的人工智能,在某種程度上具有與人類相似的辨認和控制自身引發的客觀狀態的能力,但是這并不是刑法將人工智能擬制為犯罪主體的充分條件。筆者認為,即使具有嚴重社會危害性的狀態是人工智能在自主決定的情況下引發的,刑事責任的承擔主體也應是相關自然人或者單位,而不應將人工智能擬制為新的犯罪主體。首先,人類設計人工智能的目的,在于利用其在生產、生活、國防等領域代替人類從事一定的活動。人工智能并沒有獨立于人類的權利和價值,而只有利益附屬性。對此,即便極力主張法律應當賦予人工智能以權利主體的地位的學者,也不得不承認機器人的工具性價值決定其具有天然利他特性,在人為編程和算法的影響下,其本身亦難以產生利己主義的指令和行為。③法律對于權利主體的基本定位是理性人,利己性是對法律主體最基本的人性假設。盡管見義勇為等利他性行為為主流道德所提倡,但這些不需要對待給付的利他性行為通常不會被法律設定為義務。法人作為一種法律擬制的主體,其本身亦有獨立于其發起設立者、股東和高級管理人員等自然人的特殊利益,因此,將法人擬制為法律主體符合法律主體利己性的前提假設。從這一角度出發,人工智能并不具有可類比性。如果智能機器人不存在被賦予法律權利的前提卻需要承擔相應的法律義務,進而具有成為犯罪主體的可能性,這便導致法律權利與法律義務相對應的理論陷入自相矛盾。④基于權利與義務的對等性原則,如果將人工智能擬制為可以被追究刑事責任的獨立主體,則勢必要賦予其一定的獨立權利,而這顯然與人類研發人工智能的初衷背道而馳。其次,人工智能盡管在一定程度上具備辨認和控制能力,但是并不具備與人類完全相同的善惡觀、倫理觀,對其施以刑罰處罰也難以發揮刑罰預防犯罪的功能。認知以心智作為定義依據,人類的認知從低級到高級可以根據人類心智進化歷程,分為神經層級的認知、心理層級的認知、語言層級的認知、思維層級的認知和文化層級的認知等五個層級,而在這五個層級的認知活動中,當前人工智能的認知水平均與人類存在著不同程度的差異。①對幸福、痛苦和各種情緒的感受屬于最低階的神經層級認知,人工智能的認知水平與一些低級動物相比尚存在差距,與人類更不具有可比性。功利主義哲學創始人邊沁曾經提出“刑罰之苦必須超過犯罪之利”的罪刑相稱規則,認為只有抑制犯罪動機的力量超過誘惑動機,才能預防一個犯罪,也即刑罰作為一個恐懼物,必須超過作為誘惑物的罪行。②如果人工智能無法產生對觸犯刑法后將要接受刑罰處罰的恐懼感,那么刑法就無法實現特殊預防和一般預防的功能,只能以報應刑的方式一定程度上撫慰被害人,這顯然與現代刑法觀格格不入。有學者基于人工智能與自然人和單位的差異,提出對人工智能適用的刑罰種類之構想。③然而,無論是刪除數據,還是修改程序,抑或最嚴厲的永久銷毀,如果受罰主體缺乏對其意義的倫理感知,則與將其作為供犯罪使用的財物進行處置并無本質區別。最后,如果將人工智能視為獨立的犯罪主體并對其進行刑罰處罰,將會加劇風險社會下“有組織的不負責任”的狀態。風險社會下,工業社會中建構的明確責任和分攤費用的制度已經失靈,人們可以向一個又一個主管機構求助并要求其對此負責,但是這些機構卻能夠找到充分的理由為自己開脫,以表明自己與此毫無關系,或者自己只是個次要參與者。④如果將人工智能作為獨立于其設計和制造者以及使用者的犯罪主體追究刑事責任,而不對上述相關自然人或單位的注意義務進行嚴格要求,從而不對其追究刑事責任,必將陷入沒有適格的法律主體對事實上由自己創設的風險負責的怪圈,“有組織的不負責任”現象將進一步加劇,人類社會的安全將面臨無人負責的嚴峻挑戰。正如美國學者KowertWeston所言:“如果制造商不承擔責任,那么他們就失去了改進產品的動機。”⑤如果輕易豁免以人工智能設計和制造者為代表的主體的法律責任,那么在逐利性市場的引導下,人工智能所隱藏的風險將永遠不可能減少和消除,這顯然不利于對人類生存安全的保護。例如,當人工智能應用于軍事戰爭時,“軍事斗爭就變成了一群冰冷的卻又高度機械的廢鐵在人的支配下進行殘酷的殺掠”,⑥如果僅對軍事智能武器施加所謂的“刑罰”(事實上相當于處置犯罪工具),而不對其設計者、操縱者、控制者或命令下達者等自然人或單位追究刑事責任,那么軍事智能武器便成為戰爭發動者規避法律責任的盾牌,這顯然是保障功能的失靈。
三、風險社會下人工智能犯罪刑事責任的分配
(一)人工智能犯罪刑事責任的分配之爭基于對人工智能犯罪主體定位的差異,以及對保障創新和保障安全價值平衡結果的差異,對于人工智能犯罪的刑事責任分配問題,亦存在諸多爭議。對于完全按照人類設計的程序運行而缺乏獨立的分析和決策能力的弱人工智能而言,將其視為犯罪工具而對其設計和制造者、使用者追究刑事責任,這一點基本沒有異議。但是,對于在人類設計的算法基礎上進行深度學習而具有獨立于其設計和制造者、使用者的意志和分析決策能力的強人工智能,其能否承擔刑事責任、相關自然人或單位是否需要承擔刑事責任、相關自然人或單位能否與人工智能構成共同犯罪等問題,則學界分歧嚴重,難以達成共識。僅就人工智能的設計和制造者、使用者而言,其應當負有何種程度的注意義務,或曰在何種范圍內成立過失犯罪,以及是由設計和制造者、使用者等多個主體分擔責任還是由某個單一主體單獨承擔責任,則因論者的價值取向不同而存在觀點對立。然而,人工智能犯罪刑事責任分配問題,直接決定著人工智能“失控”行為所造成的危害后果的責任承擔主體,這將對風險社會下人工智能技術的發展方向起著至關重要的指引作用。
(二)應然定位:以風險防控為出發點分配責任風險社會中,面對伴隨新技術或新制度而產生的可能導致難以估量和控制其實害結果的風險,強化刑法的安全保障機能具有合理性和必要性。人工智能作為風險社會中重要的風險源,在對人工智能犯罪的刑事責任分配時,應當以防控風險為出發點,同時兼顧對科技創新的保障,準確厘定人工智能產品設計和制造者的刑事責任以及人工智能產品使用者的刑事責任。
1.人工智能產品設計和制造者的刑事責任在對人工智能產品的設計和制造者進行刑事責任分配時,應當堅持法益原則,并區分故意犯罪和過失犯罪。人工智能產品的設計和制造者的行為,并非實害結果發生最直接的原因,而是更加前端的原因,這是導致實害結果的風險的最初來源。對風險源的制造者即人工智能產品的設計和制造者追究刑事責任,是一種風險防控早期化的表現,體現了對風險防控的強化。以輸入的算法和用以深度學習的數據庫為分類依據,可以將人工智能產品分為用以實施犯罪活動的人工智能產品和非用以實施犯罪活動的人工智能產品。對于這兩種人工智能產品的設計和制造者的刑事責任承擔方式,應當有所區分。如果一個人工智能產品被設計和制造的用途就是實施恐怖主義犯罪,其設計和制造者為其輸入用以模仿實施恐怖活動的程序,并提供集合有組織地實施殺人、傷害、投毒、綁架等恐怖活動實例的數據庫供其學習,那么該人工智能產品的設計和制造者是明知自己的行為將導致社會公共安全受到侵害并引起民眾恐慌的結果,卻仍然實施設計和制造人工智能產品,顯然具有犯罪的故意,應當構成故意犯罪,且可以預備行為正犯化等立法模式達到法益保護前置化的目的,以更好地防控犯罪風險。但對于非用以實施犯罪活動的人工智能產品的設計和制造者而言,人工智能產品造成了嚴重危害社會的結果的發生,并非其在主觀上積極追求的,而是與其意志相違背的,只是由于人工智能產品被其他自然人或單位用于實施犯罪活動,或者人工智能產品存在設計缺陷,抑或人工智能產品經過深度學習掌握了新的算法進而在其設計和制造者設想之外引發實害結果,因而不能歸入故意犯罪的范疇。至于能否構成過失犯罪,則需要進一步探討。任何無瑕疵的技術本身原則上不應產生刑事責任,但是如果其主要用途是用以實施犯罪行為,那么技術中立原則不再適用,替代責任成為較為適宜的選擇。①如果非用以實施犯罪活動的人工智能產品被其他自然人或單位用于實施犯罪活動,追究相關主體刑事責任時應遵循替代責任的原則,其設計和制造者不應對沒有技術缺陷的人工智能產品承擔刑事責任。有論者在探討軍事智能武器相關主體的刑事責任時,提出應當對侵害人的生命健康權或者公共安全的軍事智能武器的設計者、操縱者、控制者、命令下達者等相關人員,以嚴格的無過錯主義原則追究刑事責任。②這一歸責模式,將對人工智能的設計和制造者科以過重的義務,極大地壓制技術創新活動,殊不可取。軍事智能武器可以用于發動侵略戰爭,也可以在對侵略者進行正當防衛和對潛在的侵略者進行震懾等方面發揮正面作用。如果因為軍事智能武器被其使用者實際用于侵略戰爭,就對其設計和制造者追究刑事責任,那么軍事智能武器在保障國防安全方面的價值就會被抹殺,軍工單位及其技術人員的創新積極性將會嚴重受挫。對于本身存在技術缺陷的弱人工智能產品以及經過深度學習后實施了偏離最初算法預設的行為的強人工智能產品而言,如果其導致了嚴重危害社會的實害結果發生,那么其設計和制造者則存在構成過失犯罪的可能性。對人工智能產品的設計和制造者設置刑法上的注意義務,是解決設計和制造者成立過失犯罪的范圍的關鍵。但對注意義務的來源問題,刑法學界卻存在著極大爭議。有學者以自動駕駛車輛犯罪為例,歸納出注意義務的來源:一是一般交通運輸管理法規,二是有關自動駕駛車輛的特別交通運輸管理法規,三是責任主體對產品的承諾與規范。①另有學者將注意義務范圍定位為符合依據人類現有科學技術水平所能夠企及的國家標準或行業標準,如果人工智能產品符合該標準,那么其導致的危險便不能歸入“不合理的危險”。②還有學者認為,包括ISO標準、DIN標準等在內的行業標準,屬于非國家組織制定的民間標準,既不一定與刑法上的注意義務相一致,也缺乏民主主義的正當性,不應作為注意義務的判斷標準。③對于人工智能產品的設計和制造者注意義務的確定標準,第一種觀點采取了“一般法+特別法+責任主體承諾”的模式,一方面強調了外在規范的民主性基礎,即應該上升到法律法規層面而非不具有官方性質的組織制定的標準,另一方面也強調了設計和制造者自己作出的高于國家標準的承諾所體現的對風險的實際預見能力所具有的法律意義,并且對倫理道德和職業道德予以考量。該觀點所確定的注意義務來源最為廣泛,考慮的因素也最為全面。但是,對于外在標準的范圍僅限于法律法規,而未提及由專家系統主導的更具有專業性、科學性的行業標準,也存在范圍過窄之嫌。第二種觀點將注意義務來源限定于國家標準或行業標準,而未將人工智能產品的設計和制造者自己實際能夠認識到的風險考慮在內,過分降低了注意義務的標準,忽略了已經預見而輕信能夠避免而構成過失犯罪的情形,不具有周延性。第三種觀點對以當前通行的行業標準作為刑法中注意義務來源的思路進行了批判,強調了兩者之間的差異性和后者應具有的民主性基礎。但這一觀點存在明顯的缺陷:行為人的預見義務應當包括法律、法令、職業與業務方面的規章制度所確定的義務以及日常生活準則所提出的義務,④而不僅限于由代議制機構制定的充分體現民主性的法律,以行業標準不具有民主性基礎否定其成為預見義務的來源的理由,不具有說服力。人工智能作為風險社會中一種重要的風險來源,刑事立法應當在防控風險時強調安全保障機能的發揮。人工智能產品的設計和制造者是風險的最初源頭,其以輸入算法和提供數據庫的方式作出的決策,對于人工智能后續深度學習和以為使用者提供服務的方式對客觀世界產生的影響所起的作用是決定性的,在對非用以實施犯罪活動的人工智能產品的設計和制造者設置注意義務方面,應當適度拓寬范圍,而不應過度限縮。只有當法律法規、國家標準和行業標準、責任人自我承諾、一般社會倫理、職業倫理等設定的注意義務均未違反,而是由人類認知水平確實無法達到的原因導致產品存在缺陷,進而導致嚴重危害社會的實害結果發生時,才可以阻卻設計和制造者的責任。另外,刑法不應僅立足于防控人工智能的風險,也應當以更好地推動人類社會進步為出發點適度地保障科技創新。為了避免刑法過度遏制人工智能技術創新,在對于存在過失的設計和制造者追究刑事責任時,應當以發生實害結果為前提,而不應該對一切在人類認知空白領域,或者雖不符合相關標準但是也未被證明其產品確會導致嚴重損害結果的設計和制造行為絕對禁止。
2.人工智能產品使用者的刑事責任當人工智能產品在運行過程中導致了具有嚴重社會危害性的結果發生時,依據人工智能產品的使用者所扮演的角色,在對其分配刑事責任時應當有不同的方式。當使用者是人工智能犯罪的被害人時,由于其使用行為并未對自身法益之外的其他法益造成破壞,不需承擔刑事責任。另外,對于使用者作為被害人存在過錯而減輕設計和制造者刑事責任情形的認定,不應過于寬泛,而應該將被害人未采取預防措施的情形予以排除。如果將未采取有效的防范措施作為被害人過錯,則意味著設計和制造者所研發的人工智能產品缺陷越大,被害人未采取與之匹配的有效防范措施的可能性越大,那么被害人存在過錯的可能性則越大,設計和制造者刑事責任降低的可能性越大,這顯然是一種悖論。當使用者將用于實施犯罪活動的人工智能產品按照其設定的用途來使用,或者將非用于實施犯罪活動的人工智能產品事實上用于實施犯罪活動時,使用者明知其使用人工智能產品的行為具有法益侵害性仍然希望或者放任這一結果的發生,明顯違背了國家鼓勵人工智能發展的初衷,應當對其故意犯罪追究刑事責任。當人工智能產品因存在當前人類認知水平下難以發現的技術缺陷而導致實害結果發生時,其使用者是否因存在過失而被追究刑事責任,應當依據使用者與人工智能之間的互動關系進行判斷。當使用者基于對人工智能技術的信賴,按照人工智能產品的使用規則,讓人工智能產品獨立完成某一任務而非與之一同完成時,不應認為使用者存在過失進而追究其刑事責任。風險社會下,“以懷疑或保留的態度為基礎,對技術知識的尊重通常與對抽象體系所持有的實用態度并存”,①但是不得不承認,非專業人士對專家系統這一抽象體系建立起普遍信賴是風險社會的基本特征之一。因此,如果對作為非專業人士的人工智能產品使用者設立過高的注意義務,無疑是與風險社會下專業化發展趨勢不符合的,違背了“法律不強人所難”的基本原則。但是,如果按照人工智能產品的使用規則,使用者與人工智能產品共同完成某項任務時引發了具有嚴重社會危害性的實害結果,那么使用者便應當在自身注意義務的范圍內承擔刑事責任。例如,自動駕駛汽車有不同的實現階段,當加速、控制方向盤、剎車等操作中有一個、數個或全部由系統掌控,但駕駛員仍應當承擔不同程度的駕駛任務時,此時的自動駕車系統分別可稱為“安全駕駛支援系統”和“準自動駕駛系統”。②在上述尚未實現駕駛任務完全不需要駕駛員承擔的情況下,將注意義務完全分配給自動駕駛汽車的設計和制造者并不合理。駕駛員如果有違反法律法規、職業倫理以及合同承諾等為其提出的注意義務,單獨或者與自動駕駛汽車的故障、缺陷等共同作用導致交通事故的發生,那么駕駛員作為人工智能產品的使用者也應在其注意義務范圍內承擔相應的刑事責任。
四、結語
智慧社會的建設以人工智能的發展為核心,而人工智能的發展如果缺少法律的規制,將可能誤入嚴重威脅人類生存安全的歧途。刑法作為人類安全的最后保障法,在對人工智能的發展進行法律規制時絕不能缺位。事實上,人工智能的出現和發展正是人類進入風險社會的一個重要表現,面對人工智能所隱藏的犯罪風險,刑法應當以應對風險社會新型風險的思路,以安全保障為首要價值選擇,同時兼顧創新保障,積極進行合理而有效的應對。包括刑法學界在內的整個法學界,對于人工智能的法律規制問題研究尚處于起步階段,在現在已有的研究成果中,將人工智能擬制為法律主體甚至犯罪主體的觀點不在少數。但是,這一立場的支持者并未認清人工智能并不存在獨立于人類的權利和價值,亦未準確把握人工智能在善惡觀、倫理觀層面的認知水平與人類存在的本質差異,輕率地將人工智能擬制為犯罪主體將進一步加劇風險社會中“有組織的不負責任”現象,不利于從源頭上控制不合理的風險。以防控風險為出發點,同時避免過度遏制人工智能技術創新,在排除了人工智能本身本擬制為犯罪主體的前提下,在對相關主體進行刑事責任分配時,應當注意區分不同的情形,以契合風險社會下社會發展的現狀和需求。在對人工智能產品的設計和制造者分配刑事責任時,應當以其研發的人工智能產品是否以用于實施犯罪活動為基本功能作為區分標準,判斷設計和制造者的罪過形式以及在何種情形下負有注意義務。在對人工智能產品的使用者分配刑事責任時,則應從其在人工智能產品引發具有社會危害性結果過程中所扮演的角色,對其罪過形式、何種情形下負有注意義務以及其行為對設計和制造者刑事責任的影響等進行判斷。
作者:葉良芳;馬路瑤