人工智能下刑事風險與刑法應對思考
時間:2022-03-05 11:42:03
導語:人工智能下刑事風險與刑法應對思考一文來源于網友上傳,不代表本站觀點,若需要原創文章可咨詢客服老師,歡迎參考。
【摘要】當前,人工智能技術的出現給人類生活帶來了很多便利,從客觀層面來看,有效推動了經濟社會的快速發展與進步,但同時也帶來了很多刑事風險。鑒于此,本文從回歸自然人刑法主體角度進行深入探討,首先分析人工智能時代下可能出現的刑事風險,最后提出人工智能時代下刑法的應對措施,以此確保社會與人工智能之間可以健康發展。
【關鍵詞】人工智能;刑法風險;刑法應對
一、時代背景與問題描述
20世紀50年代人工智能的概念被正式提出,但是由于當時互聯網技術發展得還不夠成熟,大多數科研人員對人工智能機器進行大膽的設想,沒有得到社會大眾的廣泛關注。如今,人工智能技術處于初級發展階段中,技術本身的不成熟必然會帶來很多復雜性的問題。由此在刑事風險中所展現出的人工智能犯罪給傳統刑事風險帶來了新挑戰。從客觀層面來看,對人工智能的刑事風險展開評估工作,有利于規范人工智能的整體發展,有效降低刑事風險的發生率。
二、人工智能時代下的刑事風險
簡單來看,人工智能存在的刑事風險是指人工智能實施的犯罪行為。從當前人工智能所實施的犯罪行為類型來看有三大類:第一類以人工智能本身作出的犯罪行為明確指明對象;第二類是利用人工智能的優勢作出犯罪行為,人工智能在某一方面中成為了犯罪工具;第三類為人工智能沒有做到安全生產、規范管理的義務犯罪。總體來說,人工智能所實施的犯罪行為,如果是行為人利用人工智能實施違法行為則屬于故意犯罪,而因科研人員沒有做到安全生產、管理人工智能導致犯罪行為的發生,則屬于過失犯罪。(一)弱人工智能時代可能面臨的刑事風險當前,弱人工智能不具備良好的控制與辨認能力,且設計者在編制程序過程中經常會把使用者的自我意識與判斷決策作為重點考慮因素,從而將人工智能當做一種“工具”。從工具的角度來看,人工智能產品已經運用到各個社會生活領域之中,如醫療衛生、家庭生活、會計金融等。行為人直接對人工智能本身作出破壞,從而導致犯罪行為的發生。在弱人工智能處于信息化發展階段中,其所運用到的運算推理等能力都可以依靠計算機來實現,并使整個系統可以保存大量的數據與信息。犯罪分子在對人工智能機器實施犯罪時,必然會對社會造成嚴重的危害。例如犯罪分子會采利用人工智能機器程序來破壞證券交易市場的信息,進而操控證券市場,導致社會經濟秩序出現混亂與崩潰。第二,行為人利用人工智能產品特點直接作出犯罪行為。這種犯罪最顯著特征就是把人工智能當做“工具”。在人工智能技術快速發展中,犯罪工具所表現的犯罪行為也會隨著進步,且犯罪手法也會變得更加高級。從國家發展利益、公共安全等方面來看,一些恐怖分子會充分利用人工智能產品在公共場所中制造一些類似于爆炸等恐怖活動,且在制造過程中恐怖分子只需通過遠程操作人工智能就可以達到危害社會的犯罪目的。犯罪分子還可以利用人工智能產品獲取他國的機密信息,擾亂他國的社會治安。在互聯網快速發展背景下,大數據基本包含了很多人們的隱私信息,而犯罪分子想要竊取這些信息非常容易,只需要利用人工智能就可以實現,最終順利實施犯罪行為。此外,人工智能可以在某些方面中成為一種高級的犯罪工具,幫助犯罪嫌疑人銷毀有效證件,從而降低犯罪的難度,讓整個國家、社會處于一種動蕩不安的發展狀態。(二)強人工智能時代可能面臨的刑事風險隨著科學技術的快速發展,人工智能也會存在一定的自我意識,且辨認能力和控制能力也會進一步增強。在強人工智能產品中,關于刑事風險和刑事責任的問題必須要深入探討與研究。強人工智能產品的程序設置在某些方面中會對社會公民造成嚴重的危害。特別是把強人工智能作為一種工具必然會在沒有強烈的自我意識下,很可能被犯罪分子利用做出嚴重的犯罪行為,這與弱人工智能相比所產生的刑事風險有著很大的相同之處。因此,強人工智能所具備的辨認能力和控制能力一旦超出程序設置,就需要依靠獨立的自我意識來控制犯罪行為的發生,進而減小刑事風險的發生率。第一,強人工智能在受到良好的自我意識控制下依然會做出犯罪行為。當前刑法缺乏一個重組的解釋空間,沒有針對自我意識進行良好規制。強人工智能產品所作出的損害行為是否屬于刑法層面的犯罪行為,需要進一步深入分析與探討。此外,刑法對犯罪主體進行了明確規定,必須要做出危害社會的行為,且要承擔相應的刑事責任。因此,從刑法相關規定來看,對人工智能的違法解釋依然存在很多不足之處,強人工智能產品需要完全依靠自我意識做出違法損害行為,這在刑事法律中很難找到合理的解釋與依據。第二,從我國刑法內部結構來看,刑法在某些方面中存在一定的沖擊矛盾。而在人工智能的快速發展下我國刑法中相關內容面臨著重大風險。首先,從犯罪主體層面來看,我國相關學者針對人工智能產品能否成為刑法的法律主體提出了兩種觀點:一是人工智能所擁有的辨認能力和控制能力都是由自然人賦予的,是在自然人存在的基礎上做出的違法行為,不應該被視為犯罪主體;另一個觀點是在未來人工智能產品發展中,很容易出現不受程序所控制的現象,憑借自我意識來做出一些犯罪行為,而這應該被視為獨立犯罪主體。從社會發展逐漸變復雜化來看,未來人工智能產品很有可能表現的自我意識屬于刑法中的犯罪主體。其次,從刑事責任體系來看,刑事責任能力是指行為人因構成犯罪需要承擔的刑事責任,而行為人需要從刑法層面上判斷、控制、辨認自己的行為。當人工智能產品被認為是刑事法律主體,并具備獨立的編制程序的辨認能力與控制能力時,人工智能產品就具備一定的刑事責任能力。人工智能一旦實施違法行為就需要承擔刑事責任,從而影響現行的刑事責任體系。
三、人工智能時代的刑法應對
隨著人工智能時代的到來,必然會出現一定的刑事風險,并使犯罪的危害性發生“量變”,從而導致一些新的犯罪形式出現。目前,我國刑法對人工智能的研發者和使用者的行為提出了一些規制要求,且從故意犯罪和過失犯罪兩個方面來深入探討人工智能產品的研發者或使用者來承擔相應的刑事責任。當前,在面對人工智能時代出現的刑事風險,需要對刑法做出一些修正與完善。第一,從源頭控制刑法風險的發生,增設濫用人工智能罪。濫用人工智能行為已經完全觸犯了人類社會安全問題,刑法需要對這些行為作出一些規制。嚴格規范人工智能產品的研發者和使用者的行為。第二,嚴格確立刑事責任,增設人工智能事故罪,在研發過程中需要將人類社會的法律、道德規范等融入刑法系統之中,而研發者和使用者需要在研發過程中履行保護數據的義務。第三,將智能機器人的行為納入到法律行為的范圍之中,并賦予人工智能刑事責任主體的地位。
四、結語
由人工智能技術所產生的刑事問題與風險,是當前必須要解決的一個首要問題,并應當采取有效措施積極應對。當前,大多數人們普遍認為人工智能是由人類控制的一種工具,不需要考慮機器人所實施的刑事犯罪問題。而筆者認為,在確立人工智能相關刑事立法過程中,需要將科學發展、人類利益作為重點考慮因素,盡快將為人類社會的人工智能產品納入到刑法規范之中,并嚴格依照現實需要來彌補刑法內容的缺陷。為人工智能技術的發展提供一定的法律保護,推動人工智能為人類社會做出更大的貢獻。
參考文獻:
[1]龍慧,朱定局,田娟.深度學習在智能機器人中的應用研究綜述[J].計算機科學,2018(11):43.
[2]王肅之.人工智能犯罪的理論與立法問題初探[J].大連理工大學學報(社會科學版),2018(4):56-57.
[3]李振林.人工智能刑事立法圖景[J].華南師范大學學報(社會科學版),2018(6):128.
[4]劉憲權.人工智能時代的刑事風險與刑法應對[J].法商研究,2018(1).
[5]張明楷.刑法學(第五版)[M].北京:法律出版社,2016:270,276-277,289,289.
作者:王先春 單位:海南師范大學
- 上一篇:刑法視野下計算機網絡犯罪思考
- 下一篇:中國違憲審查制度分析