人工智能侵權責任研究(人工智能引發的侵權責任問題目前解決方案)
人工智能侵權責任是如何認定的
人工智能應用范圍的日益普及,其引發的侵權責任認定和承擔問題,是對現行侵權法律制度提出的又一個新的挑戰。
“從現行法律上看,侵權責任主體只能是民事主體,人工智能本身還難以成為新的侵權責任主體。即便如此,人工智能侵權責任的認定也面臨諸多現實難題。”在清華大學法學院教授程嘯看來,侵權發生后,誰是人工智能的所有者,就應當由誰負責,在法律上似乎并不存在爭議。“然而人工智能的具體行為受程序控制,發生侵權時,到底是由所有者還是軟件研發者擔責,值得商榷。”
與之類似的,當無人駕駛汽車造成他人損害侵權時,是由駕駛人、機動車所有人擔責,還是由汽車制造商、自動駕駛技術開發者擔責?法律是否有必要為無人駕駛汽車制定專門的侵權責任規則?這些問題都值得進一步研究。
“現實中,人工智能侵權責任的歸責原則,可能更多涉及危險責任或無過錯責任。”程嘯認為,例如無人駕駛汽車致害,無論從產品責任還是機動車交通事故責任上看,都可以適用無過錯責任。但未來需要考慮的是,人工智能技術的運用,其本身是否屬于高度危險作業(如無人機),從而決定了是否適用高度危險作業致害責任。
“當前,人工智能侵權責任中的因果關系、過錯等要件的判斷也變得日趨復雜。”程嘯還舉例說,此前曝光的一些APP“大數據殺熟”和“算法歧視”,由于代碼的不透明,加之算法本身的自我學習和適應能力,使得“將算法歧視歸責于開發者”變得很困難。

從L2到L3級,擋在自動駕駛跨級之間的究竟是什么?
近段時間,隨著長安UNI-T、廣汽新能源Aion LX、奧迪A8L等的推出,諸多品牌宣布旗下車型已經能夠應用L3級自動駕駛技術,但由于法律法規的尚未成熟,各套頂尖的自動駕駛技術只能以“閹割版”的形式出現在目前的在售車型上。
“L2級汽車自動駕駛輔助系統,在某些情況下可以控制轉向和制動、加速。人類駕駛員必須一直監控駕駛環境,并執行與駕駛相關的其他任務;L3級汽車自動駕駛系統,可以在某些情況下執行所有駕駛任務。在這些時候,人類司機必須在自動駕駛系統的要求下做好奪回控制權的準備。”
從L2級自動駕駛技術與L3級自動駕駛技術的界定上不難看出,L3級的關鍵點在于“執行所有任務”。但在《中華人民共和國公路法》《中華人民共和國道路交通安全法》《中華人民共和國道路交通安全法實施條例》等法律法規中,許多適用于傳統汽車的規定則不適用于L3級自動駕駛。
例如,《道路交通安全法實施條例(2017)》第62條規定駕駛員不得有“撥打接聽手持電話、觀看電視等妨礙安全駕駛的行為”,也不得“連續駕駛機動車超過4小時未停車休息”。但對于L3級自動駕駛車輛的“人類駕駛員”而言,接聽電話、觀看電視并不會妨礙駕駛安全。
換句話說,除去自動駕駛相關設施的建設外,我國現階段的相關法律法規仍無法匹配高度智能的L3級自動駕駛技術。但從國際角度來看,目前已經有多國對自動駕駛技術出臺了多項法案,并放寬了自動駕駛技術的測試權以及應用場景。那么,這些法案對我國的自動駕駛法律法規制定是否有借鑒意義?自動駕駛相關法規的背后究竟還存在哪些問題?
01 自動駕駛法律框架的“國際成熟度”
從時間線上來看,2016年3月,聯合國對于《維也納公約(道路交通)》中自動駕駛汽車的修正案正式生效,其中明確:在符合聯合國車輛管理條例或者符合自動駕駛的情況下,自動駕駛技術可以被應用到交通運輸當中。這一規則修改相當于承認了自動駕駛的合法身份,《維也納公約》的修訂也為先進駕駛輔助系統及自動駕駛技術的應用消除了法規障礙。
隨后,美國政府于同年出臺了《聯邦自動駕駛汽車政策》,這對于自動駕駛汽車的發展具有里程碑的意義。該政策鼓勵各州允許其獨立監管高度自動化駕駛機動車(HAV)技術的應用和性能方面的標準制定。
據不完全統計,截至目前,美國有23個州出臺了關于自動駕駛的53部法案。2016年底,密歇根州通過的最新法案不僅承認自動駕駛的合法性,還允許傳統車企和科技型公司在州內的任何路段開展車輛共享等商業運營服務。同時,如果自動駕駛車輛通過該州的測試和認證,是被允許出售給消費者的。這一法案旨在促進州內企業智能汽車的研究和開發工作。
2017年7月27日,美國眾議院一致通過兩黨法案《自動駕駛法案》(Self Drive Act),將首次對自動駕駛汽車的生產、測試和發布進行管理。此部法案或將是美國第一部加速自動駕駛車輛上市的美國聯邦法律,具有標桿性的價值和意義。
除了美國外,歐盟也于同期發布與自動駕駛相關的法案。2017年5月,德國聯邦參議院發布法案,允許自動駕駛汽車在公共道路上測試,在自動駕駛車輛可以自行操控轉向盤以及制動的情況下,駕駛員可以手離轉向盤,上網、瀏覽郵件皆被允許。
可以看到,在歐美各汽車大國中,自動駕駛的法律框架已經達到了一定的成熟度,關于測試車、商業運營、消費者使用等方面均進行了詳細闡述。
02? 自動駕駛立法的“四大關鍵項”
綜合美國、歐盟等地對智能汽車自動駕駛技術的立法進程,可以清晰地看到,智能汽車與自動駕駛技術的立法要著眼于4項關鍵制度的確立,分別為道路測試制度、保險金制度、運行報告制度和信息安全制度。
1.道路測試制度。智能汽車在測試過程中,對道路的選擇及道路設施的搭建應有法律法規進行相關規定的支撐,以保證測試過程的有序開展和順利進行。該制度應要求測試道路的條件可以滿足智能汽車基本場景的測試,如車道內直線行駛、變更車道、超車、自動緊急制動以及紅燈時停車等情景。在道路測試過程中,應及時記錄車輛工況、車輛V2V與V2I的交互等情況,根據以上數據,進一步進行智能汽車的改進工作。
2.保險金制度。自動駕駛的事故責任界定一直都是立法的難點,因此會導致賠償遲滯,車險方面的難題阻礙著智能汽車的發展。保險規則要首先解決受害者的賠償問題。智能汽車在自動駕駛模式下發生事故后,受害者將在第一時間獲得保險公司的賠償,隨后再解決責任歸屬問題。公司可以向具體的事故責任方要求相應的損失賠償。這既不會因為責任人難以確定而無法歸屬法律責任,又不會因為法律責任過多而打擊研發者與消費者的積極性。
3.運行報告制度。車輛管理部門對智能汽車運行狀況進行監管,確保車輛、車內外人員的安全,決定著智能汽車的發展與革新。基于此,車輛運行報告制度成為立法的關鍵條目之一。當車輛發生事故時,不論該事故是否導致財產損失和人員傷亡,測試方必須將事故發生的時間、地點及原因等相關情況向管理部門報告。測試方須向車輛管理部門上交年度總結。
4.信息安全制度。智能汽車技術的發展需要汽車與互聯網行業的跨界融合。在智能汽車實際運行中,需要汽車行業與互聯網行業深入合作,共同防范潛在的安全威脅。同時,相關的法律可以在車輛的基礎安防措施檢測中進行規劃,檢查車輛是否使用一些規范的預定義安全編碼。
當然,除了“四大關鍵項”外,即便自動駕駛的法律框架已經構建,但在框架的“地基”部分則是人類長久以來形成的“倫理道德準則”,這也是自動駕駛在立法進程中的另一大痛點。
03? 自動駕駛之“倫理道德論”
AI(人工智能)作為自動駕駛的技術主線,其在不斷刷新人類對物理世界的認知和社會關系的同時,所延伸出的倫理問題挑戰著人類長久以來所建成的道德體系。
清華大學車輛與運載學院院長楊殿閣表示:“今天的交通法規看似是現代建立的,但實際上其背后有著上千年歷史的傳統道德準則作支撐。”由此可見,自動駕駛立法難就難在要打破傳統道德體系束縛建立一套新的道德體系,而現有的道德體系已經用了2000多年。
舉一個極端的例子:當一個自動駕駛的車輛已經探測到無法避免前方事故的情況下,它唯一可做的選擇是向左閃躲或者向右閃躲,這個時候左邊可能有一個摩托車,右邊可能有一個行人,那自動駕駛系統應該如何去做?
雖然這是個極端的案例,但是可以直接地闡釋當下自動駕駛所面臨的倫理道德問題以及相關風險。在北京交通大學法學院教授吳文嬪看來,從立法現狀來看,目前人工智能并不能獨立地承擔責任,不能成為獨立的民事主體。所以,人工智能以及自動駕駛技術的侵權責任應該適用產品質量責任,但是因為人工智能并非獨立的民事主體,所以并不能由機器人自己承擔責任,而應該具體考慮研發者和生產者之間的責任分配問題。
因此,如果按照行業專家的分析來看,自動駕駛技術所面臨的問題不光是人與車,還有人工智能的成熟度。此外,自動駕駛的出現,使得汽車的使用方式被改變,道路基礎設施要進行改造,交通管理也要做大幅革新,同時還有各類復雜的社會問題,這些問題中也存在倫理道德的天平。
不可否認,自動駕駛是未來汽車的發展方向,雖然技術的革新與法律框架的搭建正在有條不紊地實施中,但如何真正從倫理道德的角度讓公眾滿意,保證公民的人身財產安全,依舊是擺在自動駕駛面前最大的難題。
本文來源于汽車之家車家號作者,不代表汽車之家的觀點立場。
人工智能在法律行業運用的技術手段有哪些?
現在很多人工智能系統把一些人的聲音、表情、肢體動作等植入內部系統,使所開發的人工智能產品可以模仿他人的聲音、形體動作等,甚至能夠像人一樣表達,并與人進行交流。但如果未經他人同意而擅自進行上述模仿活動,就有可能構成對他人人格權的侵害。此外,人工智能還可能借助光學技術、聲音控制、人臉識別技術等,對他人的人格權客體加以利用,這也對個人聲音、肖像等的保護提出了新的挑戰。例如,光學技術的發展促進了攝像技術的發展,提高了攝像圖片的分辨率,使夜拍圖片具有與日拍圖片同等的效果,也使對肖像權的獲取與利用更為簡便。此外,機器人伴侶已經出現,在虐待、侵害機器人伴侶的情形下,行為人是否應當承擔侵害人格權以及精神損害賠償責任呢?但這樣一來,是不是需要先考慮賦予人工智能機器人主體資格,或者至少具有部分權利能力呢?這確實是一個值得探討的問題。
人工智能的法律三問 人工智能侵權責任如何認定
人工智能侵權責任如何認定?
2016年11月,在深圳舉辦的第十八屆中國國際高新技術成果交易會上,一臺名為“小胖”的機器人突然發生故障,在沒有指令的情況下,自行砸壞了部分展臺,并導致一人受傷。
人工智能應用范圍的日益普及,其引發的侵權責任認定和承擔問題,是對現行侵權法律制度提出的又一個新的挑戰。
“從現行法律上看,侵權責任主體只能是民事主體,人工智能本身還難以成為新的侵權責任主體。即便如此,人工智能侵權責任的認定也面臨諸多現實難題。”在清華大學法學院教授程嘯看來,侵權發生后,誰是人工智能的所有者,就應當由誰負責,在法律上似乎并不存在爭議。“然而人工智能的具體行為受程序控制,發生侵權時,到底是由所有者還是軟件研發者擔責,值得商榷。”
與之類似的,當無人駕駛汽車造成他人損害侵權時,是由駕駛人、機動車所有人擔責,還是由汽車制造商、自動駕駛技術開發者擔責?法律是否有必要為無人駕駛汽車制定專門的侵權責任規則?這些問題都值得進一步研究。
“現實中,人工智能侵權責任的歸責原則,可能更多涉及危險責任或無過錯責任。”程嘯認為,例如無人駕駛汽車致害,無論從產品責任還是機動車交通事故責任上看,都可以適用無過錯責任。但未來需要考慮的是,人工智能技術的運用,其本身是否屬于高度危險作業(如無人機),從而決定了是否適用高度危險作業致害責任。
“當前,人工智能侵權責任中的因果關系、過錯等要件的判斷也變得日趨復雜。”程嘯還舉例說,此前曝光的一些APP“大數據殺熟”和“算法歧視”,由于代碼的不透明,加之算法本身的自我學習和適應能力,使得“將算法歧視歸責于開發者”變得很困難。
在程嘯看來,針對人工智能帶來的新問題、新挑戰,在法律制度的研究方面未雨綢繆,將為以后的司法實踐贏得主動。“人工智能已經到來,只是在生產生活的各個領域分布不均。我們不應等到未來分布均勻、人工智能已完全融入生產生活的方方面面時,才想起來從法律進行規范。”程嘯說。
關于人工智能時代,如何用法律按下“規制鍵”的介紹。
不久前,DeepMind公布了AlphaGo的最新升級版本AlphaGo Zero,并在《自然》雜志上對其使用的相應技術做出詳解。DeepMind稱:“AlphaGo Zero與AlphaGo最大的不同是做到了真正的自我學習,經過3天的訓練,就以100:0的戰績完勝前代AlphaGo。”曾與AlphaGo有過交戰的柯潔也在第一時間做出回應,柯潔表示,“對于AlphaGo的自我進步來講……人類太多余了”。
近些年來,人工智能持續升溫,成為全球科技研發的新熱點。Google、百度、阿里巴巴、騰訊等不少國內外大型互聯網企業,都在加大資金與人才投入,試圖搶先占領人工智能技術的高地。在國家層面,很多國家也紛紛出臺政策支持人工智能的發展。如2014年歐盟發布了《歐盟機器人研發計劃》,2016年美國發布了《國家人工智能發展與研究戰略計劃》,2017年法國發布了《人工智能戰略》。我國政府也于今年7月發布了《新一代人工智能發展規劃》。
人工智能可能引發大量技術性失業
人工智能到底會讓人類的生活變得更美好,還是更糟糕?在人工智能突飛猛進的同時,也伴隨著質疑甚至抵制。
近日,英國著名物理學家史蒂芬·霍金表示,人工智能(AI)的崛起可能是“人類文明史上最糟事件”,除非人類社會能夠找到控制AI發展的方法,否則后果不堪設想。確實,人工智能如果運用不當,的確可能產生很多問題。
首先,人工智能可能引發大量技術性失業。創新工場董事長李開復在2016WISE大會上表示,未來十年,世界上50%的工作都會被人工智能所取代。準確的數據可能無法預測,但人工智能必然會使很多職業消失,可能導致就業停滯,從而給社會帶來不穩定性因素。
第二,人工智能可能導致新的不平等。開發者可能存在種族偏見、性別歧視、特定疾病歧視,基于此而開發出來的人工智能就可能存在算法歧視,從而造成新的不平等。而且,由于人工智能導致的就業停滯和生產力提升,可能導致財富更加向少數人集中,從而也可能引發新的資本不平等。
第三,人工智能可能導致責任空白。對于人工智能產生的損害,如何承擔分配責任還遠未達成共識,開發者、生產者是否應當承擔瑕疵擔保責任,能否確立人工智能的法律人格地位還不得而知。當開發者、生產者由于破產等因素無法、無力擔責時,受損者可能無法得到賠償、補償。
第四,人工智能可能失控,成為后人類的敵人。開發者與使用者可能基于不正當目的開發、使用人工智能,從而可能給人類帶來毀滅性的災難,例如一些極端恐怖組織可能濫開發、濫利用人工智能。而且,目前人工智能已經具有深度學習能力,會不斷演化進步。霍金警告說,“由于受到緩慢的生物演化的限制,人類不能與AI競爭,最終將會被代替”。
對人工智能擔憂并非杞人憂天
由此可見,對人工智能的出現存在隱憂,是有一定道理的。很多新生事物剛出現時,往往不被廣泛接受甚至受到極力抵制。就如同百年前的“車馬大戰”,汽車剛產生時就受到了馬車行業的大力抵制,因為汽車嚴重影響到了馬車夫、馬車生產商、馬廄管理員、馬糞清理工等許多人的生計。但是,進步的科技終將無法阻擋,汽車最終取代了馬車。
人工智能必將給未來人類社會帶來翻天覆地的變化。但對人工智能的諸多擔憂并非杞人憂天,如果沒有法律的有效規范,人工智能不僅不可能成為人類的福音,反而還可能成為人類的喪鐘。然而,也不能因噎廢食,因為人工智能可能存在隱患,就全面禁止或不當限制其發展。相反,應當積極運用法律,對人工智能進行適度有效的規制。
規制人工智能就是要規制人的智能
人是人工智能的總開關,所以規制人工智能首先需要規制人的智能,需要對人工智能的開發者進行規制。開發者在設計人工智能時,應當以人為本,以有利于社會福利最大化而非利潤最大化為理念,遵守基本的社會倫理道德,消除各種歧視觀念,遵守平等原則。禁止基于不正當目的開發人工智能。開發者應當審慎設計相關代碼程序,如果某項人工智能所促進的社會公共利益,與其所造成的損害明顯不成比例,違反比例原則,或者可能失控,就應當及時放棄。
其次,應當對人工智能的銷售者與使用者進行規制。銷售者應當建立并執行人工智能產品進貨檢查驗收制度,驗明人工智能產品合格證明和其他標志,禁止銷售不合格的人工智能產品,不得偽造或者冒用認證標志等質量標志。使用者應當合理利用人工智能,不得損害國家、社會及他人合法權益,法律應當合理設定相應的使用條件與標準。
第三,明確人工智能致損的責任分擔機制。如果開發者在設計時存在故意或重大過失,導致損害發生,則應由開發者承擔責任。如果由于開發者當時的認知局限,沒有預見到未來發生的狀況,導致損害發生,開發者也應當承擔責任,即瑕疵擔保責任,因為開發者有所獲益,就應當承擔相應的風險,而且如此更能促使開發者審慎地設計相應的代碼程序。在索賠方式上,使用者、受害者可以直接找開發者索賠,也可以找銷售者索賠。如果銷售者與使用者存在過錯,則應承擔相應的責任。此外,應當逐步建立完善的人工智能產品保險制度。
技術中立不代表可以脫離法治
科技需要在法律的軌道上發展,技術中立并不表明技術可以脫離法治。盡管存在隱憂,但只要法律規制適當,具有諸多優勢的人工智能必定會給未來人類社會帶來無窮大的正能量。
因此,應當對人工智能進行適度有效的規制,及時立、改、廢相關法律制度。我國國務院在《新一代人工智能發展規劃》中提出,“建立人工智能法律法規、倫理規范和政策體系,形成人工智能安全評估和管控能力”。在規制人工智能時,政府應當處理好科技創新與法律規制的關系,按照“鼓勵創新、包容審慎”的原則,確立事前備案、事后懲處的機制,使法律既能有效保障公民權利,又能支持促進科技創新。
ai換臉違法嗎
AI換臉技術起初廣泛應用于電影制作,后被應用于各個行業,并且應用也逐漸變得更加便利,使得普通民眾也能熟練應用這項技術,這也導致了技術濫用,AI換臉技術應用所產生的消極影響也逐漸的暴露。有一部分人在未經他人同意的情況下,擅自將受害人的圖片通過AI換臉的方式,應用到了淫穢視頻和動漫作品中。在國內真正使得AI換臉技術走進普通民眾中的是一款叫做“ZAO”的軟件,“ZAO”將技術首次實現了全民皆可進行換臉,其將AI換臉技術門檻降到最低,使得僅具有入門級電腦基礎的用戶通過上傳照片也能熟練應用。因為使用人數增加,利用該項技術實施違法活動的人也層出不窮。AI換臉作為一項重大的技術創新,若應用于影視行業可極大降低制作成本。但是,該技術一旦越過道德和倫理的界限,則會打開“潘多拉的魔盒”,使得人人都處于危險的境地。這種技術濫用對當事人造成的損害,是對社會的反噬。而加強法律層面的監管,或許是人類面對AI技術所能筑起的最有力的防線。
拓展資料:AI換臉的過程為:人工智能預先分析好視頻里面的五官的形狀和位置;你提供照片后,人工智能再分析照片中的五官形狀和位置;然后再把照片中五官的形狀和位置,與視頻對比著進行合并。人臉互換一般可以用于視頻合成、提供隱私服務、肖像更換或者其他有創新性的應用。
法律依據:民法典第一千一百九十四條網絡用戶、網絡服務提供者利用網絡侵害他人民事權益的,應當承擔侵權責任。法律另有規定的,依照其規定。從法律上直接作出了規定,只要網絡用戶利用網絡實施了侵犯他人合法權利的行為,就要追究其民事責任。所以根據網絡用戶運用AI換臉軟件實施侵權行為時的各種方式,可以發現網絡用戶實際上承擔的是一種直接責任、自己責任和單獨責任。
第一千一百九十五條網絡用戶利用網絡服務實施侵權行為的,權利人有權通知網絡服務提供者采取刪除、屏蔽、斷開鏈接等必要措施。第一千一百九十七條網絡服務提供者知道或者應當知道網絡用戶利用其網絡服務侵害他人民事權益,未采取必要措施的,與該網絡用戶承擔連帶責任。這說明網絡服務提供者負有“通知-刪除”義務,在一定條件下還需承擔連帶責任。
文章版權聲明:除非注明,否則均為 六尺法律咨詢網 原創文章,轉載或復制請以超鏈接形式并注明出處。





