積極做好人工智能技術安全風險評估
人工智能的發(fā)展越來越走進我們的生活、工作、學習等各個領域,我們享受人工智能高科技帶來的便利的同時,是否想到過人工智能技術安全風險呢?今天和大家分享的內容是人工智能技術安全風險評估。
隨著新科技革命的縱深發(fā)展、智能算法的優(yōu)化升級,人工智能技術可能帶來新的挑戰(zhàn)與治理困境。因此,積極做好人工智能的政策引導與合理規(guī)制,推進智能技術安全風險評估預警研究,對實現人工智能健康持續(xù)發(fā)展顯得尤為重要。
人工智能技術應用存在風險
人工智能技術對于智慧社會建設意義非凡。人工智能技術的繁榮,也離不開人類社會的場景應用。然而我們在大力推進人工智能與實際生活接軌時,必須高度警惕人工智能在技術應用、法律道德以及社會關系等領域的潛在風險。
第一,人工智能技術的場景應用風險。目前,人工智能技術應用涉及智慧醫(yī)療、智慧交通、智慧司法及智能教育等方方面面。在智慧交通方面,無人駕駛技術不僅提升了駕駛員的安全性,還為其節(jié)省出更多的自由時間,經算法分配可緩解交通擁堵狀態(tài)。但無人駕駛網絡系統(tǒng)一旦受到黑客或者市場競爭對手的惡意攻擊,極有可能使人類生命財產安全受到巨大威脅。在智慧醫(yī)療方面,人工智能技術在諸如醫(yī)療輔助機器、智能藥物研發(fā)、智能醫(yī)學影響、個人智能健康管理等智能診療方面發(fā)揮巨大作用。然而當前人工智能還處在初級階段,系統(tǒng)本身存在漏洞,若大面積臨床應用易引發(fā)醫(yī)療事故;智慧醫(yī)療一旦發(fā)生醫(yī)患糾紛,就會存在責任主體無法明確的問題。在智慧司法領域,人工智能技術已得到初步推廣,最高人民法院與最高人民檢察院分別提出“智慧法院”和“智慧檢務”。《法治藍皮書·中國法院信息化發(fā)展報告(2019)》也指出,智慧法院在“信息化助理司法為民”“信息化輔助審判執(zhí)行和司法管理”和“信息化服務國家社會”三大方面全面推進。但是人工智能技術并不能完全取代司法工作者,它消解司法的本質和法官的主體性。另外,人工智能技術的算法存在“黑箱”缺乏有效監(jiān)督,無法保證審判結果的公正、客觀,難以使人信服,甚至出現人工智能技術下的冤假錯案。
第二,人工智能技術背后的法律道德風險!翱茖W技術本身是中性的,無所謂善惡,科技對人類及環(huán)境的負責作用完全是人類自身的責任!比斯ぶ悄芗夹g在法律道德方面同樣面臨風險。首先,人工智能領域的立法相對滯后。技術壁壘、現實不對稱以及法律的權威性等原因,造成了人工智能領域的立法滯后。在民法、知識產權法、交通法以及刑法等諸多領域,不僅缺乏有效的法律供給,而且相關技術還與現行法律秩序相沖突。其次,個人隱私和信息安全受到威脅。人工智能技術的應用與發(fā)展,離不開對數據的采集與利用,數據不斷更新與擴張則會引發(fā)信息泄露、侵犯隱私的風險。最后,人工智能法律倫理方面存在困境。人工智能技術經過算法的不斷升級換代,或許可完全繞過人腦固有的思維方式,形成“新智能思維”強制模擬人類思維,從而使人類陷入思維無法觸及的地帶,達到新興技術生命周期的“峽谷”。
第三,由人工智能所引發(fā)的社會關系風險。在人工智能時代,我們需要更加重視兩對關系,即人與人關系、人與機器的關系。在人與人關系方面,隨著人工智能與實業(yè)相結合,部分職業(yè)被機器所取代,傳統(tǒng)行業(yè)面臨重組,從而造成結構性失業(yè)。在人與機器關系方面,學界一直存在爭論。隨著深度學習為智能系統(tǒng)不斷優(yōu)化升級,智能機器將會在某些領域達到甚至超越人類的水平,人工智能一旦在自主意識和情感領域取得新進展,那么人與機器之間的關系會變得復雜。此外,對于絕大多數的用戶而言,他們不會試圖研究甚至難以了解算法的內在邏輯,同時維護人員也很難全面掌握、解釋智能技術在深入學習后的選擇機制,從而形成算法的“黑箱”,嚴重情況下會演進為算法歧視。
人工智能安全風險評估優(yōu)化路徑
為確保人工智能技術平穩(wěn)安全落地,我們不能被動地在發(fā)生危險后緊急處理相關問題,而要在第一時間掌握技術的最新動態(tài),積極做好人工智能安全風險評估和預警工作。
第一,完善人工智能安全應用的法律覆蓋和兜底。當前,我國在人工智能技術安全運用領域還存在大量法律空白。對此,立法者應制定相關法規(guī),為智能技術的應用安全提供法律保障,防控人工智能技術帶來的潛在風險。一方面,立法者要全面審視現有法律體系,并使其不斷適應社會需求,同時注重立法加強用戶信息和隱私的保護、個人數據合法使用、人工算法的普適公平,以及智能技術失效后的救濟管理,明確人工智能法律主體以及相關權利、義務和責任,構建實現新技術的法律基礎。另一方面,設立人工智能發(fā)展規(guī)劃和前沿技術領域的負面清單,從法律底線構建“安全防火墻”。在國家層面立法實現對人工智能的算法設計、產品開發(fā)、數據采集和產品應用的全流程規(guī)制,在可能引發(fā)人工智能不可預知性和不確定性的技術領域,立法設立紅區(qū)或研發(fā)限制規(guī)范,推進人工智能技術健康發(fā)展與應用。
第二,健全人工智能安全等級和風險預估機制。由于人工智能的發(fā)展存在很多的不確定性,亟須加強人工智能潛在風險的評估,促使人工智能安全可控發(fā)展。首先,政府應聯合相關高校、智庫和科技公司等對人工智能技術的應用進行安全等級評估,不同安全等級運用不同層次的智能安防技術,確保人工智能技術應用的安全性、有序性。其次,針對人工智能技術應用進行風險預估,預防人工智能在場景應用中存在的潛在風險,防止技術手段在實際運用中可能出現的故障、失效、被入侵等隱患。如通過人工智能技術建立對抗性學習算法研究,利用“技術制約技術”的理念,優(yōu)化智能技術開發(fā)架構,降低人工智能帶來的隱患。最后,政府安全部門應聯合相關執(zhí)法機構,完善對人工智能技術應用主體的監(jiān)控機制,建立倫理與風險審查機制,降低人工智能技術受到人為因素影響的概率。
第三,做好人工智能風險防控領域前瞻性研究。面對智能技術的安全威脅,人們應采取積極應對的態(tài)度,秉持“早發(fā)現、早治療、早升級”的理念促進人工智能的良序發(fā)展。一是成立具有國家戰(zhàn)略高度的人工智能風險防控系統(tǒng)與實體研究機構,切實加強各類人工智能安全應用平臺建設和人工智能學科專業(yè)建設與人才培養(yǎng);形成以政府為主導、企業(yè)為主體、市場為導向的產學研相結合的模式,鼓勵開發(fā)相關人工智能技術,拓寬人工智能技術的安全應用領域。二是貫徹人類命運共同體理念,積極開展多邊國際智能安全技術合作。中國應積極參與人工智能全球治理,主動搭建人工智能倫理規(guī)范、制度建設和國際規(guī)制等全球合作平臺,在智能技術安全風險管控、國家安全治理等重大國際議題上,貢獻中國智慧與力量,共同應對全球性挑戰(zhàn)。
總而言之,我們需要從實際出發(fā),因地制宜、因時制宜,從頂層設計層面加強對人工智能新技術融入經濟社會的規(guī)劃和引導,準確把握技術和產業(yè)發(fā)展趨勢,不斷規(guī)范不同領域人工智能安全應用,進而避免盲目追求人工智能技術的應用,而忽視了智能技術造福于人的本質目標。 (本文的來源:中國社會科學網-中國社會科學報作者:李凱,作者單位:華東政法大學中國法治戰(zhàn)略研究中心)
北京天潤智力也在人工智能領域積極的探索,并在AI人工智能公園、AR太極、智能語言亭、人工智能解決方案等方面積累了寶貴的經驗,更多相關信息,歡迎您咨詢北京天潤智力!
隨著新科技革命的縱深發(fā)展、智能算法的優(yōu)化升級,人工智能技術可能帶來新的挑戰(zhàn)與治理困境。因此,積極做好人工智能的政策引導與合理規(guī)制,推進智能技術安全風險評估預警研究,對實現人工智能健康持續(xù)發(fā)展顯得尤為重要。
人工智能技術應用存在風險
人工智能技術對于智慧社會建設意義非凡。人工智能技術的繁榮,也離不開人類社會的場景應用。然而我們在大力推進人工智能與實際生活接軌時,必須高度警惕人工智能在技術應用、法律道德以及社會關系等領域的潛在風險。
第一,人工智能技術的場景應用風險。目前,人工智能技術應用涉及智慧醫(yī)療、智慧交通、智慧司法及智能教育等方方面面。在智慧交通方面,無人駕駛技術不僅提升了駕駛員的安全性,還為其節(jié)省出更多的自由時間,經算法分配可緩解交通擁堵狀態(tài)。但無人駕駛網絡系統(tǒng)一旦受到黑客或者市場競爭對手的惡意攻擊,極有可能使人類生命財產安全受到巨大威脅。在智慧醫(yī)療方面,人工智能技術在諸如醫(yī)療輔助機器、智能藥物研發(fā)、智能醫(yī)學影響、個人智能健康管理等智能診療方面發(fā)揮巨大作用。然而當前人工智能還處在初級階段,系統(tǒng)本身存在漏洞,若大面積臨床應用易引發(fā)醫(yī)療事故;智慧醫(yī)療一旦發(fā)生醫(yī)患糾紛,就會存在責任主體無法明確的問題。在智慧司法領域,人工智能技術已得到初步推廣,最高人民法院與最高人民檢察院分別提出“智慧法院”和“智慧檢務”。《法治藍皮書·中國法院信息化發(fā)展報告(2019)》也指出,智慧法院在“信息化助理司法為民”“信息化輔助審判執(zhí)行和司法管理”和“信息化服務國家社會”三大方面全面推進。但是人工智能技術并不能完全取代司法工作者,它消解司法的本質和法官的主體性。另外,人工智能技術的算法存在“黑箱”缺乏有效監(jiān)督,無法保證審判結果的公正、客觀,難以使人信服,甚至出現人工智能技術下的冤假錯案。
第二,人工智能技術背后的法律道德風險!翱茖W技術本身是中性的,無所謂善惡,科技對人類及環(huán)境的負責作用完全是人類自身的責任!比斯ぶ悄芗夹g在法律道德方面同樣面臨風險。首先,人工智能領域的立法相對滯后。技術壁壘、現實不對稱以及法律的權威性等原因,造成了人工智能領域的立法滯后。在民法、知識產權法、交通法以及刑法等諸多領域,不僅缺乏有效的法律供給,而且相關技術還與現行法律秩序相沖突。其次,個人隱私和信息安全受到威脅。人工智能技術的應用與發(fā)展,離不開對數據的采集與利用,數據不斷更新與擴張則會引發(fā)信息泄露、侵犯隱私的風險。最后,人工智能法律倫理方面存在困境。人工智能技術經過算法的不斷升級換代,或許可完全繞過人腦固有的思維方式,形成“新智能思維”強制模擬人類思維,從而使人類陷入思維無法觸及的地帶,達到新興技術生命周期的“峽谷”。
第三,由人工智能所引發(fā)的社會關系風險。在人工智能時代,我們需要更加重視兩對關系,即人與人關系、人與機器的關系。在人與人關系方面,隨著人工智能與實業(yè)相結合,部分職業(yè)被機器所取代,傳統(tǒng)行業(yè)面臨重組,從而造成結構性失業(yè)。在人與機器關系方面,學界一直存在爭論。隨著深度學習為智能系統(tǒng)不斷優(yōu)化升級,智能機器將會在某些領域達到甚至超越人類的水平,人工智能一旦在自主意識和情感領域取得新進展,那么人與機器之間的關系會變得復雜。此外,對于絕大多數的用戶而言,他們不會試圖研究甚至難以了解算法的內在邏輯,同時維護人員也很難全面掌握、解釋智能技術在深入學習后的選擇機制,從而形成算法的“黑箱”,嚴重情況下會演進為算法歧視。
人工智能安全風險評估優(yōu)化路徑
為確保人工智能技術平穩(wěn)安全落地,我們不能被動地在發(fā)生危險后緊急處理相關問題,而要在第一時間掌握技術的最新動態(tài),積極做好人工智能安全風險評估和預警工作。
第一,完善人工智能安全應用的法律覆蓋和兜底。當前,我國在人工智能技術安全運用領域還存在大量法律空白。對此,立法者應制定相關法規(guī),為智能技術的應用安全提供法律保障,防控人工智能技術帶來的潛在風險。一方面,立法者要全面審視現有法律體系,并使其不斷適應社會需求,同時注重立法加強用戶信息和隱私的保護、個人數據合法使用、人工算法的普適公平,以及智能技術失效后的救濟管理,明確人工智能法律主體以及相關權利、義務和責任,構建實現新技術的法律基礎。另一方面,設立人工智能發(fā)展規(guī)劃和前沿技術領域的負面清單,從法律底線構建“安全防火墻”。在國家層面立法實現對人工智能的算法設計、產品開發(fā)、數據采集和產品應用的全流程規(guī)制,在可能引發(fā)人工智能不可預知性和不確定性的技術領域,立法設立紅區(qū)或研發(fā)限制規(guī)范,推進人工智能技術健康發(fā)展與應用。
第二,健全人工智能安全等級和風險預估機制。由于人工智能的發(fā)展存在很多的不確定性,亟須加強人工智能潛在風險的評估,促使人工智能安全可控發(fā)展。首先,政府應聯合相關高校、智庫和科技公司等對人工智能技術的應用進行安全等級評估,不同安全等級運用不同層次的智能安防技術,確保人工智能技術應用的安全性、有序性。其次,針對人工智能技術應用進行風險預估,預防人工智能在場景應用中存在的潛在風險,防止技術手段在實際運用中可能出現的故障、失效、被入侵等隱患。如通過人工智能技術建立對抗性學習算法研究,利用“技術制約技術”的理念,優(yōu)化智能技術開發(fā)架構,降低人工智能帶來的隱患。最后,政府安全部門應聯合相關執(zhí)法機構,完善對人工智能技術應用主體的監(jiān)控機制,建立倫理與風險審查機制,降低人工智能技術受到人為因素影響的概率。
第三,做好人工智能風險防控領域前瞻性研究。面對智能技術的安全威脅,人們應采取積極應對的態(tài)度,秉持“早發(fā)現、早治療、早升級”的理念促進人工智能的良序發(fā)展。一是成立具有國家戰(zhàn)略高度的人工智能風險防控系統(tǒng)與實體研究機構,切實加強各類人工智能安全應用平臺建設和人工智能學科專業(yè)建設與人才培養(yǎng);形成以政府為主導、企業(yè)為主體、市場為導向的產學研相結合的模式,鼓勵開發(fā)相關人工智能技術,拓寬人工智能技術的安全應用領域。二是貫徹人類命運共同體理念,積極開展多邊國際智能安全技術合作。中國應積極參與人工智能全球治理,主動搭建人工智能倫理規(guī)范、制度建設和國際規(guī)制等全球合作平臺,在智能技術安全風險管控、國家安全治理等重大國際議題上,貢獻中國智慧與力量,共同應對全球性挑戰(zhàn)。
總而言之,我們需要從實際出發(fā),因地制宜、因時制宜,從頂層設計層面加強對人工智能新技術融入經濟社會的規(guī)劃和引導,準確把握技術和產業(yè)發(fā)展趨勢,不斷規(guī)范不同領域人工智能安全應用,進而避免盲目追求人工智能技術的應用,而忽視了智能技術造福于人的本質目標。 (本文的來源:中國社會科學網-中國社會科學報作者:李凱,作者單位:華東政法大學中國法治戰(zhàn)略研究中心)
北京天潤智力也在人工智能領域積極的探索,并在AI人工智能公園、AR太極、智能語言亭、人工智能解決方案等方面積累了寶貴的經驗,更多相關信息,歡迎您咨詢北京天潤智力!
- 基于用戶創(chuàng)新
界面設計日新月異,夢創(chuàng)義堅持基于用戶需求的界面創(chuàng)新設計……
- 服務設計思維
互聯網的格局發(fā)生的改變,在我們進行設計服務時更是考慮不同用戶、不同……
- 洞察用戶心理
洞察用戶有意識和無意識的行為以及心理特征通過構造一系列的服務來促進……
- 查看更多 >>
最新新聞Latest News
- 中小型企業(yè)網站建設完應該如何營銷
- 很多中小型企業(yè)往往糾結于以下10個問題:一、我們起步比別人晚,我們的……
- 做企業(yè)網站到底做給誰看?
- 設計經常時不時的遇到一些企業(yè)客戶,常常搞不清楚誰會真正看你的企業(yè)網……
- 傳統(tǒng)企業(yè)進軍移動互聯網,從移動云網站開始
- 移動互聯網是移動通信和互聯網融合的產物,其發(fā)展的重要基礎便是智能手……
- 網站建設和運營五大細節(jié)決定用戶黏性
- 網站的成功離不開搜索引擎優(yōu)化,更離不開最基礎最根本的用戶群體,如何……
- 2015年值得關注的電子商務5大趨勢
- 線上線下銷售的界線正在變得越來越模糊。在2015年,這一趨勢仍將繼續(xù)!