您的當前位置:首頁->新聞中心
                                                                          新聞中心

                                                                          積極做好人工智能技術安全風險評估

                                                                          標簽:積極,做好,好人,人工,人工智能,智能,技術,安全  2019/12/5 14:53:33  預覽

                                                                          35   人工智能的發展越來越走進我們的生活、工作、學習等各個領域,我們享受人工智能高科技帶來的便利的同時,是否想到過人工智能技術安全風險呢?今天和大家分享的內容是人工智能技術安全風險評估。


                                                                            原文如下:

                                                                            隨著新科技革命的縱深發展、智能算法的優化升級,人工智能技術可能帶來新的挑釁與治理困境。因此,積極做好人工智能的政策指導與合理規制,推進智能技術安全風險評估預警研究,對實現人工智能健康持續發展顯得尤為緊張。

                                                                                人工智能技術應用存在風險

                                                                                人工智能技術對于伶俐社會建設意義非凡。人工智能技術的繁榮,也離不開人類社會的場景應用。然而我們在大力推進人工智能與現實生活接軌時,必須高度小心人工智能在技術應用、法律道德以及社會關系等領域的潛在風險。

                                                                                第一,人工智能技術的場景應用風險。目前,人工智能技術應用涉及伶俐醫療、伶俐交通、伶俐司法及智能教育等方方面面。在伶俐交通方面,無人駕駛技術不僅提拔了駕駛員的安全性,還為其節省出更多的自由時間,經算法分配可緩解交通擁堵狀況。但無人駕駛網絡系同一旦受到黑客或者市場競爭對手的惡意攻擊,極有可能使人類生命財產安全受到偉大威脅。在伶俐醫療方面,人工智能技術在諸如醫療輔助機器、智能藥物研發、智能醫學影響、個人智能健康管理等智能診療方面發揮偉大作用。然而當前人工智能還處在初級階段,系統自己存在漏洞,若大面積臨床應用易引發醫療事故;伶俐醫療一旦發生醫患糾紛,就會存在責任主體無法明確的題目。在伶俐司法領域,人工智能技術已得到初步推廣,最高人民法院與最高人民檢察院分別提出“伶俐法院”和“伶俐檢務”!斗ㄖ嗡{皮書·中國法院信息化發展報告(2019)》也指出,伶俐法院在“信息化助理司法為民”“信息化輔助審判實行和司法管理”和“信息化服務國家社會”三大方面周全推進。但是人工智能技術并不能完全庖代司法工作者,它消解司法的本質和法官的主體性。另外,人工智能技術的算法存在“黑箱”缺乏有用監督,無法保證審判效果的公正、客觀,難以使人佩服,甚至出現人工智能技術下的冤假錯案。

                                                                                第二,人工智能技術背后的法律道德風險!翱茖W技術自己是中性的,無所謂善惡,科技對人類及環境的負責作用完全是人類自身的責任!比斯ぶ悄芗夹g在法律道德方面同樣面臨風險。首先,人工智能領域的立法相對滯后。技術壁壘、實際舛錯稱以及法律的權威性等緣故原由,造成了人工智能領域的立法滯后。在民法、知識產權法、交通法以及刑法等諸多領域,不僅缺乏有用的法律供應,而且相關技術還與現行法律秩序相沖突。其次,個人隱私和信息安全受到威脅。人工智能技術的應用與發展,離不開對數據的采集與行使,數據賡續更新與擴張則會引發信息泄漏、侵犯隱私的風險。最后,人工智能法律倫理方面存在困境。人工智能技術經過算法的賡續升級換代,或允許完全繞過人腦固有的思維體例,形成“新智能思維”強制模擬人類思維,從而使人類陷入思維無法觸及的地帶百度快照優化,達到新興技術生命周期的“峽谷”。

                                                                                第三,由人工智能所引發的社會關系風險。在人工智能時代,我們必要更加正視兩對關系,即人與人關系、人與機器的關系。在人與人關系方面,隨著人工智能與實業相結合,部分職業被機器所庖代,傳統行業面臨重組,從而造成結構性失業。在人與機器關系方面公交站臺生產廠家,學界一向存在爭論。隨著深度學習為智能系統賡續優化升級,智能機器將會在某些領域達到甚至超越人類的水平,人工智能一旦在自主意識和情感領域取得新進展,那么人與機器之間的關系會變得復雜。此外,對于絕大多數的用戶而言,他們不會試圖研究甚至難以了解算法的內在邏輯,同時維護人員也很難周全掌握、詮釋智能技術在深入學習后的選擇機制,從而形成算法的“黑箱”,緊張情況下會演進為算法歧視。

                                                                                人工智能安全風險評估優化路徑

                                                                                為確保人工智能技術平穩安全落地,我們不能被動地在發生傷害后緊急處理相關題目,而要在第臨時間掌握技術的最新動態,積極做好人工智能安全風險評估和預警工作。

                                                                                第一河南人事考試中心,完美人工智能安全應用的法律覆蓋和兜底。當前,我國在人工智能技術安全運用領域還存在大量法律空白。對此,立法者應制訂相關法規,為智能技術的應用安全提供法律保障,防控人工智能技術帶來的潛在風險。一方面,立法者要周全審視現有法律體系,并使其賡續適應社會需求,同時看重立法增強用戶信息和隱私的保護、個人數據正當使用、人工算法的普適公平,以及智能技術失效后的援助管理,明確人工智能法律主體以及相關權利、任務和責任,構建實現新技術的法律基礎。另一方面,設立人工智能發展規劃和前沿技術領域的負面清單,從法律底線構建“安全防火墻”。在國家層面立法實現對人工智能的算法設計、產品開發、數據采集和產品應用的全流程規制,在可能引發人工智能不可預知性和不確定性的技術領域,立法設立紅區或研發限定規范,推進人工智能技術健康發展與應用。

                                                                                第二,健全人工智能安全等級和風險預估機制。因為人工智能的發展存在許多的不確定性,亟須增強人工智能潛在風險的評估,促使人工智能安全可控發展。首先,當局應聯合相關高校、智庫和科技公司等對人工智能技術的應用進行安全等級評估,不同安全等級運用不同條理的智能安防技術,確保人工智能技術應用的安全性、有序性。其次,針對人工智能技術應用進行風險預估,預防人工智能在場景應用中存在的潛在風險,防止技術手段在現實運用中可能出現的故障、失效、被入侵等隱患。如通過人工智能技術建立對抗性學習算法研究,行使“技術制約技術”的理念,優化智能技術開發架構,降低人工智能帶來的隱患。最后,當局安悉數門應聯合相關執法機構,完美對人工智能技術應用主體的監控機制,建立倫理與風險審查機制,降低人工智能技術受到人為因素影響的概率。

                                                                                第三,做好人工智能風險防控領域前瞻性研究。面對智能技術的安全威脅,人們應采取積極應對的態度,秉持“早發現、早治療、早升級”的理念促進人工智能的良序發展。一是成立具有國家戰略高度的人工智能風險防控系統與實體研究機構,切實增強各類人工智能安全應用平臺建設和人工智能學科專業建設與人才培養;形成以當局為主導、企業為主體、市場為導向的產學研相結合的模式,鼓勵開發相關人工智能技術,拓寬人工智能技術的安全應用領域。二是貫徹人類命運共同體理念,積極開展多邊國際智能安全技術合作。中國應積極參與人工智能全球治理,主動搭建人工智能倫理規范、制度建設和國際規制等全球合作平臺,在智能技術安全風險管控、國家安全治理等龐大國際議題上,貢獻中國伶俐與力量,共同應對全球性挑釁。

                                                                                總而言之,我們必要從現實出發,隨機應變、隨機應變,從頂層設計層面增強對人工智能新技術融入經濟社會的規劃和指導,正確把握技術和產業發展趨勢,賡續規范不同領域人工智能安全應用,進而避免盲目尋求人工智能技術的應用北京人事考試,而忽視了智能技術造福于人的本質目標。 (本文的來源:中國社會科學網-中國社會科學報作者:李凱,作者單位:華東政法大學中國法治戰略研究中心)

                                                                            唐山零度科技也在人工智能領域積極的探索,并在AI人工智能公園、AR太極、智能語言亭、人工智能解決方案等方面積累了珍貴的經驗,更多相關信息,迎接您咨詢唐山零度科技!
                                                                          亚洲欧美日韩综合一区二区三区