頻道欄目
首頁 > 安全 > 網絡安全 > 正文

AI技術被濫用危害大,全球加強監管是大勢所趨

2019-01-21 16:16:38           
收藏   我要投稿
當今世界,人工智能(AI)科技發展的重要性早已不言而喻,AI 目前已應用到多個領域之中,包括視覺、語音識別、自動駕駛以及機器人等。人工智能技術的加持推動了這些領域的快速發展,并實現了落地應用,但是與此同時 AI 帶來的安全隱患和道德爭議,也讓社會各界在新的AI技術應用上變得更加謹慎。

2018年12 月初微軟總裁兼首席法務官布拉德·史密斯(Brad Smith)呼吁各國政府對面部視覺技術的使用做出規范。不久之后,谷歌公司也表示不會向云客戶提供通用的面部識別技術。盡管只是個例,但也能看出,科技公司在AI技術開發和應用上越來越克制。

另一方面,各國的政策制定者也正積極討論相關的規范和監管政策,以期減少AI發展帶來的潛在風險。

德國創新創業協會會長胡海濤對第一財經記者表示:“個人數據應受到嚴密的保護,我們協會的創業人主要從事對醫療及生物醫藥AI的研發,如果個人數據保護不力,不僅會導致客戶個人社會形象受損,甚至可能影響到職業生涯;如果是公眾人物,潛在的風險更是不可估量。”
\

加強“個人數據”保護

借助大數據和云計算,人工智能近兩年來再度站上了時代的浪尖,成為任何人都無法忽視的熱點,但與此同時AI帶來的各種社會問題也逐漸浮出了水面。

2018年3月17日,據外媒披露,英國政治咨詢公司劍橋分析(Cambridge Analytica)曾在未經臉書(Facebook)公司同意、并且未告知實情的情況之下,通過一款問答應用軟件竊取了至少8700萬臉書用戶的數據,然后把這些數據賣給了特朗普的競選團隊,以使其得以在2016年總統大選中向臉書用戶實現精準地信息投放,最終贏得了該屆大選。事實上,真正使用了該問答應用軟件的用戶僅占極少數,但因為臉書公司的數據管理存在漏洞,使得劍橋分析公司不僅獲得了用戶的所有數據,還包括他們臉書好友的所有數據信息,盡管他們從未使用過該款應用。

這無疑是2018年被曝光的最大數據丑聞,臉書公司的市值在丑聞曝光后至今已跌去了近40%,但這只是冰山一角,用戶數據泄露和被濫用的例子早已屢見不鮮。用戶的數據之所以富有價值,是因為人工智能系統可以通過數據分析,監控用戶的所有行蹤,從購物習慣到個人興趣愛好,甚至于政治傾向。這讓互聯網巨頭可以輕易通過AI給用戶推送他大概率會感興趣的項目和廣告,而一旦這些數據遭到泄露,被用于非法目的,后果將不堪設想。

對如何收集、處理和儲存個人數據方面進行監管已刻不容緩,在數據保護方面,歐盟已先行一步。

2018年5月25日,歐盟《通用數據保護條例》(GDPR)正式生效,為保障新規的推行,增設的獨立監管機構——歐洲數據保護委員會也于同一天正式成立。該條例被認為是史上最嚴格的個人數據保護條例,不僅大幅拓展了對于“個人數據”的定義,除了姓名、手機號、用戶名、IP地址等常規信息外,健康數據、宗教信仰、政治觀點、包括性取向等敏感信息也被劃入了保護范圍,而且用戶可以自主決定企業是否獲取其個人信息,以及允許使用的范圍,并可以要求企業刪除已保存的相關信息。

該條例不僅是針對注冊地或總部在歐盟的企業,只要企業向歐盟用戶提供產品、服務,或持有、處理歐盟用戶的數據,都屬于管轄的范圍。對任何違反個人信息收集、使用基本原則及沒有保障數據主體權利的企業,最高可罰款2000萬歐元或全球營業額的4%。受到這項條例影響最大的正是手中掌握著大量用戶數據的互聯網巨頭。

2018年11月底,多個歐洲國家消費者團體向監管機構投訴谷歌公司,指控它違反了歐盟的數據保護規定,秘密追蹤數百萬用戶的移動位置。谷歌公司恐面臨巨額罰款。2018年12月中旬,歐洲監管機構宣布,由于臉書公司未能保護用戶隱私,它將對該公司展開調查,這意味著臉書公司最高可能會接到一份數十億美元的罰單。

近日在美國舊金山召開的阿斯彭(Aspen)網絡峰會上,德克薩斯州議會代表兼眾議院監督與政府改革委員會主席赫德(Will Hurd)表示,未來美國也很有可能推出一款類似GDPR的數據監管法案。赫德表示,一年前可能大多數美國人還對此無法表示認同,但是2018年的一系列數據泄露事件已完全改變了人們對此的看法。

谷歌CEO:擔憂AI技術被濫用合情合理

除了個人數據保護,對AI的算法偏見目前是另一個亟待解決的難題。

人與人之間,很難完全消除每個人存在的各種偏見,但通常情況下個體的影響力有限,不至于給社會帶來嚴重后果?墒侨绻环N人工智能算法暗含偏見,一旦它被廣泛應用,所產生的負面影響將難以估量。

2018年10 月中旬,亞馬遜關閉了其(試驗性的)人工智能招聘引擎,該工具本來的作用是對應聘者的簡歷做出打分,然后把其中高分對象推送給負責招聘的人力資源部門,而低分的簡歷則直接淘汰。但在實際應用過程中,開發人員發現AI竟然對“女性”求職者存在偏見,如果簡歷中在特定語境下出現了“女子”一詞,可能被系統自動降級。這并非是開發者在設計程序時故意為之,而是人工智能在對公司歷史上的海量求職、招聘數據進行學習后,得出的模型。作為一家科技公司,亞馬遜男性員工的比例約占60%,男性求職者也遠遠多于女性。

隨著人工智能應用領域的越來越大,如何能確保AI算法的公正、公平且安全正是當務之急。尤其是在無人駕駛、醫療診斷、法律咨詢等深具社會影響力的領域,一旦因算法偏見造成了負面影響,又應由誰來承擔責任呢?

從理論上說,想要避免產生算法偏見,前提是要保證輸入算法的數據本身不帶任何偏見,但實際情況則要復雜許多,比如任何數據來源都是有限的,如果源頭本身就不完全客觀,那么這種偏見自然會遺傳給算法。

胡海濤對第一財經記者表示,“當我們不能對不同的AI算法進行客觀唯一的評價之時,增加AI算法的透明性、開放度及對AI算法的審議機制,是人類目前階段最明智的選擇。人工智能的算法應確保公平、公正、公開,并且不存在黑箱操作,只有如此,其給出的參考結果才有說服力。AI應幫助人類做出更好的決策,而不是替人類做出決定。”

近年來頗為熱門AI自動駕駛技術正是最好的例子,早在2017年,美國眾議院就通過了相關方案,以加速自動駕駛汽車的推廣,但該法案在參議院卻一直未被審批。2018年12月19日,美國國會參議員再度拒絕了在2018年年終休會前對該議案進行投票。盡管車企做出了讓步,但該議案還是遭到了部分民主黨人士的反對,反對人士認為自動駕駛技術未能解決安全問題上的擔憂。

谷歌CEO皮查伊去年12月中旬對媒體表示,對人工智能技術被濫用的擔憂是“非常合理的”。他表示,新的人工智能工具,比如無人駕駛汽車和疾病檢測算法等,都要求科技公司設置道德護欄并思考什么是對該技術的濫用,“我認為科技公司必須意識到不能先創造人工智能工具,然后再去完善它,這樣是行不通的。

埃森哲應用智能部門常務董事喬杜里也表示,在未來一年,預計將在全球范圍內看到更多的政府審查和技術監管。她認為:“人工智能和全球科技巨頭所掌握的權力,引發了很多關于如何規范行業和技術的問題,在2019年,我們將不得不開始找到這些問題的答案。”

上一篇:小米股東套現 市值跌到上市時的一半
下一篇:應該怎樣正確看待5G,不能全盤否定也不能盲目肯定
相關文章
圖文推薦
文章
推薦
熱門新聞

關于我們 | 聯系我們 | 廣告服務 | 投資合作 | 版權申明 | 在線幫助 | 網站地圖 | 作品發布 | Vip技術培訓 | 舉報中心

版權所有: 紅黑聯盟--致力于做實用的IT技術學習網站

重庆快乐十分开奖记录