國外網站
當前位置: 首頁 >閱讀> 知識圖解

AI人工智能對人類是威脅嗎?該如何控制人工智能?

2019-05-13 來源:國外網站推薦 - 由[國外網站大全]整理 19

如今,人造機器轉向“創作者”的問題已經成為一個主流的話題。毫無疑問,艾薩克·阿西莫夫的三部機器人定律不再適用于目的。為了全球公益,我們需要一些嚴肅而具體的東西來保護我們無限的野心,以及人類本身。

AI人工智能對人類是威脅嗎?該如何控制人工智能?

今天,互聯網連接了世界一半以上的人口。雖然互聯網為我們提供了便利和效率,但它也帶來了威脅。在大數據和人工智能驅動大量日常生活的時代,尤其如此。算法被廣泛用于確定我們閱讀的內容,我們去哪里以及如何到達那里,我們聽什么音樂以及我們以什么價格購買某些東西。自動駕駛汽車、自動癌癥診斷和機器編寫從未如此接近大規模的商業應用。

如果數據是新的石油,那么人工智能是新的鉆探-并且為了擴展這種類比,故障算法是新的污染。

重要的是要注意,故障不等于惡意。同樣,良好的意圖并不能保證缺乏法律,道德和社會方面的麻煩。已經有人工智能,我們已經看到了許多這樣的問題的例子:即無意識的行為,缺乏遠見,監督和監督的困難,分布式責任,隱私侵犯,算法偏見和濫用。此外,一些研究人員開始擔心智能機器取代人工造成的失業率可能上升。

問題迫在眉睫

“行為不端”的AI現在越來越多。一個面部識別應用程序將非洲裔美國人稱為“大猩猩” ; 另一個人將28名美國國會議員確定為通緝罪犯。據稱,美國法院使用的風險評估工具對非洲裔美國人有偏見; 優步公司的自動駕駛汽車在亞利桑那州殺死了一名行人 ; Facebook和其他大公司因歧視性廣告行為被起訴 ; 和致命的人工智能武器正在開發中。

我們正在進入未映射的領域,這就是為什么我們迫切需要規則和指導原則作為指南針來指導我們朝著正確的方向前進。技術倫理現在比以往任何時候都更加重要,必須成為這套規則和原則的核心。

我們應該承認建立這樣一個框架的一些早期努力。值得注意的例子包括“Asilomar AI”原則,以及IEEE的道德標準和認證計劃。

而在2018年末,騰訊創始人兼首席執行官馬化騰提出了人工智能治理的道德框架,即ARCC:可用、可靠、全面和可控。

實用、可靠、易于理解和可控制

馬化騰的框架可以成為中國及其他地區人工智能系統治理的基礎。其目的是在未來幾千年內確保人類與機器之間的友好和健康的關系。

實用性

人工智能應該面向群眾,而不僅僅是少數人群。我們已經習慣了智能手機和筆記本電腦的好處,但我們常常忘記,半數世界仍然被這場數字革命所切斷。

人工智能的進步應該解決這個問題,而不是加劇它。我們需要將生活在發展中地區,老年人和殘疾人的人帶入數字世界。整個人類的福祉應該是人工智能發展的唯一目的。這就是我們如何確保人工智能不會超越其他人的利益。

以最近醫療機器人的發展為例。騰訊覓影是騰訊的AI醫療診斷成像解決方案,目前正與數百家當地醫院的放射科醫生合作。該癌癥預篩查系統研究了數十億個醫學圖像,并檢測了數十萬個高風險病例。機器人然后將這些案例提交給專家。通過這樣做,它可以讓醫生免于日常看病的勞動,并讓他們有更多時間照顧病人。

此外,可用的AI是一種公平的AI。一個完全理性的機器應該是公正的,沒有人的弱點,如情緒或偏見-但這不應該被視為理所當然。最近發生的事件,如微軟聊天機器人使用的粗俗語言表明,當提供不準確,不完整或有偏見的數據時,AI可能會嚴重錯誤。這里首選道德設計方法-即在AI開發過程中仔細識別,解決和消除偏差。

監管機構已經在制定解決偏見和歧視的準則和原則。谷歌和微軟等公司已經建立了自己的內部道德委員會來指導他們的人工智能研究。

可靠性

由于人工智能已安裝在數百萬戶家庭中,我們需要它們安全,可靠并能夠防范網絡攻擊和其他事故。

以自動駕駛汽車為例。騰訊正在開發3級自動駕駛系統,并已獲得在深圳公路上測試其自動駕駛汽車的許可證。但在獲得測試許可證之前,其自動駕駛汽車已在一個封閉的地點進行了超過一千公里的測試。今天,我們的道路上沒有真正的自動駕駛汽車在商業上使用,因為有關其認證的標準和規定仍有待確定。

此外,為了讓AI變得可靠,它應該確保數字,物理和政治安全,特別是在隱私方面。我們已經看到了在未經用戶同意的情況下收集用于培訓AI系統的個人數據的情況。因此,AI應遵守隱私要求,通過設計保護隱私并防止數據濫用。

可理解性問題

人工智能系統的巨大復雜性意味著說起來容易做起來難。深度中性網絡的輸入和輸出之間的隱藏層使其難以穿透,即使對于其開發人員也是如此。因此,如果發生涉及算法的車禍,我們可能需要數年才能找到故障背后的原因。

幸運的是,AI行業已經對可解釋的AI模型進行了一些研究。算法透明度是實現可理解的AI的一種方式。雖然用戶可能不關心產品背后的算法,但監管機構需要深入了解其技術細節。盡管如此,良好的做法是為用戶提供有關AI系統協助或制定的決策的易于理解的信息和解釋。

為了建立一個易于理解的人工智能,應該保證和鼓勵公眾參與和行使個人權利。人工智能開發不應成為商業公司的秘密事業。作為最終用戶的公眾可以提供有價值的反饋,這對于高質量AI的開發至關重要。

應要求技術公司向其客戶提供有關AI系統的目的,功能,限制和影響的信息。

可控制性

但并非最不重要的原則是確保我們人類負責。每一項創新都伴隨著風險。但是,我們不應該讓一些人為的一般情報讓人們對人類滅絕的擔憂阻止我們用新技術追求更美好的未來。我們應該做的是確保AI的好處大大超過潛在的風險。最重要的是,我們必須制定適當的預防措施,以防范可預見的風險。

就目前而言,人們經常比AI更信任陌生人。我們經常聽說自動駕駛汽車不安全,過濾器不公平,推薦算法限制我們的選擇,定價機器人向我們收取更多費用。這種深深的懷疑源于信息短缺,因為我們大多數人不關心或沒有必要的知識來理解AI。

我們應該做些什么?

我想提出一系列規則,從道德框架開始,可以幫助AI開發人員及其產品贏得他們應得的信任。

一方面,我們有輕松的規則,如社會習俗,道德規則和自我規范。上面提到的道德框架適合這里。在國際層面,谷歌,微軟和其他大公司已經提出了自己的AI原則,而Asilomar AI Principles和IEEE的AI道德計劃則備受好評。

隨著我們的發展,有一些強制性和有約束力的規則,例如標準和法規。我們今年寫了一份關于自動駕駛汽車的政策報告,發現很多國家都制定法律來鼓勵和規范自動駕駛汽車。未來,人工智能將有新的法律。

此外,還有刑法規定懲罰不良行為者惡意使用人工智能。極右翼,有國際法。例如,一些國際學者一直在推動聯合國提出關于致命自主武器的公約,就像“禁止或限制使用某些常規武器公約”一樣。

任何新技術,無論是受控的核反應還是人形機器人,都不具備本質上的好壞。確保它是前者取決于我們。

中國尋求到2030年成為人工智能開拓者。技術領導者現在開始強調技術發展的重要性。但這只是“道德洗滌”嗎?還是中國認真對待實現道德人工智能?


推薦閱讀

  • 一周熱門

  • 小編推薦

  • 最新收錄

彩票巴士计划群 鄂伦春自治旗| 辽阳县| 邹平县| 芷江| 永嘉县| 泰顺县| 鸡西市| 潍坊市| 海南省| 敖汉旗| 静乐县| 东源县| 吉水县| 宁远县| 岳阳县| 寻甸| 兴城市| 徐汇区| 隆安县| 靖边县| 镇平县| 曲松县| 彰化市| 苗栗市| 海兴县| 静安区| 武宣县| 资源县| 南岸区| 刚察县| 赣榆县| 新营市| 临武县| 蒲城县| 临沧市| 嘉黎县| 巩留县| 南召县|