現在,人工智能幾乎無處不在。從我們決定買哪一本書,到預訂哪一趟航班,從是否能夠找到合適的工作,到是否能夠獲得銀行貸款,甚至診斷各種疑難雜癥,人們生活中的方方面面都有著人工智能的影子。
關于我們的生活,很大程度上已經可以由人工智能這種復雜的軟件系統來自動決策。毋庸置疑,在諸多科技界企業的推動下,人工智能技術在過去幾年中取得了令人驚訝的巨大進步,而且業內很多人也相信人工智能會讓我們的生活變得更好。
顯而易見,這種趨勢不可阻擋,整個社會都在為人工智能初創企業注入大量資金,而包括亞馬遜、Facebook以及微軟等高科技公司都針對人工智能開設了新的研究實驗室。現在的軟件就是人工智能,這種說法目前來看并不夸張。
很多人預計,人工智能對社會的沖擊甚至要大于互聯網。當被問及在這個千變萬化的世界中,人工智能技術將要為人類帶來何種影響時,很多技術專家毫無懸念地將問題集中在道德方面。
如何保證公平受益?
隨著人工智能的普及,機器系統在高風險決策領域的作用越來越重要——從信貸、保險再到第三方決策以及醫療保險、假釋等問題。未來,人工智能技術將代替人工決定誰會獲得重要機遇,而誰又將被拋棄,由此將會引發一系列關于社會公正的問題。
譬如在生物醫學領域,人工智能有著驚人潛力。人工智能系統有助于分析基因組、蛋白質組和新陳代謝組等的實驗數據,收集分析電子病歷和相應的健康數據。聚類分析技術能夠幫助科學家判斷新綜合征,而模式識別技術能夠將疾病與療法相匹配。但是由于現有醫療條件的不平衡,只有少部分人才能夠從先進醫療技術中受益。
另一方面,人工智能,特別是機器學習技術的完善往往取決于訓練數據。微軟的研究人員指出:“當采集的數據存在偏差時,用這種數據所訓練的人工智能系統也會存在相應偏差,其產生的模型或者結果勢必會復制并放大這種偏差。在這種情況下,人工智能系統所做出的決策將會產生差別效應。而這種不公平要比人為偏見和不公要隱晦得多。”
Peter Norvig是谷歌研究主管,也是機器學習領域的先驅人物。在他看來,大數據推動下的人工智能技術獲得了前所未有的成功,但關鍵問題在于如何確保這些系統能夠真正有效地改善整個社會,而不僅僅只是讓那些控制人工智能系統的群體受益。“通過實踐證實,人工智能在執行各種任務時非常有效,從圖像識別,到自然語言理解和撰寫,再到疾病診斷,人工智能都發揮出了重大作用,”Peter Norvig指出,“現在的挑戰是如何確保每個人都能夠從中受益。”
如何審查機器運行?
科學家之所以會擔憂人工智能引發公平問題,最大的根源在于現有軟件的復雜性,這意味著我們無法準確衡量人工智能系統為什么要這樣做。現在的人工智能技術主要基于機器學習,但對于人類來說,其并不能真正搞清楚這種系統到底是如何運行的,所以我們不得不信任它。從根本上說,問題關鍵在于找到新的方法去檢測和審查人工智能的運行。
哈佛法學院互聯網法學教授Jonathan Zittrain則認為,對于人工智能的潛在危險的審查,會隨著計算機系統變得越來越復雜而面臨越來越多的阻礙。他指出,“我擔心隨著系統的復雜性和緊密耦合性越來越高,人類的自主性會越來越少。如果‘我們設定規則又忘記了規則’,我們會對系統的進化感到懊悔。在那種情況下,甚至于倫理道德都無從考慮。”
而北卡羅來納州杜克大學的人類和自動化實驗室主任Missy Cummings則發問,“我們如何確保這些系統是絕對安全的?”她曾是一名海軍女飛行員,而現在則是無人機專家。
現在業內普遍意識到人工智能需要進行監督,但沒有人清楚該怎么做。
當然,在一個快速發展的社會中,監管機構往往在扮演著一個追趕者的角色。在刑事司法系統以及醫療保健等關鍵領域,人工智能已經被嘗試用來進行決策,譬如做出是否假釋的決定或者是診斷疾病。但是問題來了,如果將決策權交給機器,我們就有可能對結果失去控制,誰能保證系統在各種情況下一定是正確的?
微軟研究院的主要研究員Danah Boyd則認為,被部分人寫入人工智能系統的價值觀存在諸多問題,而恰恰是這部分人應該對系統負責。很多監管機構、社會群眾以及社會學者都希望人工智能技術能夠實現公平,具備倫理道德,但這種希望都是虛無縹緲的。
如何應對工作替代?
此外,人工智能普及也會對人類自己的本職工作產生根本影響。人工智能能夠讓機器人從事更加復雜的工作,從而取代更多人類勞動者。譬如蘋果和三星手機的代工廠商去年就宣布,將使用機器人代替6萬名工人,這在當時引起了軒然大波,惹得社會上也人人自危。無獨有偶,福特位于德國科隆的工廠也讓機器和人在一起工作。機器人的廣泛使用會導致人類對人工智能技術產生過分依賴性。
現在很多醫療機構已經在診斷和手術中引入更多的機器人,特別是機器人在疑難手術中能夠表現出更精湛的醫術,這就可能使經由歷史積累的醫學技能和知識裹足不前,進而使社會變得更為脆弱。而據麥肯錫的全球研究報告,到2025年,30%的公司審計工作將由人工智能完成。人工智能將取代許多人的工作,其中也包括醫生、財務經理以及公司高管等收入較高的中產職業。
此外,自動化程度的加大不僅影響到人類就業,也會對人類心理健康產生連鎖反應。生化倫理學家、奧巴馬前醫療顧問Ezekiel Emanuel指出,“如果說什么能賦予人們生活的意義,主要有3個方面:有意義的關系、熱情高漲的興趣以及有意義的工作。其中有意義的工作是一個人建立身份認同的重要因素。”而失業率高的地區,民眾自殺、濫用藥物以及罹患抑郁癥的風險也會成倍增加。
但我們不必悲觀,人工智能對人類的威脅始終是有限的。盡管人工智能在記憶和計算方面的能力要遠超人類,但它始終是在學習和總結。而人類所具備的感知、情感、想象、創造等特質是人工智能所無法企及的,這也注定了,人類是無法被人工智能逾越的。
如何有效進行監督?
人工智能的迅猛發展勢必會產生各類社會問題。很多行業內人士已經意識到,相關問題的出現會導致人們對人工智能倫理方面的要求越來越多。麻省理工學院技術部專門從事法律道德的專家Kate Darling指出:“公司肯定會遵循市場規律,這并不是壞事。但我們不能為了市場利益而放棄道德。”
Darling指出:“諸如谷歌等大公司已經成立了道德委員會,專門監督人工智能系統的開發和部署。這源于4年前,當時谷歌以5.25億美元的價格收購了英國的人工智能創業公司DeepMind。DeepMind創始人提出的交易條件之一就是谷歌要成立一個人工智能道德委員會,這似乎標志著負責任的人工智能研發新時代正在到來。但事實上,谷歌對于道德委員會的成員組成諱莫至深,實際上該委員會發揮的作用也相當有限。
2016年9月,Facebook、谷歌、亞馬遜、IBM、微軟成立了一個聯盟,旨在開發解決與人工智能相關的安全隱私問題。該聯盟還宣布蘋果也將加入其中。此外,OpenAI還致力于推動人工智能開源,從而讓利益為全社會所共享。谷歌研究主管Norvig認為,“機器學習必須要公開,我們所有人只有通過開源代碼才能夠普遍受益。”
然而,為公眾揭開人工智能技術的神秘面紗其實更為重要。對于沒有計算機科學知識的人來說,真正理解人工智能決策非常困難,更不用說審查或規范這些技術。一些業內人士認為,如果沒有對人工智能技術的理解,諸如律師、決策者和一般公眾就很難真正理解或想象人工智能帶來的風險。