為什麼谷歌認為人工智慧需要監管?
我在印度長大,以前就對科技頗為著迷。每一項新發明都切實地改變了我和家人的生活。電話讓我們無需大老遠跑到醫院去看檢查結果。冰箱意味著我們準備飯菜可以更省時,電視讓我們收看到世界新聞和板球比賽——曾經我們只能一邊聽短波收音機,一邊在頭腦里想象。
如今,我很榮幸能在新技術的發展中出一分力,我們希望這些技術能夠改變世界各地人們的生活。最有前景的領域之一便是人工智慧(AI):本月就有三個實例表明Alphabet和谷歌(Google)如何挖掘AI的潛力。《自然》(Nature)雜誌發表了我們的一項研究成果,它表明一種AI模型能夠幫助醫生提高在乳腺X光檢查中發現乳腺癌的準確率;作為一系列應對氣候變化工具的一部分,我們使用AI能比現有模型更快速、更準確地做出實時、超局部的降雨預測;漢莎航空集團(Lufthansa Group)正與我們的雲部門合作,測試利用AI幫助減少航班延誤。
然而,歷史上有很多例子說明技術並不必然帶來好處。內燃機擴大了人們的出行範圍,但也引發了更多的事故。互聯網讓我們能與任何人聯繫,而且可獲得任何地方的訊息,但也讓假訊息更容易傳播了。
這些教訓告訴我們,我們需要對可能出現的問題保持頭腦清醒。AI可能產生的負面後果——從「深度偽造」(Deepfake)到臉部識別技術的不良用途——著實令人擔憂。雖然人們已經做了一些工作來解決這些問題,但未來不可避免會出現更多並非任何一家公司或一個行業可以單獨應對的挑戰。
歐盟(EU)和美國已經開始研究監管措施。要讓全球標準發揮作用,國際協調至關重要。為實現這一目標,我們需要在核心價值觀上達成一致。像我們這樣的公司不能只打造有前景的新技術,然後讓市場力量來決定如何使用這些技術。我們同樣有責任確保這些技術被使用在有益的方面,並造福所有人。
如今,在我看來,毫無疑問需要對AI進行監管。這種技術太重要了,不能不監管。唯一的問題是如何做。
這就是為什麼谷歌在2018年發布了我們自己的AI準則,以幫助引導對這項技術進行符合倫理道德的開發和應用。這些指導原則可以幫助我們避免偏見,嚴格測試安全性,在設計時將隱私放在首位,開發出對人負責的技術。準則還列出了我們將不會設計或應用AI的領域,比如利用AI支持大規模監控或侵犯人權。
但準則如果只停留在紙面就毫無意義。因此,我們還開發了將它們貫徹實施的工具,比如測試AI決策的公正性,以及對新產品進行獨立的人權評估。我們甚至還更進一步,讓這些工具和相關開源代碼可被廣泛獲得,此舉將讓其他公司也能夠將AI用在好的地方。我們認為,任何開發新AI工具的公司都應該採用這類指導原則和嚴格的審查流程。
政府監管也將發揮重要作用。我們不必從零開始。現有的規則,如歐洲的《通用數據保護條例》(GDPR),提供了堅實的基礎。良好的監管框架將會考慮安全、可解釋、公正和問責,以確保我們以妥當的方式開發妥當的工具。合理的監管還必須採取適當的方法,對潛在危害(尤其是在高風險領域)和社會機遇進行權衡。
規章可以起到總體上的指導作用,同時可以在不同行業領域有針對性地實施。對於一些AI應用,如包括人工智慧輔助心臟監測儀在內的受監管的醫療設備,現有的框架是很好的起點。對於自動駕駛汽車等較新領域,各國政府將需要制定適當的、將所有相關成本效益都考慮在內的新規則。
谷歌所起的作用始於認識到應用AI需要一種基於原則且受監管的方法,但不會止步於此。在監管機構應對不可避免會出現的緊張事態和需要進行取捨時,我們希望成為一個有用且積极參与的合作夥伴。我們可以提供我們的專業技術、經驗和工具,共同應對這些問題。
AI有潛力改善數十億人的生活,但最大的風險或許是實現不了這一點。通過確保以一種對每個人都有利的方式負責任地開發AI,我們可以激勵後人相信科技的力量,就像我一樣。
本文作者是Alphabet和谷歌首席執行官