谷歌首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)
BI中文站 6月8日報道
谷歌首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)日前發(fā)表了一套“道德準則”,以便為人工智能(AI)技術的開發(fā)和使用提供指導。
皮查伊說,雖然AI技術為消費者和企業(yè)提供了許多好處,但谷歌認識到,這項技術“將在未來幾年對社會產(chǎn)生重大影響”,而且管理者“需要承擔起確保其被正確使用的責任”。
皮查伊表示,應對AI應用程序進行篩選以確保它們對社會有益、不會產(chǎn)生不公平的偏見、安全、對人負責、符合設計原則、與科學卓越性保持一致,并可用于維護先前原則的用途。
這些原則發(fā)布前,谷歌內(nèi)部曾就AI使用陷入矛盾,導致數(shù)千名員工與管理層發(fā)生沖突。這些員工抗議該公司參與美國國防部的Project Maven。今年3月,谷歌被曝悄悄向五角大樓提供AI技術,以幫助分析無人機視頻片段。
今年4月份,4000多名員工簽署了一份請愿書,要求谷歌管理層停止參與Project Maven,并承諾不再“研發(fā)戰(zhàn)爭技術”。此外,谷歌有十幾個員工辭職以示抗議。
不久前,谷歌云計算業(yè)務主管戴安·格林(Diane Greene)告訴員工,谷歌決定停止與軍方在AI方面的合作。
皮查伊在他的博客中也明確指出谷歌不會開發(fā)的應用程序類型。這些應用包括可能造成全面損害的武器或技術,以及任何可以被用于違反“國際公認準則”或與“國際法律和被廣泛接受的人權原則”相沖突的任何東西。
AI的進化已經(jīng)引發(fā)許多人擔憂。最可怕的是,將來我們可能會看到好萊塢電影中所描繪的那種殺人機器人。盡管現(xiàn)在看來這似乎有些牽強,但批評人士表示,谷歌對監(jiān)控錄像進行的視頻分析可能有助于提高無人機導彈打擊的準確性。
還有報道稱,谷歌試圖幫助開發(fā)能夠讓五角大樓監(jiān)視整個城市的系統(tǒng)。
谷歌發(fā)布AI指南可能意味著,它會失去許多國防合同,其中包括價值100億美元的聯(lián)合企業(yè)防御系統(tǒng)(Joint Enterprise Defense Infrasture)。
但彭博社報道稱,谷歌要想贏得這些合同是不可能的。甲骨文(Oracle)、微軟(Microsoft)和IBM等公司在與政府合作方面經(jīng)驗豐富得多,被認為更有可能贏得合同。(編譯/金鹿)