国产微拍一区二区三区四区,亚洲欧美一区二区三区四区,黄色网址国产,动漫精品视频一区二区三区,免费人与牲口做爰视频,亚洲精品久久久久久一区,欧美槡BBBB槡BBB少妇,国产精品99,亚洲 日韩 国产 制服 在线

Internet Develppment
互聯(lián)網(wǎng)開發(fā)& 推廣服務(wù)提供商

我們擅長商業(yè)策略與用戶體驗的完美結(jié)合。

歡迎瀏覽我們的案例。

首頁 > 新聞中心 > 新聞動態(tài) > 正文

谷歌CEO皮查伊:對AI危險的擔(dān)憂“合理合法”

發(fā)布時間:2018-12-13 15:12:25來源:網(wǎng)絡(luò)

  12 月 13 日消息,據(jù)外媒報道,作為全球領(lǐng)先人工智能(AI)公司的負(fù)責(zé)人,谷歌首席執(zhí)行官桑達爾·皮查伊(Sundar Pichai)本周在接受《華盛頓郵報》采訪時表示,對該技術(shù)有害應(yīng)用的擔(dān)憂“非常合理”,但應(yīng)信任科技行業(yè)能夠負(fù)責(zé)任地監(jiān)管其使用。

  皮查伊于美國當(dāng)?shù)貢r間周二下午接受《華盛頓郵報》采訪時表示,新的 AI 工具,比如無人駕駛汽車和疾病檢測算法等創(chuàng)新的支柱,都要求企業(yè)設(shè)置道德護欄,并考慮該技術(shù)如何會被濫用。對此,皮查伊說:“我認(rèn)為,科技公司必須認(rèn)識到,不能繼續(xù)采用技術(shù)開發(fā)然后修復(fù)這樣的傳統(tǒng)模式,我認(rèn)為它已經(jīng)行不通。”

  皮查伊說,科技巨頭們必須通過“自己的機構(gòu)”確保 AI 不會傷害人類。他稱自己對這項技術(shù)的長期潛在好處非常樂觀,但他對 AI 潛在風(fēng)險的擔(dān)憂與其他技術(shù)批評人士類似。他們都認(rèn)為,這項技術(shù)可能被用于監(jiān)視、致命武器和錯誤信息傳播等。其他科技公司高管,如 SpaceX 和特斯拉(Tesla)創(chuàng)始人埃隆·馬斯克(Elon Musk),都提出了更可怕的預(yù)測,稱 AI 可能“比核武器危險得多”。

  谷歌的 AI 技術(shù)是該公司所有業(yè)務(wù)的基礎(chǔ),皮查伊誓言在未來一年解決其 AI 引發(fā)的問題。谷歌如何決定部署 AI,也引發(fā)了最近的員工騷動。

  皮查伊呼吁進行自我監(jiān)管之前,曾前往美國國會作證,議員們威脅要對技術(shù)的濫用施加限制,包括限制傳播錯誤信息和仇恨言論的渠道。皮查伊承認(rèn) AI 會構(gòu)成潛在威脅十分罕見,因為這位出生于印度的工程師經(jīng)常吹捧自動化系統(tǒng)的影響,并相信這些系統(tǒng)可以在不受人類控制的情況下學(xué)習(xí)和做出決定。

  皮查伊在接受采訪時說,世界各地的立法者仍在努力控制 AI 的影響,并希望對其進行政府監(jiān)管。他說:“有時我擔(dān)心人們低估了中長期變化的規(guī)模,我認(rèn)為問題實際上相當(dāng)復(fù)雜。”包括微軟在內(nèi)的其他科技巨頭,最近也接受了 AI 應(yīng)受到監(jiān)管的觀點,監(jiān)管者包括開發(fā)這項技術(shù)的公司和監(jiān)督該技術(shù)使用的政府。

  但皮查伊解釋說,如果處理得當(dāng),AI 可以帶來“巨大的好處”,包括幫助醫(yī)生通過對健康數(shù)據(jù)的自動掃描來檢測眼科疾病和其他疾病。他說:“早期對一項技術(shù)進行監(jiān)管是很困難的,但我確實認(rèn)為公司應(yīng)該進行自我監(jiān)管。這就是為什么我們始終在致力于制定 AI 原則的原因。我們也許沒有把每件事都做好,但我們認(rèn)為,開始一場對話非常重要。”

  皮查伊于 2004 年加入谷歌,11 年后成為其首席執(zhí)行官。今年 1 月份,他將 AI 稱為“人類正在從事的最重要的事情之一”,并表示,對人類社會來說,AI 可能比“電或火”更重要。但是,對能夠獨立運行的機器進行完美競賽重新喚起了人們的擔(dān)憂,即硅谷的企業(yè)精神,如 Facebook 曾經(jīng)所說的“快速行動,打破常規(guī)”,這可能促使強大而不完美的技術(shù)導(dǎo)致工作崗位流失,并傷害到人們。

  在谷歌內(nèi)部,其 AI 努力也引發(fā)了爭議:今年早些時候,該公司受到各方批評,因為它在國防部的一項合同中開展的工作涉及到 AI 技術(shù),該合同可以自動標(biāo)記汽車、建筑物和其他物體,供軍事無人機使用。許多員工為此憤而辭職,因為谷歌正從“戰(zhàn)爭業(yè)務(wù)”中獲利。

  當(dāng)被問及員工的反應(yīng)時,皮查伊告訴《華盛頓郵報》,員工是“我們文化的重要組成部分”。他說:“他們肯定有意見,這是重要的信號,這也是我所珍惜的東西。”

  今年 6 月份,在宣布谷歌明年不會續(xù)簽與國防部的合同后,皮查伊公布了一套 AI 倫理原則,其中包括全面禁止開發(fā)可能被用來造成損害、損害人權(quán)或“違反國際公認(rèn)監(jiān)視準(zhǔn)則”的 AI 系統(tǒng)。

  谷歌還因發(fā)布可能被壞人濫用的 AI 工具而受到批評。谷歌在 2015 年發(fā)布了其內(nèi)部機器學(xué)習(xí)軟件 TensorFlow,幫助加速了 AI 的大規(guī)模開發(fā),但它也被用于自動制作逼真的假視頻,這些視頻被用于騷擾和傳播虛假信息。

  谷歌和皮查伊為此進行了辯護,稱限制這項技術(shù)的使用可能會減少公眾的監(jiān)督,并阻止開發(fā)者和研究人員以有益的方式提高其能力。皮查伊在接受《華盛頓郵報》采訪時說:“隨著時間的推移,隨著技術(shù)的進步,我認(rèn)為重要的是圍繞道德和偏見進行對話,并同時推動進步。”

  他補充稱:“從某種意義上說,你確實想要建立倫理框架,讓非計算機科學(xué)家盡早參與這一領(lǐng)域的工作。你必須以更具代表性的方式讓人類參與進來,因為這項技術(shù)將影響人類。”

  皮查伊將圍繞 AI 設(shè)置參數(shù)的早期工作比作學(xué)術(shù)界在遺傳學(xué)研究早期所做的努力。他說:“許多生物學(xué)家開始劃定這項技術(shù)的發(fā)展方向。學(xué)術(shù)界進行了大量的自我監(jiān)管,我認(rèn)為這一點非常重要。”

  這位谷歌高管表示,圍繞自主武器的開發(fā)將是最重要的,這一問題令科技高管和員工感到憤怒。今年 7 月,代表谷歌等公司的數(shù)千名科技工作者簽署了一項承諾,反對開發(fā)可編程、用于殺死人類的 AI 工具。

  皮查伊還表示,他在《華盛頓郵報》的一篇報道中發(fā)現(xiàn)了一些令人憎惡、充滿陰謀論的 YouTube 視頻,并表示該公司將努力改進其檢測問題內(nèi)容的系統(tǒng)。這些視頻自今年 4 月出現(xiàn)以來,在 YouTube 上已經(jīng)被觀看了數(shù)百萬次。里面討論了民主黨人希拉里·克林頓(Hillary Clinton)和她的長期助手胡瑪·阿貝丁(Huma Abedin)襲擊、殺害和喝下一名女孩血液的指控,盡管其毫無根據(jù)。

  皮查伊說,他沒有看過這些視頻,他是在國會聽證會上被問及這些視頻的。他拒絕透露,YouTube 在這一領(lǐng)域的缺陷是否由于檢測系統(tǒng)受限所致,還是由于評估特定視頻是否應(yīng)該被刪除的政策所致。但他補充說:“你將看到我們在 2019 年繼續(xù)采取更多行動。”
 ?。?a href="http://www.nasamidwest.com">邯鄲建站)

最新資訊
? 2018 河北碼上網(wǎng)絡(luò)科技有限公司 版權(quán)所有 冀ICP備18021892號-1   
? 2018 河北碼上科技有限公司 版權(quán)所有.