我們擅長商業(yè)策略與用戶體驗(yàn)的完美結(jié)合。
歡迎瀏覽我們的案例。
在今天這個(gè)人人都有可能被愚弄的日子,不如我們來換換戲耍的對象,看看機(jī)器有沒有可能被愚弄欺騙呢?
在人工智能五十年的研發(fā)過程中,我們一直在不斷嘗試著讓機(jī)器理解人對于世界的認(rèn)知方式。不管是一直沒有實(shí)現(xiàn)較大突破的類腦計(jì)算,還是模仿人類感知外界機(jī)制的人工神經(jīng)網(wǎng)絡(luò),本質(zhì)上都是對人類行為方式的多種模仿。
當(dāng)然我們也知道,這些模仿雖然在應(yīng)用上取得突破,但本質(zhì)上來看與人類的認(rèn)知方式還是大相徑庭的。
就拿視覺來說,人類對于萬事萬物的認(rèn)知來自于綜合的感知。以前一陣社交媒體上瘋傳的《神奇寶貝》大電影來說,人們見到 3D 版皮卡丘非常驚訝——皮卡丘竟然是有毛的?
其實(shí)這就體現(xiàn)了人類非常有趣的一點(diǎn),建立在綜合知識基礎(chǔ)之上,人類的五感是相通的,因此可以從有限的信息里進(jìn)行關(guān)聯(lián)挖掘,對陌生的事物建立起認(rèn)知。
當(dāng)我們驚訝皮卡丘身上茸毛時(shí),我們立刻聯(lián)想起了那種毛茸茸的手感,認(rèn)為它像一只大老鼠毫不可愛。
被隨意愚弄的機(jī)器思維
相比之下機(jī)器視覺的認(rèn)知方式就相對孤立,建立分類器后組織層層的神經(jīng)網(wǎng)絡(luò),對圖片進(jìn)行分層處理,分別去辨認(rèn)圖片中是不是一架橋,是不是一只猴子,是不是一棵大樹。最后得出的結(jié)論是,這張圖片 97% 的幾率是一架橋,2% 的幾率是一只猴子,1% 的幾率是一棵大樹。
對于人類來說,我們可能把猴子看成猩猩,原因是我們自己腦海中的底層知識不足,在認(rèn)知中分不清猩猩和猴子的概念。但絕不會把橋、猴子、大樹這些風(fēng)馬牛不相及的東西混淆一談。
但對于機(jī)器視覺就不一樣了,在機(jī)器的“眼中”,一切圖像都是像素點(diǎn)的排列組合。對于我們來說,猴子和大樹的區(qū)別是哺乳動物和區(qū)別。可對于機(jī)器來說,猴子和大樹之間只有一個(gè)數(shù)字分割線而已。
這就導(dǎo)致了機(jī)器視覺可以被“針對性”的愚弄,讓圖像識別輸出完全錯誤的結(jié)果,這就是我們常說的對抗生成樣本。
例如將一張圖片的像素點(diǎn)進(jìn)行輕微的移動,在人眼中兩張圖片沒有任何區(qū)別,可在機(jī)器識別邏輯下,卻可能讓機(jī)器把猴子認(rèn)成大樹。
又比如我們曾經(jīng)介紹過的“迷幻貼紙”——將某一種物體的分類特征高度濃縮成一個(gè)很小圖案,“粘貼”在其他圖片上。圖像識別對于結(jié)果的輸出,是基于幾項(xiàng)結(jié)果比率的高低。在貼上貼紙之前,圖像識別可能明確的分析出圖片有 98% 幾率的是一只猴子。但粘貼上高度濃縮特征的貼紙之后,就能立刻改變圖像識別的結(jié)果。
讓人類理解機(jī)器思維,或許比想象中更容易
如此看來,雖然機(jī)器一直在嘗試模仿人類的思維方式,但最終結(jié)果還是我們與機(jī)器之間彼此無法理解。
那么如果換個(gè)角度,讓人類去學(xué)習(xí)機(jī)器的思維方式呢?
近期約翰霍普金斯大學(xué)就做了這樣一項(xiàng)實(shí)驗(yàn)。
為了弄明白為什么機(jī)器能看到人類“看不到”的變化,約翰霍普金斯大學(xué)推出了一系列實(shí)驗(yàn),讓人類志愿者在圖片中找到“機(jī)器犯的錯誤”。
例如給志愿者一張?jiān)朦c(diǎn)圖或看似無意義的花紋,讓人類志愿者從中識別辨認(rèn)圖片更像哪一種物體,并將 AI 給出的結(jié)果混淆其中。又比如給人類幾個(gè)斑駁的數(shù)字圖案,讓人類志愿者選擇 AI 可能將圖案誤認(rèn)成了什么錯誤的數(shù)字。
令人震驚的是,在大部分實(shí)驗(yàn)中,人類志愿者都憑借著直覺很快辨認(rèn)出了 AI 的思維模式。以上圖為例,有 81% 的人類志愿者都準(zhǔn)確的發(fā)覺了機(jī)器會犯下的錯誤。在一共 48 個(gè)實(shí)驗(yàn) 1700 位志愿者中,有人們在 75% 的時(shí)間里都選擇和機(jī)器一樣的答案,而只有2% 的人從來沒有選擇過和機(jī)器一樣的答案。
這個(gè)驚人的實(shí)驗(yàn)結(jié)果告訴我們,即使拋開人類基礎(chǔ)的認(rèn)知邏輯,應(yīng)用下意識的第一反應(yīng),也能夠和機(jī)器得出相同的結(jié)果??磥砩窠?jīng)網(wǎng)絡(luò)黑箱中對于人類經(jīng)驗(yàn)提煉的深度,或許遠(yuǎn)超我們想象。
對抗對抗性圖像:當(dāng)人類開始理解機(jī)器
這個(gè)實(shí)驗(yàn)的意義,當(dāng)然不是為了告訴大家其實(shí)我們都是機(jī)器人,而是教會了我們?nèi)绾螒?yīng)對機(jī)器視覺可能犯下的錯誤。
在機(jī)器視覺認(rèn)知模式的固有弊端下,很可能會形成很多可供鉆空子的漏洞。例如當(dāng)自動駕駛識別公路上的交通標(biāo)志時(shí),一個(gè)小小貼紙就可能讓視覺系統(tǒng)產(chǎn)生錯覺,把交通標(biāo)識識別成突然出現(xiàn)的行人來個(gè)急剎車。
為了解決這種可能出現(xiàn)的情況,通過理解機(jī)器思維并進(jìn)行逆向拆解或許是個(gè)不錯的方法。
從實(shí)驗(yàn)中我們可以看出,即使是毫無邏輯的圖案和紋理,人類也可以通過聯(lián)想能力對這些圖片進(jìn)行更高級的認(rèn)知和處理。實(shí)驗(yàn)中人類和機(jī)器進(jìn)入了同樣的情景,面對幾個(gè)分類選項(xiàng)做選擇題。而這種分類選擇或許就是讓機(jī)器陷入錯誤的關(guān)鍵。
另外一點(diǎn)則是,人類可以很清楚的識別出對抗性圖像。例如故意斑駁讓人難以辨認(rèn)數(shù)字圖案,以及特征十分明顯的花哨貼紙。那么說明這些對抗性的圖案也擁有自己的“對抗性特征”。
雖然面對這種情況,最理想的方式是放棄卷積神經(jīng)網(wǎng)絡(luò),應(yīng)用認(rèn)知計(jì)算真正讓人工智能建立在一個(gè)更完整的世界觀上進(jìn)行識別。但在認(rèn)知計(jì)算獲得突破之前,我們或許可以尋找一些替代性的解決方案。
例如我們可以在一些安防、自動駕駛等等關(guān)鍵場合之中,特意生成對抗性樣本讓人類進(jìn)行標(biāo)注,在汽車、行人這些常規(guī)分類中多出一個(gè)“對抗樣本”分類,讓卷積神經(jīng)網(wǎng)絡(luò)可以識別出來這些搗亂的圖案。
對于那種動幾個(gè)像素點(diǎn)就可以改變機(jī)器認(rèn)知的情況,很有可能出現(xiàn)在數(shù)據(jù)流通途中的壓縮產(chǎn)生的失誤,我們可以尋找使得機(jī)器認(rèn)知結(jié)果改變的壓縮規(guī)律,反向從源頭組織失誤的發(fā)生。
在愚人節(jié)這個(gè)日子里,發(fā)現(xiàn)“人類與機(jī)器有著十分相近的思維模式”這一新聞,聽起來似乎像個(gè)笑話。但或許我們引以為傲的“人類意識”,根本并沒有那么復(fù)雜,最終會與機(jī)器思維以一種出乎意料的方式相遇。
但在相遇之前,我們還是應(yīng)該用人類思維與機(jī)器人思維之間的相似性,來解決現(xiàn)實(shí)生活中的問題。
(邯鄲網(wǎng)站建設(shè))
小米應(yīng)用商店發(fā)布消息稱 持續(xù)開展“APP 侵害用戶權(quán)益治理”系列行動 11:37:04
騰訊云與CSIG成立政企業(yè)務(wù)線 加速數(shù)字技術(shù)在實(shí)體經(jīng)濟(jì)中的落地和應(yīng)用 11:34:49
樂視回應(yīng)還有400多人 期待新的朋友加入 11:29:25
亞馬遜表示 公司正在將其智能購物車擴(kuò)展到馬薩諸塞州的一家全食店 10:18:04
三星在元宇宙平臺推出游戲 玩家可收集原材料制作三星產(chǎn)品 09:57:29
特斯拉加州San Mateo裁減229名員工 永久關(guān)閉該地區(qū)分公司 09:53:13