北京時間7月2日上午消息,谷歌堪稱人工智能和和機(jī)器學(xué)習(xí)領(lǐng)域的領(lǐng)導(dǎo)廠商,但該公司本周發(fā)布的Photos應(yīng)用卻犯下了大錯,表明他們的電腦仍有很多東西需要學(xué)習(xí)。
Web開發(fā)者杰基·阿爾西尼(Jacky Alcine)發(fā)現(xiàn),這款應(yīng)用將兩位黑人用戶的照片標(biāo)記為“大猩猩”,并將截圖發(fā)布在Twitter上。他在推文中寫道:“Google Photos,你太混蛋了。我朋友不是大猩猩。”
谷歌隨后對此道歉,并表示將調(diào)整算法,以修復(fù)這一問題。
“我們對此感到震驚,并致以真誠的歉意。”谷歌發(fā)言人說,“圖片自動標(biāo)記功能顯然還有很多改善空間,我們希望今后能避免此類錯誤再次發(fā)生?!?
“大猩猩”標(biāo)簽出現(xiàn)在谷歌Photos應(yīng)用的搜索功能中,這是谷歌幾周前發(fā)布的一款產(chǎn)品。當(dāng)用戶搜索照片時,谷歌會推薦幾個由機(jī)器學(xué)習(xí)自動歸納的類別,該公司已經(jīng)移除了“大猩猩”這一類別,因此同樣的建議之后不會再次出現(xiàn)。
“我們正在做很多工作,還有很多問題有待解決。但我們會努力的?!惫雀枋紫缃患軜?gòu)師Yonatan Zunger通過Twitter向阿爾西尼回復(fù)道。他還補(bǔ)充說,谷歌正在努力改善膚色識別技術(shù),在給照片中的人添加標(biāo)簽時將會更加小心。
此事凸顯出人工智能和機(jī)器學(xué)習(xí)技術(shù)的不足,尤其是用于普通消費(fèi)市場時。谷歌通常會發(fā)布一些仍然存在瑕疵的產(chǎn)品,然后逐步通過軟件更新修正問題。這種模式可以盡快向用戶推出產(chǎn)品,但如果出現(xiàn)嚴(yán)重漏洞,也會引發(fā)用戶的不滿。
谷歌今年早些時候推出了一款YouTube Kids應(yīng)用,使用自動過濾器、用戶反饋和人工評估的方式過濾成人內(nèi)容。但該系統(tǒng)仍然放過了一些不當(dāng)視頻,引發(fā)了用戶的不滿。谷歌發(fā)言人當(dāng)時稱,“幾乎不可能實(shí)現(xiàn)100%的精確度?!?
谷歌推出Photos應(yīng)用時也承認(rèn)該應(yīng)用并不完美,但“大猩猩”標(biāo)簽卻集中凸顯了這套系統(tǒng)的短板。
“我們需要徹底改變機(jī)器學(xué)習(xí)系統(tǒng),以便提供更多的背景信息,使之理解人類所看重的文化敏感問題?!比斯ぶ悄軇?chuàng)業(yè)公司Sentient Technologies首席科學(xué)家巴巴克·霍加特(Babak Hodjat)說。
他表示,機(jī)器學(xué)習(xí)并不理解不同錯誤之間的差異,把黑猩猩錯看成大猩猩沒有問題,但如果把人錯看成黑猩猩,就會非常冒犯。
谷歌的系統(tǒng)或許沒有“看過”足夠多的大猩猩圖片,未能了解具體差異,也無法明白這種錯誤的嚴(yán)重性。
“人類對于具有重要文化意義的偏差非常重視?!被艏犹卣f,“機(jī)器卻無法做到這一點(diǎn),他們無法理解這種背景信息。”
為谷歌機(jī)器學(xué)習(xí)系統(tǒng)提供更多圖片可以起到一定的幫助,但也必須在特定的設(shè)置下對這類系統(tǒng)展開更加謹(jǐn)慎的訓(xùn)練。
谷歌表示,隨著更多的圖片加載到Photos中,加之越來越多的人修復(fù)錯誤標(biāo)簽,這套照片歸類算法的效果將逐步提升。谷歌表示,該公司之所以發(fā)布這款應(yīng)用,一定程度上是為了讓人們?yōu)槠涮峁└嗾掌?,以便提升整體識別率。
谷歌的語音搜索功能也采用了類似的模式。該服務(wù)最初有很多識別錯誤,但隨著使用量的加大,識別率已經(jīng)逐步改善。(書聿) 南京網(wǎng)站建設(shè)(m.searchinparis.com )