現(xiàn)在位置:主頁 > 國內(nèi) > 能定餐館的 Duplex 沒說自己是 AI,這會(huì)是人工智能的道德困境嗎

能定餐館的 Duplex 沒說自己是 AI,這會(huì)是人工智能的道德困境嗎

作者:編輯 ? 時(shí)間:2018-11-29 ? 瀏覽:人次

最近遭受到道德困境的不只是基因編輯,還有人工智能。

在今年夏天的 Google I/O 大會(huì)上,Google 向大眾展示了一項(xiàng)名為 Duplex 的 AI 新功能——代替你預(yù)約理發(fā)或者餐館。

這項(xiàng)功能之所以這么受人關(guān)注和讓人激動(dòng),最大的原因就它接近以假亂真的讓 AI 用自然語言和真實(shí)的人類交流,而人類甚至完全沒有意識(shí)到電話對面并不是真人而是來自 Google 的 AI。

能定餐館的 Duplex 沒說自己是 AI,這會(huì)是人工智能的道德困境嗎


▲ 圖片來自:9to5Google

最近,這個(gè)服務(wù)終于在 Pixel 用戶群組中小范圍進(jìn)行測試了。根據(jù) VentureBeat 的報(bào)道,目前 Google 正在緩慢推送這項(xiàng)服務(wù),而不是直接正式開放上線,目前只在「精選城市」中的 Pixel「精選用戶」中測試,凡是支持這個(gè)服務(wù)的人上輩子大概都是被選召的孩子吧。

此外。這個(gè)服務(wù)目前功能上也非常有限——哪怕是對比 Google I/O 上演示版本。因?yàn)槟壳暗臏y試中并不支持理發(fā)的預(yù)訂(Google I/O 則專門演示了一段預(yù)約理發(fā)的視頻),只集中在餐館預(yù)訂,此外一些餐館也因?yàn)橐恍┎幻髟驘o法支持。

向大眾開放 Duplex 是一項(xiàng)非常好的事情,我們終于能夠親自檢驗(yàn)這個(gè)星球上在人工智能領(lǐng)域的佼佼者究竟達(dá)到了何種地步。但是最近的一些測試中 Google Duplex 卻讓人們產(chǎn)生了一些擔(dān)憂,當(dāng)然這不是說它在智能方面超出大眾的估計(jì),而是在整個(gè)對話過程中,Duplex 都沒有告訴對方自己是只是一個(gè) AI 服務(wù)。

當(dāng) Duplex 開始預(yù)約的時(shí)候只會(huì)告訴對方「這個(gè)電話來自 Google,并可能會(huì)被記錄?!箖H此而已,之后它就會(huì)按部就班的開始餐館的預(yù)約,并在處理完成之后掛斷電話。

能定餐館的 Duplex 沒說自己是 AI,這會(huì)是人工智能的道德困境嗎


而這顯然跟之前的宣傳不符,The Verge 表示,在 Google 今年 6 月份發(fā)布到 Youtbe 的宣傳片中,Duplex 會(huì)清楚的表示它是一個(gè)人工智能服務(wù),會(huì)表示這通電話是通過 Google Assistant 呼叫并為客戶進(jìn)行預(yù)訂。

對于為何會(huì)出現(xiàn)這樣不同的處理,The Verge 表示根據(jù)熟悉早期測試的人士說,這個(gè)測試并不完全由 AI 構(gòu)成,即一部分呼叫來自真實(shí)的 Google 員工,而其他的部分則是來自 Google 的 AI 呼叫。所以 Google 沒有透露出這個(gè)人工智能助理的信息。

顯然,人和 AI 的界限在這里被模糊了,因?yàn)?Duplex 聽起來已經(jīng)和真人非常接近,它會(huì)有停頓,會(huì)有各種各樣的語調(diào)和語氣詞。但對于大眾來說,這個(gè)測試會(huì)被理解為完全使用 AI 來進(jìn)行,而在人和 AI 的對話中,人們非常需要 AI 表明自己的身份。

Venturebeat 表示 Google 需要找到一個(gè)完美的平衡:

準(zhǔn)確而智能,透明而誠實(shí)

另外,Google 也在自己的博客向我們展示了 Duplex 究竟是如何工作的。

Google 表示這是一項(xiàng)通過手機(jī)來執(zhí)行「真實(shí)世界」任務(wù)的新技術(shù),而其中的核心就是面對自然語言的挑戰(zhàn):自然語言難以理解,自然行為難以建模,需要快速處理以及使用恰當(dāng)?shù)恼Z調(diào)進(jìn)行自然語言發(fā)聲,都是其中的難點(diǎn)所在。

而 Google 也明確表示了透明度在其中是一項(xiàng)重要的部分,Google 需要明確的告知意圖而對方理解前后文,未來接個(gè)月 Google 還會(huì)在這方面繼續(xù)進(jìn)行調(diào)整。

能定餐館的 Duplex 沒說自己是 AI,這會(huì)是人工智能的道德困境嗎


而讓 Google Duplex 的對話聽起來很自然則要?dú)w功于 遞歸神經(jīng)網(wǎng)絡(luò)(RNN),為了應(yīng)對這些挑戰(zhàn)采用了 TensorFlow Extended(TFX)進(jìn)行構(gòu)建。而為了提高精度,Goole 還通過匿名電話的會(huì)話數(shù)據(jù)在語料庫上訓(xùn)練 Duplex 的遞歸神經(jīng)網(wǎng)絡(luò)。他們還為每個(gè)場景專門對理解模型進(jìn)行了訓(xùn)練。最后通過理解、互動(dòng)和時(shí)間完成 Duplex 在「口語」上的進(jìn)步。

最后 Google 表示,Google Duplex 朝著人類像和他人互動(dòng)一樣與技術(shù)互動(dòng)邁出了一步,自然語言與人工智能的交流在特定場景中成為現(xiàn)實(shí)。 Google 希望這些技術(shù)進(jìn)步最終將有助于改善人們與計(jì)算機(jī)日常交互的體驗(yàn)。

能定餐館的 Duplex 沒說自己是 AI,這會(huì)是人工智能的道德困境嗎


▲ 圖片來自:Medium

但就像最開頭的說的,與真人界限的模糊更需要 AI 來先驗(yàn)明正身,而不是裝作和真人無異,這對于人類來說是一件很重要的事情,或者說需要這樣的一個(gè)儀式感。而隨著技術(shù)的演化前進(jìn),AI 可能很快就在大部分語音接聽領(lǐng)域達(dá)到接近人類的水平,屆時(shí)關(guān)于人工智能的倫理問題將會(huì)更加直白的擺到桌上。

從結(jié)果上講,人類并不愿意和與真人幾近無異的 AI 進(jìn)行對話,這會(huì)給他們一種不安全感,類似的事情其實(shí)也發(fā)生在外貌上,著名的恐怖谷理論看來不僅僅可以用在外貌上,其實(shí)在語音上也有著相似的狀況。

而牛津互聯(lián)網(wǎng)學(xué)院的數(shù)字道德實(shí)驗(yàn)室博士 Thomas King 就直接表示 Google 的這項(xiàng)測試其實(shí)就是個(gè)騙局,假定人類和 AI 已經(jīng)無法區(qū)分,那對于一個(gè)接線員它會(huì)認(rèn)為自己一直在和一群機(jī)器對話(所以接線員也換成 AI 不就好了?),那他還能保持和以前一樣的溝通方式嗎?沒有禮貌和更粗魯是不是也沒有關(guān)系?哪怕接到了一個(gè)來自真人的電話,但這種想法或許已經(jīng)在他腦海中揮之不去了。

能定餐館的 Duplex 沒說自己是 AI,這會(huì)是人工智能的道德困境嗎


▲ 科幻電影《HER》

對于人類來說,如何思考人與科技的關(guān)系已經(jīng)是一個(gè)可以說已經(jīng)是一個(gè)日經(jīng)的話題,我們也不缺乏相關(guān)的科幻電影對其的想象,比如施瓦辛格主演的《第六日》就討論了人與克隆人的倫理沖突問題,而 2004 年《機(jī)械公敵》把阿西莫夫三定律帶到了大眾視野,電影《HER》則進(jìn)一步探討了人類和人工智能的情感的問題。

但等到 Duplex 把人類與人工智能的關(guān)系在現(xiàn)實(shí)中擺出來時(shí),人類可能才發(fā)現(xiàn)自己有多么敏感和自我保護(hù)。對于 AI 沒有標(biāo)明身份這件事上,我們已經(jīng)衍生出了很多問題和想法,在人與人工智能產(chǎn)生聯(lián)系的過程中,雙方的地位、責(zé)任以及更多的事情都會(huì)變得難以認(rèn)定。

能定餐館的 Duplex 沒說自己是 AI,這會(huì)是人工智能的道德困境嗎


▲ 圖片來自:Wired

某些時(shí)候,如果我們忽略一些 Bug 問題,其實(shí)計(jì)算機(jī)是比人類更完美的一種形態(tài),他們能確實(shí)的反應(yīng)出你的行為和如實(shí)給出你要的結(jié)果,但隨著人工智能模擬真人越來越像,我們可能反而更加容易和 AI 產(chǎn)生矛盾和摩擦,導(dǎo)致與我們預(yù)期的結(jié)果不符或者受到其他損失。

因?yàn)?,人類就是如此不完美的生物啊?/p>

轉(zhuǎn)載請保留原文鏈接:http://parkingblocks4less.com/a/guona/20181129/20368.html上一篇:上一篇:繽果時(shí)代水果罐頭 吃出愛的甜蜜
下一篇:下一篇:沒有了