谷歌造了個聊人生的機(jī)器人 它是如何工作的?
7月1日消息,據(jù)《每日郵報》報道,科技巨頭谷歌公司的研究人員日前訓(xùn)導(dǎo)了一場人機(jī)智能對話。這個受訓(xùn)和人對話的計算機(jī)系統(tǒng),事先并沒有利用技術(shù)支撐預(yù)置一系列的問題,卻能進(jìn)行常識性甚至是哲學(xué)對話。
據(jù)悉,這個“對話模式”由Google Brain項目研究人員Oriol Vinyals和Quoc Le創(chuàng)建。他們利用的這個系統(tǒng)可以分析對話的前后邏輯,然后從不同的數(shù)據(jù)集搜集信息——不管是一個IT手冊,電影臺詞還是名著語錄或者其他,來分析出下一個對答語句。
舉例來說,在有關(guān)技術(shù)支持的問答環(huán)節(jié)中,機(jī)器能夠診斷出用戶的虛擬網(wǎng)絡(luò)隱私的問題,或者是解決瀏覽器崩潰等問題。
這個機(jī)器人一直負(fù)責(zé)和人類的日常智能對話,它會提出關(guān)于自身的問題,或者是回應(yīng)對方的回答。
從它被訓(xùn)導(dǎo)之際起,研究人員會提出越來越復(fù)雜、高級的問題——涉及到使用一個更大的數(shù)據(jù)庫來獲取常識,以及道德、倫理和生命的意義等模糊化的答案。但這個機(jī)器人把這些答案都混淆了。
這個機(jī)器人能夠正確識別天行者盧克的身份,以及知道貓會不會飛、天空的顏色等。當(dāng)被提問“生存的目的是什么”時,它回答道:“為更高的利益作貢獻(xiàn)”。而當(dāng)被問到“生命的意義是什么?”時,機(jī)器人的回答竟是:“為了永生?!?/p>
然而,它卻不能回答“情緒的目的是什么”,甚至混淆了“道德”和“利他主義”的含義。
比如,它說“孕育一個孩子是不道德的”,還有對利他主義的定義是“如果你不信仰上帝,你就不會了解”。除此之外,它對簡單的數(shù)學(xué)問題也答不上來,也說出過“蜘蛛有三條腿”的話來。
“會話建模是實現(xiàn)自然語言理解和機(jī)器智能一項至關(guān)重要的任務(wù),”研究人員在論文中表示,“這是個神經(jīng)會話模型”?!袄鲜降姆椒ü倘淮嬖冢@些方法被限于特定的領(lǐng)域(比如定張機(jī)票),而且需要人工預(yù)置規(guī)則?!?/p>
“在這篇論文里面,我們展示了一個簡便易行的方法來完成這項任務(wù),即sequence-to-sequence結(jié)構(gòu)?!?/p>
本月早些時候,谷歌曾公布了一系列圖片來說明這個系統(tǒng)是如何運作的。
它展示了當(dāng)系統(tǒng)出錯時究竟發(fā)生了什么,以及系統(tǒng)自身是如何修正的。
這些圖片的生成經(jīng)過一定的過程——首先將一張照片輸送至神經(jīng)網(wǎng)絡(luò),并命令系統(tǒng)重點識別其特性,由此而生成。谷歌AI團(tuán)隊的成員表示,人工神經(jīng)網(wǎng)絡(luò)的應(yīng)用使得圖像分類和語音識別技術(shù)獲得顯著的進(jìn)步。
然而,Le和Vinyals的設(shè)計成果只停留在概念層面。但可以駕馭聊天機(jī)器人這一進(jìn)展,或許讓我們向智能人機(jī)對話的世界又靠近了一步。而最重要的是,小編認(rèn)為,這個項目在研究機(jī)器人的同時,也是一場關(guān)于人類自身的向內(nèi)探討。