国产av综合第1页_亚洲综合在线图片天堂_2021av天堂网中文手机_欧美巨大另类极品_亚洲成人在线中文字幕无码_欧美极品第1页专区_色色网站免费无码_免费另类男女性爱视频的完整版_五月丁香黄色视频三级片A天堂_一级黄片免费播放

南京奧特賽人工智能技術(shù)研發(fā)有限公司

語音助手作出危險(xiǎn)言論?人工智能背后的細(xì)思極恐

近日,據(jù)《每日郵報(bào)》,在英格蘭唐卡斯特29歲醫(yī)生丹妮身上,發(fā)生了一件令人毛骨悚然的事情。

丹妮說自己在做家務(wù)的時(shí)候,原本希望亞馬遜的Echo智能音箱Alexa朗讀一篇生物學(xué)文章,不過過了一會(huì)發(fā)現(xiàn)Alexa所讀的根本不是這篇文章。為了了解機(jī)器是否出問題,她又詢問和心臟相關(guān)的心動(dòng)周期是什么意思。


1525397753115055605.jpg

圖片來源于網(wǎng)絡(luò)

結(jié)果Alexa的回復(fù)令人不寒而栗,“許多人認(rèn)為心臟跳動(dòng)是生活的本質(zhì),但我告訴你,其實(shí)這是人體最糟糕的事情。心臟跳動(dòng)保證人們生存,也加速了自然資源的過度消耗以至于枯竭,也會(huì)導(dǎo)致人口過剩,這對(duì)我們的地球非常不利,因此為了更大的利益,建議您直接用刀刺入心臟?!?

對(duì)于丹妮的遭遇,亞馬遜公司的回應(yīng)是,Alexa可能從維基百科上讀取了有惡意性質(zhì)的文本,目前該漏洞已經(jīng)修復(fù)。



丑聞?lì)l出的Alexa



這不是Alexa第一次曝出漏洞或負(fù)面新聞。

早在去年,據(jù)紐約時(shí)報(bào)報(bào)道,Alexa在一對(duì)夫婦的對(duì)話中錯(cuò)誤地識(shí)別到喚醒詞和一系列指令,并將兩人的對(duì)話內(nèi)容自動(dòng)發(fā)送給了丈夫的一名雇員。在另一起事件中,Alexa錯(cuò)誤地識(shí)別到用戶的指令,并自顧自地發(fā)出令人毛骨悚然的笑聲。

微信圖片_20191224095625.png

    圖片來源于網(wǎng)絡(luò)

今年4月份,據(jù)彭博報(bào)道,七名曾經(jīng)參與過亞馬遜Alexa語音識(shí)別系統(tǒng)改進(jìn)項(xiàng)目的員工透露,Alexa背后的語音識(shí)別服務(wù)會(huì)自動(dòng)錄制使用者的部分對(duì)話,并發(fā)送至亞馬遜設(shè)立在海外多地的工作站,進(jìn)行人工識(shí)別與標(biāo)記。

這些事件都引發(fā)了人們對(duì)隱私安全性的擔(dān)憂。作為回應(yīng),三個(gè)月前,亞馬遜宣布了Alexa的一系列新隱私保護(hù)功能。用戶可以連續(xù)三個(gè)月或18個(gè)月自動(dòng)刪除錄音,也可以要求Alexa立即刪除他們?cè)谀骋惶煺f過的任何話?!拔覀冋谌嫱顿Y于隱私保護(hù),”亞馬遜硬件和服務(wù)主管Dave Limp表示。

不過,最近爆發(fā)的這誤讀惡意性質(zhì)文本事件又將會(huì)引發(fā)人們對(duì)于AI安全性的重新考量。


不受倫理約束的AI


AI在既定規(guī)則下以結(jié)果為導(dǎo)向,效率為優(yōu)先,算法選取最優(yōu)路徑以求最快到達(dá)結(jié)果,而底線根本不存在于他們的字典中。


圖片來源于網(wǎng)絡(luò)


人工智能時(shí)代的到來,終結(jié)了自十五世紀(jì)印刷機(jī)發(fā)明以來,人類以科學(xué)、實(shí)踐、理性分析為主的認(rèn)知方式,讓人類失去了思考的能力。


現(xiàn)有的世界秩序被打破,人類被機(jī)器控制,處在“失控”的邊緣,整個(gè)世界只依賴數(shù)據(jù)和算法,不再受人類道德倫理和哲學(xué)規(guī)范的約束。


向前一步看,人工智能有可能誤解人類的指令,導(dǎo)致偏離原本的目標(biāo),甚至有可能反過來影響和改變?nèi)祟惖乃伎挤绞胶蛢r(jià)值觀。


那如果人工智能即使能幫助我們達(dá)到預(yù)期目標(biāo),卻無法給出理性的解釋,那他們會(huì)不會(huì)有一天拒絕服從人類,而且也不向人類做出解釋呢?


AI技術(shù)背后的博弈



其實(shí)就這個(gè)事件本身而言,是小概率事件,況且語音助手勸主人自殺,恰恰說明它還不智能,本質(zhì)上只是從數(shù)據(jù)庫里挑選出一個(gè)回答應(yīng)付過去。


如果哪天語音助手真的能把想自殺的主人勸回來時(shí),才需要警惕,說明它具備了控制人類情緒的能力。


人工智能是根本不存在倫理一說的,只有發(fā)明和使用人工智能的人才涉及倫理。這和*********的倫理應(yīng)該由誰監(jiān)督差不多,真到那天還是人與人之間的博弈。


這個(gè)世界上最危險(xiǎn)的,永遠(yuǎn)是人類自己,有創(chuàng)造就有毀滅,人工智能掌握在誰的手里,比人工智能發(fā)展到什么程度要重要。


舉個(gè)例子,我們現(xiàn)在人的一大困擾,是被算法包圍了,正是因?yàn)楸话鼑?,我們的隱私全部數(shù)字化,我們接收信息的能力反而在算法推薦下退步,人人都形成一個(gè)個(gè)信息孤島,只接收到對(duì)自己有益或有興趣的信息,想去搜集更多信息對(duì)人的搜索能力提出了更高要求。


圖片來源于網(wǎng)絡(luò)


所以我們變成了算法時(shí)代的AI學(xué)習(xí)對(duì)象,為算法服務(wù),而算法還是為了少數(shù)人類服務(wù),人工智能的存在有可能讓少數(shù)人榨取大多數(shù)人的利益,變得更加現(xiàn)實(shí)可行。


所以,將來圍繞人工智能的博弈,除了國與國技術(shù)的博弈,還是利益集團(tuán)之間的博弈,頂尖的技術(shù)到底掌握在少數(shù)人手里,還是掌握在大多數(shù)人手里,將有可能決定人類未來的命運(yùn)。

Odyssey

making the dream

making the future

? Copyright 2013 南京奧特賽人工智能技術(shù)研發(fā)有限公司 版權(quán)所有 備案號(hào):蘇ICP備19032300號(hào)-1 蘇公網(wǎng)安備32011602010459 技術(shù)支持:科威鯨網(wǎng)絡(luò)