国产av综合第1页_亚洲综合在线图片天堂_2021av天堂网中文手机_欧美巨大另类极品_亚洲成人在线中文字幕无码_欧美极品第1页专区_色色网站免费无码_免费另类男女性爱视频的完整版_五月丁香黄色视频三级片A天堂_一级黄片免费播放

南京奧特賽人工智能技術研發(fā)有限公司

算法必須為社會服務,而不是反過來

2022年3月1日,國家網信辦等四部門聯(lián)合發(fā)布的《互聯(lián)網信息服務算法推薦管理規(guī)定》(以下簡稱《規(guī)定》),正式實施。算法推薦技術一般指通過抓取用戶日常的使用數(shù)據(jù),分析得出人們的行為、習慣和喜好,進而精準化地提供信息、娛樂、消費等各類服務。


算法推薦的本意,是在更好地挖掘用戶潛在需求的基礎上,提升企業(yè)服務水平,實現(xiàn)用戶與企業(yè)的雙贏。早期沃爾瑪通過數(shù)據(jù)分析發(fā)現(xiàn)啤酒與尿布在周末存在高度相關的銷售關系,進而改變貨架陳列,就是一個經典的案例。


然而,近年來算法推薦在為用戶提供便利的同時,“大數(shù)據(jù)殺熟”、誘導沉迷等不合理的應用也在影響用戶的正常生活。隨著《規(guī)定》的實施,算法推薦會在更加規(guī)范的框架下運營,對企業(yè)和個人會帶來哪些影響?我們邀請了北京大學新聞與傳播學院教授、“信息社會50人論壇”成員胡泳,進行了深度解讀。


01算法如何(秘密地)管理世界


當你在網上瀏覽一雙新鞋,在Netflix上挑選一部流媒體電影,或申請住房貸款時,一個算法很可能對結果有話要說。


復雜的數(shù)學公式在各行各業(yè)發(fā)揮著越來越大的作用:從檢測皮膚癌,到推薦新的社交媒體朋友,決定誰能得到一份工作,如何部署警察資源,誰能以何種成本獲得保險,或者哪一位在“禁飛”名單上。


我們可以看到算法在這個世界上的工作。我們知道它們正在塑造我們周圍許多事務的結果。但我們大多數(shù)人都不知道算法是什么,或者我們是如何被它們影響的。


算法是一個黑盒子。

我們熟悉一些明顯的例子,比如谷歌搜索算法、亞馬遜推薦算法、百度地圖算法或美團外賣算法。但人們很少覺察到,算法已經被邀請進入我們的政府、法庭、醫(yī)院和學校,它們正在代表我們作出很多決定,悄悄地、但是巧妙地改變了社會的運作方式。


往往只有在算法出錯的時候,我們才意識到其深入人類生活的程度。往好了說,我們與算法的關系都是一言難盡的。人對機器的態(tài)度十分復雜:有的時候,我們盲目信任機器。我們期望它們成為幾乎是神一樣的存在,如此完美,如此精準,以至于我們會盲目地跟隨它們,去往其所帶領的任何地方。


另一方面,我們又有一種習慣,一旦某一算法被證明有一點缺陷,我們馬上就會否定它。如果Siri出錯,或者GPS導航錯誤,我們就會認為整部機器都是垃圾。更不用說機器人醫(yī)生誤診、自動駕駛汽車撞死行人這類事。


其實兩種截然相反的態(tài)度都沒有任何意義。算法并不完美,它們往往包含創(chuàng)造它們的人的偏見,但很多時候,它們仍然令人難以置信地有效,使我們所有人的生活也變得更加容易。因此,最正確的態(tài)度應該是介于兩者之間。我們不應盲目地相信算法,但也不應完全否定它們。


人類和機器不一定要相互對立。我們必須與機器合作,承認它們有缺陷,就像我們一樣。它們也會犯錯,就像我們一樣。


如同倫敦大學學院的數(shù)學家漢娜·弗萊所說:“我們不必創(chuàng)造一個機器告訴我們該做什么或如何思考的世界,盡管我們很可能最終進入這樣一個世界。我更喜歡一個人類與機器、人類與算法都是伙伴的世界。”

現(xiàn)在,我們花大量精力討論,人類和人工算法最終很可能會以模糊兩者區(qū)別的方式結合起來。其實這個愿景距離我們還非常遙遠,因此,盡管這樣的對話很有趣,但卻也可能令我們對目前正在發(fā)生的事情分散了注意力。我們迫切需要關注的是,管理我們生活的規(guī)則和系統(tǒng)正在我們周圍發(fā)生變化,而算法是其中的關鍵部分。


我們一直生活在技術的狂野西部,在那里大科技公司可以在未經允許的情況下收集私人數(shù)據(jù)并將其出售給廣告商。平臺正在把人變成產品,而他們甚至沒有意識到這一點。互聯(lián)網巨頭實際上成為巨大的媒體公司,但假扮成中立的平臺,吞食曾經維持舊媒體生態(tài)系統(tǒng)的收入,同時拒絕承擔正常形式的編輯責任。同時,它們的領導人擁有跨國管轄權,行使著傳統(tǒng)的種種權力——從文化審查、政治放逐到構建巨大的市場——卻缺乏傳統(tǒng)的監(jiān)督機制。


在此過程中,即便某一個特定的算法是有效的,也沒有人評估它是否為社會提供了凈利益,還是消耗了大量的社會成本。不存在任何人、任何機構做這些檢查。只有到一系列問題浮出水面之后,各方才逐漸形成共識:社會需要一個強大的算法監(jiān)管框架。


02中國走在全世界算法監(jiān)管的前列


在中國,應用程序(App)近年來蓬勃發(fā)展,這要歸功于它們?yōu)橛脩籼峁┢渌埠玫囊曨l、開展產品和服務比價或完美定制消費的能力。但是中國第一部算法法規(guī)的出臺,似乎將會限制科技巨頭的這些能力。


2021年11月16日,國家互聯(lián)網信息辦公室審議通過了《互聯(lián)網信息服務算法推薦管理規(guī)定》,2022年伊始,會同工業(yè)和信息化部、公安部、國家市場監(jiān)督管理總局聯(lián)合發(fā)布,自2022年3月1日起施行?!兑?guī)定》旨在遏制算法不合理應用導致的問題。由于種種不合理的應用,在過去很長一段時間里,公司和商家能夠利用看似無所不知的算法來鎖定特定人群或個人,以銷售產品或影響意見。


算法新規(guī)是否會影響從阿里巴巴、騰訊到美團、字節(jié)跳動等公司的商業(yè)模式,以及監(jiān)管機構又將如何執(zhí)行該法規(guī),都值得我們下一步密切關注。


以下是算法法規(guī)中的一些重要條款:

公司不得利用算法推薦從事法律、行政法規(guī)禁止的活動,如危害國家安全和社會公共利益、擾亂經濟秩序和社會秩序等。


算法推薦服務提供者應當定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應用結果等,不得設置誘導用戶沉迷、過度消費等違反法律法規(guī)或者違背倫理道德的算法模型。


鼓勵算法推薦服務提供者綜合運用內容去重、打散干預等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對用戶產生不良影響,預防和減少爭議糾紛。


算法推薦服務提供者提供互聯(lián)網新聞信息服務的,應當依法取得互聯(lián)網新聞信息服務許可,不得生成合成虛假新聞信息,不得傳播非國家規(guī)定范圍內的單位發(fā)布的新聞信息。


算法推薦服務提供者應當以顯著方式告知用戶“算法推薦服務的基本原理、目的意圖和主要運行機制”等。


算法推薦服務提供者應當向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關閉算法推薦服務的選項。算法推薦服務提供者應當向用戶提供選擇或者刪除用于算法推薦服務的針對其個人特征的用戶標簽的功能。


算法推薦服務提供者不得向未成年人推送可能引發(fā)未成年人模仿不安全行為和違反社會公德行為、誘導未成年人不良嗜好等可能影響未成年人身心健康的信息,不得利用算法推薦服務誘導未成年人沉迷網絡。


算法推薦服務提供者向老年人提供服務的,應當保障老年人依法享有的權益,充分考慮老年人出行、就醫(yī)、消費、辦事等需求。


算法推薦服務提供者向勞動者提供工作調度服務的,應當保護勞動者取得勞動報酬、休息休假等合法權益,建立完善平臺訂單分配、報酬構成及支付、工作時間、獎懲等相關算法。


算法推薦服務提供者向消費者銷售商品或者提供服務的,應當保護消費者公平交易的權利,不得根據(jù)消費者的偏好、交易習慣等特征,利用算法在交易價格等交易條件上實施不合理的差別待遇等違法行為。

這些規(guī)定反映了當今中國社會最關注的一些問題——大型科技公司的透明度和反競爭行為、網上內容控制、零工經濟、人口老齡化、未成年人保護等,并尋求在算法被用來腐蝕社會團結或加劇市場問題之前未雨綢繆。

實質上,《規(guī)定》要求在其服務中使用基于算法的推薦的公司提供更多的透明度,說明這些算法是如何工作的,以及將對用戶產生什么影響。《規(guī)定》要求平臺“積極傳播正能量”,并確保它們的算法應用“向上向善”;禁止它們設計誘使用戶參與“過度消費”或對平臺上癮的模式;禁止它們?yōu)E用個人信息,實行“大數(shù)據(jù)殺熟”;鼓勵平臺綜合運用內容去重、打散干預等策略,不得利用算法操縱榜單、控制熱搜等干預信息呈現(xiàn);要求平臺滿足不同群體的利益訴求,更好保障未成年人、老年人、勞動者等群體權益,消除算法歧視等。


這些要求與許多內容平臺、社交媒體、游戲廠商或電子商務供應商現(xiàn)行的商業(yè)模式不盡一致,預計會對所有過度依賴預測消費者偏好而將其商業(yè)模式與之掛鉤的公司產生影響。

但算法法規(guī)的執(zhí)行可能會在監(jiān)管機構和科技公司之間引發(fā)沖突。這是因為,為了讓監(jiān)管機構發(fā)現(xiàn)違規(guī)行為,它們可能不得不檢查算法背后的代碼。而算法是一個公司最深藏的秘密,也是其最寶貴的資產,讓政府在其中展開挖掘,有可能帶來很多爭議。比如,監(jiān)管部門能獲得多少代碼的權限?即使它們可以接觸到代碼,真的能確保算法違規(guī)的事情不再發(fā)生嗎?

同時,監(jiān)管機構在試圖監(jiān)督科技公司的算法方面,將進入一個未知的領域。鑒于算法新規(guī)的規(guī)定相當廣泛,部分內容具有較強的技術性,無論對執(zhí)法機構和公司來說,都是一個學習過程,它們將承擔遵守這些規(guī)定的主要責任。
然而,無論從哪方面看,這些規(guī)定都代表了全球最領先的算法監(jiān)管框架之一。所有本地消費產品和零售服務商、電商公司、短視頻應用和社交媒體平臺都將受到這一法規(guī)的影響。根據(jù)新規(guī)則,算法將不再被允許影響網絡輿論,逃避監(jiān)督管理,或促成壟斷和不公平競爭。當然,對于收入可能在短期內受到影響的企業(yè)來說,這不是一個好消息。但是,如果企業(yè)現(xiàn)在必須重新談判他們與用戶的關系,而把數(shù)字生活的控制權至少部分交還給用戶,這難道不是一件好事嗎?


03大規(guī)模展開的社會實驗,必須認真對待


眼下,全球各國政府都紛紛提出立法建議,試圖遏制科技巨頭的權力。這些巨頭的算法被指推薦加劇仇恨言論和惡化政治極化的帖子,促成封閉和高度同質化的回聲室而讓每個人得到自己的現(xiàn)實片斷,在電商交易中偏向平臺和平臺可以收取服務費的賣家,誘使青少年進行不當?shù)纳鐣容^并放大他們在社交網絡中的不安全感等等。對頭號互聯(lián)網大國美國來說,監(jiān)管互聯(lián)網平臺的挑戰(zhàn)比中國更棘手,因為美國憲法第一修正案限制了政府命令私營公司刪除某些類型內容的能力。

很明顯,在反壟斷方面,中國目前比美國的力度大得多。體現(xiàn)在算法監(jiān)管上,中國的領先體現(xiàn)在:其一,中國的算法法規(guī)強調算法的透明度和可解釋性,強大的透明度要求、嚴格的算法機制機理審核和科技倫理審查,凸顯了適當?shù)钠脚_監(jiān)督的重要性,如果缺乏這種監(jiān)督,平臺可能因為權力過大而對社會造成損害。

其二,中國的算法法規(guī)明確提出讓用戶控制推薦算法,這將迫使平臺尊重隱私或在算法上不那么具有強制性。平臺應該致力于提供算法推薦服務以外的服務版本,其中的內容不是由“不透明的算法”所選擇的。比如,社交媒體平臺應當允許用戶完全關閉推薦算法,而只是按照時間順序查看帖子。
用戶在與互聯(lián)網平臺接觸時應當獲得選擇余地,而不被由用戶特定數(shù)據(jù)驅動的秘密算法所操縱??萍脊拘枰拐\地說明用戶和平臺的主要算法之間的關系到底是如何運作的,并給予用戶更多的控制權。從長遠來看,只有當人們對算法系統(tǒng)的工作方式有更多的了解,并有能力對其進行更多的知情控制時,他們才會對這些系統(tǒng)感到放心。

當然,挑戰(zhàn)仍然存在。比如,對算法透明度和用戶控制的推動讓人想起了隱私聲明中的“知情同意”框架。兩者都依賴于用戶能夠理解他們所得到的關于某個系統(tǒng)的信息,然后對自己是否或如何使用它作出選擇。然而,熟悉隱私政策的人都知道,“無人閱讀隱私協(xié)議”是網絡隱私保護的一個痼疾,原因在于,用戶認為隱私協(xié)議通常都又長又難讀。如果你認為隱私聲明的可讀性很強,那么試著解釋一下算法看看。

而且,很多在網絡上暴露出來的問題并不能夠全然歸咎于算法。即使允許用戶選擇算法,用戶也未必主動選擇使他們的動態(tài)新聞流更加多樣化,并參與更廣泛的意見和信息來源。當涉及到仇恨言論、極端主義和錯誤信息時,算法甚至可能都不是問題的最危險部分。真正的問題是人們在平臺上尋找仇恨或極端的言論并找到了它們。同樣,當你看到圍繞錯誤信息和虛假信息所發(fā)生的事情時,有一些證據(jù)表明,它們不一定是通過算法提供的,而是來自人們選擇加入的群體。
許多對算法的擔憂,其核心來自我們的一種假設,即在人類和復雜的自動化系統(tǒng)之間,我們不是控制者,人類的作用已經被削弱了。或者,正如《華爾街日報》的技術專欄作家喬安娜·斯特恩所宣稱的那樣,我們已經“失去了對我們所看、所讀——甚至所想——的控制,把控制權拱手讓給了那些最大的社交媒體公司”。

事實是,機器并沒有全盤接管,但毫無疑問它們會長久留在這里。我們需要與它們和平相處。更好地理解用戶和算法之間的關系,符合每個人的利益。人們需要對現(xiàn)代生活中不可或缺的系統(tǒng)有信心。互聯(lián)網需要新的道路規(guī)則,在獲得廣泛的公眾同意之后。而科技公司需要了解社會對其運作感到滿意的參數(shù),這樣它們才有可能繼續(xù)創(chuàng)新。這始于開放和透明,以及給用戶更多的控制權。

每一個社交媒體平臺,每一個成為我們生活一部分的算法,都是人類目前正在大規(guī)模展開的社會實驗的一部分。全世界有數(shù)十億人在與這些技術互動,這就是為什么哪怕算法上最微小的變化都會對全人類產生巨大的影響。而科技公司,不管是被動的還是主動的,正開始認識到這一點,并認真對待。歸根結底,算法必須為社會服務,而不是反過來。

? Copyright 2013 南京奧特賽人工智能技術研發(fā)有限公司 版權所有 備案號:蘇ICP備19032300號-1 蘇公網安備32011602010459 技術支持:科威鯨網絡