美國科技行業(yè)大裁員背后:內(nèi)容審核團隊收縮,平臺危機隱現(xiàn)
北京時間 5 月 29 日上午消息,據(jù)報道,2022 年末,負責(zé)打擊虛假信息的 Meta 工程師團隊準備推出一款歷時半年開發(fā)的事實核查工具。此前的一系列危機嚴重損害了 Facebook 和 Instagram 的信譽,也給監(jiān)管機構(gòu)創(chuàng)造了更多機會來打擊這些平臺。面對這種現(xiàn)狀,這個工具得尤為重要。
借助這款新工具,美聯(lián)社、路透社以及有信譽的專家等第三方事實核查者,便可在有問題的文章頂部添加評論,將此作為確認其可信度的一種方式。
但知情人士透露,當(dāng) Meta CEO 馬克?扎克伯格(Mark Zuckerberg)宣布 2023 年為“效率之年”后,這項野心勃勃的計劃也無疾而終。
Meta 宣布的裁員計劃大約涉及 2.1 萬人,經(jīng)過好幾輪落地實施后,Meta 的信任和安全工作受到了極大影響。知情人士表示,這款事實核查工具初期已獲得了高管的認同,今年早些時候還處于測試階段,但卻因為此次裁員而被徹底拋棄。
Meta 發(fā)言人尚未對特定領(lǐng)域的裁員問題發(fā)表評論,但他通過電子郵件回應(yīng)稱:“我們?nèi)匀粚W⒂诎l(fā)展業(yè)界領(lǐng)先的誠信措施,并將繼續(xù)投資建設(shè)團隊和技術(shù),為我們的社區(qū)提供保護?!?/p>
放眼科技行業(yè),隨著企業(yè)通過收緊支出和大舉裁員來應(yīng)對宏觀經(jīng)濟壓力和收入增速放緩,大批負責(zé)保護這些最受歡迎的“互聯(lián)網(wǎng)樂園”的人也紛紛遭到清退。然而,此時卻正值網(wǎng)絡(luò)暴力叢生(這導(dǎo)致越來越多的青少年出現(xiàn)自殘行為)、虛假信息泛濫和暴力內(nèi)容激增之際,而人工智能的爆發(fā)式應(yīng)用更是令這些問題愈演愈烈。
在最近的財報電話會議上,科技高管紛紛強調(diào)了“少花錢,多辦事”的理念,希望通過更少的資源投入來提升效率。Meta、Alphabet、亞馬遜和微軟都在前幾年的大幅擴容之后實施了數(shù)以千計的裁員計劃。微軟 CEO 薩提亞?納德拉(Satya Nadella)最近還表示,他的公司將暫停全職員工的加薪計劃。
科技企業(yè)大幅壓縮負責(zé)信任、安全和人工智能倫理的團隊,充分說明,盡管 2024 年美國總統(tǒng)大選季還有幾個月就將拉開帷幕,網(wǎng)上的各種雜音勢必會增加,但企業(yè)還是更愿意迎合華爾街對效率的要求。在科技公司內(nèi)部,人工智能倫理團隊與信任和安全團隊隸屬不同的部門,但他們的目標都是減少企業(yè)的產(chǎn)品和服務(wù)可能對現(xiàn)實世界構(gòu)成的傷害。
“這是一場貓鼠游戲,施虐者通常會走在前面?!卑?納拉延(Arjun Narayan)說,他之前曾經(jīng)在谷歌和字節(jié)跳動擔(dān)任信任和安全主管,目前在新聞聚合應(yīng)用 Smart News 負責(zé)信任和安全業(yè)務(wù),“你總是扮演追趕的角色?!?/p>
但目前看來,在科技公司眼中,無論是信任和安全團隊,還是人工智能倫理團隊,似乎都是應(yīng)當(dāng)壓縮的成本。
知情人士表示,Twitter 去年 11 月實質(zhì)上解散了人工智能倫理團隊,僅保留一名員工,同時還對信任和安全部門裁員 15%。今年 2 月,谷歌對一個旨在應(yīng)對錯誤信息、激進情緒、有毒內(nèi)容的部門裁員三分之一。據(jù)報道,Meta 也在 1 月初與大約 200 名內(nèi)容審核解除了合同。根據(jù)提交給美國勞工部的數(shù)據(jù),該公司還對 Instagram 的健康上網(wǎng)部門至少裁員 16 人,同時削減了信任、誠信和責(zé)任部門的 100 多個崗位。
今年 3 月,亞馬遜壓縮了人工智能責(zé)任團隊的規(guī)模,微軟也對整個倫理和社會團隊進行裁員 —— 據(jù)悉,這兩輪裁員將該團隊的人數(shù)從 30 人縮減到零。亞馬遜并未對此置評,微軟則提供了有關(guān)裁員的官方博文。
在亞馬遜流媒體游戲部門 Twitch,員工是在 3 月才從公司 CEO 安迪?賈西(Andy Jassy)不合時宜的內(nèi)部帖子中得知了自己的命運。
賈西當(dāng)時宣布在全公司裁員 9000 人,包括 400 名 Twitch 員工。知情人士表示,在這 400 名員工中,約有 50 人負責(zé)監(jiān)控網(wǎng)絡(luò)暴力、非法或有害行為。
亞馬遜的信任和安全團隊損失了大約 15% 的員工,而此時正值內(nèi)容審核空前重要之際。
Twich CEO 丹?科朗西(Dan Clancy)在發(fā)給員工的郵件中并沒有特意提到信任和安全團隊,但卻確認了更大范圍的裁員計劃。事實上,他本人當(dāng)時也是剛剛從賈西的帖子中得知裁員消息的。
科朗西在郵件中寫道:“我很遺憾,竟然以這種方式跟大家溝通這種消息,而沒能提前與受此影響的員工進行直接溝通?!?/p>
重獲信任困難重重
一位 Twitch 信任和安全團隊的負責(zé)人表示,該部門剩余的員工感覺受到了“鞭笞”,并對第二輪裁員憂心忡忡。此人透露,裁員對團隊構(gòu)成重大打擊,而負責(zé)人身威脅、暴力、恐怖主義團體和自殘的 Twitch 執(zhí)法響應(yīng)團隊也大幅縮減。
Twitch 發(fā)言人尚未對此置評,只是提供了 3 月宣布裁員的一篇官方博文。該博文并未提及信任和安全或內(nèi)容審核團隊。
Smart News 的納拉延表示,由于大企業(yè)對安全問題的投資不足,導(dǎo)致他們難以應(yīng)對層出不窮的惡意活動。隨著不良內(nèi)容越來越多,“信任侵蝕”也成為他們不得不面對的問題。
“從長期來看,重獲消費者信任真的困難重重。”納拉延補充道。
Meta 和亞馬遜的裁員是為應(yīng)對投資者的要求和營收及股價的大幅下滑,而 Twitter 則是因為公司易主。
幾乎就在埃隆?馬斯克(Elon Musk)去年 10 月完成對 Twitter 440 億美元的收購后,他便開始進行大規(guī)模裁員。曾經(jīng)擔(dān)任 Twitter 機器學(xué)習(xí)倫理、透明度和問責(zé)團隊總監(jiān)的拉曼?喬杜里(Rumman Chowdhury)表示,原本擁有 17 人的 Twitter 人工智能倫理團隊在裁員后僅剩 1 人。
喬杜里表示,該團隊的成員是在他們的筆記本電腦遭到遠程關(guān)閉后才了解到自己的處境。幾小時后,他們就收到了公司的郵件通知。
“我當(dāng)時才開始清點人手,組建我們的人工智能紅色團隊,這樣就能從倫理角度對抗我們的模型,并加以落實?!眴潭爬镎f,“感覺就好像我們都在昂首闊步時,腳底下的毯子卻被人抽走了?!?/p>
喬杜里表示,他們的計劃包括開發(fā)“算法放大監(jiān)控機制”,通過跟蹤選舉和政黨動態(tài)來了解“內(nèi)容是否被以不當(dāng)方式放大了”。
喬杜里提到了 2021 年 7 月的一個項目,Twitter 的人工智能團隊當(dāng)時領(lǐng)導(dǎo)了業(yè)界首個算法偏見賞金競賽。他們邀請外部人士對平臺進行偏見審核,并將結(jié)果公之于眾。
喬杜里擔(dān)心馬斯克“目前正在積極拋棄我們所做的一切”。
“現(xiàn)在沒有內(nèi)部問責(zé)制?!彼f,“我們之前服務(wù)于兩個產(chǎn)品團隊,確保幕后工作能夠公平對待平臺上的用戶?!?/p>
Twitter 尚未對此置評。
廣告主也在撤離那些聲譽風(fēng)險日益加大的地方。
根據(jù) Sensor Tower 的數(shù)據(jù),在 Twitter 上投入金額最大的 10 類美國廣告客戶中,有 6 類都在今年第一季度同比縮減了支出,合計縮減幅度達到 53%。該網(wǎng)站最近也因為允許暴力圖片和視頻傳播而引發(fā)爭議。
聊天機器人的熱度激增導(dǎo)致問題更加復(fù)雜。這些類似于 ChatGPT 的人工智能模型使得不法分子很容易用各種內(nèi)容制作虛假帳號。艾倫人工智能研究所、普林斯頓大學(xué)和佐治亞理工學(xué)院的研究人員對 ChatGPT 的 API(應(yīng)用編程接口)進行測試后發(fā)現(xiàn),內(nèi)容“毒性”最高可以增加 6 倍,具體取決于企業(yè)分配給聊天機器人的功能定位,比如究竟是客戶服務(wù)代表還是虛擬助手。
監(jiān)管者也在密切關(guān)注人工智能不斷擴大的影響,以及企業(yè)對人工智能倫理及信任和安全團隊的縮減措施。美國聯(lián)邦貿(mào)易委員會(FTC)律師邁克爾?阿特爾森(Michael Atleson)本月早些時候在一篇博文中指出了這種悖論。
“鑒于人們對使用新型人工智能工具的擔(dān)憂,現(xiàn)在或許并不是企業(yè)建立或部署這類工具來取代人工智能倫理團隊的最佳時期。”阿特爾森寫道,“如果 FTC 打來電話詢問此事,而你希望讓我們相信你已經(jīng)充分評估了風(fēng)險并減輕了傷害,那么這些壓縮措施或許并不明智。”
風(fēng)向標 Meta
多年以來,科技行業(yè)享受了一輪超長牛市,為頂尖互聯(lián)網(wǎng)平臺帶來了大量資金,而 Meta 則借機成為許多專家眼中的倫理和安全領(lǐng)導(dǎo)者。
該公司花費多年時間招募了信任和安全團隊,其中有許多具備社會科學(xué)背景。他們希望以此避免重蹈 2016 年美國總統(tǒng)大選的覆轍。當(dāng)時,F(xiàn)acebook 就出現(xiàn)了大量的虛假信息,并在 2018 年“劍橋分析”丑聞達到頂峰。那起丑聞曝光了第三方如何非法使用 Facebook 的用戶數(shù)據(jù)。
但 2022 年,這一切卻急轉(zhuǎn)直下:在 Meta 的廣告業(yè)務(wù)和股價慘遭打擊后,扎克伯格進入了緊縮模式,令原先抱怨該公司過于臃腫的投資者歡呼不已。
除了事實核查項目,裁員還對研究人員、工程師、用戶設(shè)計專家和其他從事社會問題相關(guān)工作的員工造成了沖擊。4 位 Meta 前員工表示,專門負責(zé)應(yīng)對虛假信息的團隊遭到大幅裁員。
在 Meta 去年 11 月的第一輪裁員之前,該公司已經(jīng)著手將誠信團隊整合為一個部門。據(jù)前員工透露,去年 9 月,Meta 將中央誠信團隊與商業(yè)誠信團隊合并,前者負責(zé)處理社會問題,后者負責(zé)處理廣告和垃圾郵件、虛假帳號等商業(yè)問題。
Meta 信任和安全團隊的前員工表示,在隨后幾個月里,隨著更廣泛的緊縮計劃席卷整個公司,他們的許多同事都生活在裁員的陰影中,而管理人員也沒有看出他們的工作對 Meta 的利潤產(chǎn)生了怎樣的影響。
例如,改進垃圾郵件過濾器這種不需要太多資源的項目可以獲批,而以改變政策為目標的長期項目則很難獲得支持,比如涉及虛假信息的項目。在這樣的制度下,員工更愿意從事易于管理的任務(wù),這樣就能在 6 個月的績效評估中展示自己的成果。
在裁員前離職的 Meta 前項目經(jīng)理拉維?艾耶(Ravi Iyer)表示,他認識的許多人原本在設(shè)計和政策變化方面扮演關(guān)鍵角色,但他們同樣在此次裁員中失去工作,這比內(nèi)容審核團隊的裁員更令人懊惱。
“我不認為我們應(yīng)該想當(dāng)然地認為,信任和安全團隊縮編一定會令平臺變得更糟?!蹦壳皳?dān)任南加州大學(xué)科技心理學(xué)研究所主任的艾耶說,“但我發(fā)現(xiàn),許多被解雇的人都是在反思這些平臺的基礎(chǔ)設(shè)計方面最有見地的人。如果平臺不打算投資調(diào)整已經(jīng)被證明有害的設(shè)計,那才是我們都應(yīng)該擔(dān)心的事情?!?/p>
Meta 發(fā)言人之前就曾弱化裁員對虛假信息部門的影響:“該該團隊被整合進更廣泛的內(nèi)容誠信團隊,他們的規(guī)模要大得多,重點是整個公司的誠信工作?!?/p>
但知情人士表示,裁員之后,負責(zé)處理虛假信息的 Meta 員工的確減少了。
對于人工智能、誠信和安全以及內(nèi)容審核領(lǐng)域的專業(yè)人士而言,就業(yè)前景似乎非常渺茫。
剛剛被社交媒體公司裁員的人表示,隨著相關(guān)企業(yè)繼續(xù)緊縮開支,他們可以申請的職位并不多。一位 Meta 前員工稱,當(dāng)他面試了微軟和谷歌的信任和安全職位后,這些職位卻突然之間被砍掉了。
一位 Meta 前員工表示,該公司在信任和安全方面的收縮,可能會對規(guī)模較小的同行和初創(chuàng)公司產(chǎn)生影響,他們似乎會“在裁員方面追隨 Meta”。
Twitter 前人工智能倫理負責(zé)人喬杜里表示,這些類型的工作肯定會成為削減的對象,因為“他們不能提高產(chǎn)品利潤”。
“我認為這是一種完全錯誤的框架?!彼f,“但如果你的價值體現(xiàn)在公司沒有被起訴,或者別人沒有受到傷害,那就很難證明你的價值。當(dāng)我們的工作結(jié)束后,沒有鮮花和掌聲,但卻可以創(chuàng)造一個安全無虞的社區(qū)。這可以創(chuàng)造長期的財務(wù)價值,但從每個季度的財報來看,確實很難衡量這背后的意義?!?/p>
一位 Twtich 前員工透露,該公司的信任和安全團隊中有些人知道在哪里能發(fā)現(xiàn)危險活動。這對游戲行業(yè)至關(guān)重要,因為游戲本身就是一個“獨特的野獸”。
而現(xiàn)在,很少有人去查看這些“黑暗、可怕的地方”,那里是犯罪分子藏身的地方,也是網(wǎng)暴活動泛濫的地方。
更重要的是,沒有人知道情況究竟會有多糟。