日韩精品 中文字幕 动漫,91亚洲午夜一区,在线不卡日本v一区v二区丶,久久九九国产精品自在现拍

注冊 | 登錄讀書好,好讀書,讀好書!
讀書網(wǎng)-DuShu.com
當(dāng)前位置: 首頁新聞資訊文化

AI關(guān)乎權(quán)力而非技術(shù);心理治療機(jī)器人的悖論

近日,《雅各賓》發(fā)表了研究者Jason Resnikoff的文章,認(rèn)為AI并非一種特定的技術(shù),而只是一種敘述。

AI關(guān)乎權(quán)力而非技術(shù)  

近日,《雅各賓》發(fā)表了研究者Jason Resnikoff的文章,認(rèn)為AI并非一種特定的技術(shù),而只是一種敘述。AI不過是這個利用技術(shù)烏托邦主義來貶低勞動的敘述中的一個新篇章。AI有可能對工人造成嚴(yán)重傷害——原因并非來自技術(shù)本身,而在于老板掌控了它。Jason Resnikoff是《勞動的終結(jié):自動化的承諾如何降低了勞動質(zhì)量》一書的作者。

AI帶來的物質(zhì)變化并未消除人類勞動,反而讓勞動退化。作者認(rèn)為,這在機(jī)械化的歷史中早有先例,從工業(yè)革命伊始,技術(shù)不但沒有減輕工作量,反而使雇主利用技術(shù)——甚至只是技術(shù)的概念——把原本優(yōu)質(zhì)的工作變成了低技能勞動,并通過技術(shù)掩蓋人類的勞動,讓勞動力成本更低。

雇主們借用AI這個詞匯來編織一個技術(shù)進(jìn)步、打壓工會和勞動退化(Labor Degradation,降低勞動質(zhì)量)密不可分的故事。然而,這種退化并非技術(shù)的本質(zhì),而是資本和勞動關(guān)系的產(chǎn)物。目前關(guān)于AI和工作未來的討論,只不過是雇主長期以來試圖削弱工人權(quán)力、聲稱人類勞動價值下降的又一新篇章。

當(dāng)技術(shù)企業(yè)家談?wù)摗癆I做這個”、“AI做那個”時(比如埃隆·馬斯克向前英國首相里?!ぬK納克承諾的“AI將帶來豐裕的時代,人人無需工作,因為‘AI能夠包攬一切’”),他們用的“AI”一詞更多是掩蓋實際情況。學(xué)術(shù)研究領(lǐng)域的AI通常并非特指某種技術(shù),而是如權(quán)威人士瑪格麗特·A·博登所定義的“讓計算機(jī)做與人類思維類似的事情的實踐”。換句話說,AI更像是一種希望,即制造出表現(xiàn)得像是智能的機(jī)器。沒有一項單一技術(shù)讓AI在計算機(jī)科學(xué)中獨(dú)樹一幟。

當(dāng)前許多關(guān)于AI的討論集中在人工神經(jīng)網(wǎng)絡(luò)在機(jī)器學(xué)習(xí)中的應(yīng)用。機(jī)器學(xué)習(xí)指的是使用算法在大量數(shù)據(jù)集中尋找模式以進(jìn)行統(tǒng)計預(yù)測,如ChatGPT這樣的聊天機(jī)器人。聊天機(jī)器人通過龐大的計算能力和海量數(shù)據(jù)來計算一個詞出現(xiàn)在另一個詞旁邊的統(tǒng)計概率。

機(jī)器學(xué)習(xí)通常依賴于設(shè)計者來幫助系統(tǒng)解釋數(shù)據(jù),這時人工神經(jīng)網(wǎng)絡(luò)派上用場(機(jī)器學(xué)習(xí)和人工神經(jīng)網(wǎng)絡(luò)只是AI的兩種工具)。人工神經(jīng)網(wǎng)絡(luò)是一組鏈接的軟件程序(每個程序稱為一個節(jié)點(diǎn)),每個節(jié)點(diǎn)可以計算一項特定任務(wù)。以ChatGPT為例(屬于大語言模型類別),每個節(jié)點(diǎn)是一個運(yùn)行數(shù)學(xué)模型(稱為線性回歸模型)的程序,接收數(shù)據(jù)、預(yù)測統(tǒng)計可能性并生成輸出。這些節(jié)點(diǎn)相互連接,每個鏈接有不同權(quán)重,用于影響最終的輸出。

這種模仿與人類意識相去甚遠(yuǎn)。研究人員并不了解大腦的運(yùn)作,因此無法真正將語言規(guī)則編碼進(jìn)機(jī)器內(nèi)。相反,他們采用了微軟研究院研究員凱特·克勞福德稱之為的“概率或蠻力方法”。人類并不以這種方式思考。例如,兒童并不是通過閱讀所有維基百科的內(nèi)容并統(tǒng)計詞語的相鄰頻率來學(xué)習(xí)語言的。此外,這些系統(tǒng)消耗大量能源且費(fèi)用高昂。訓(xùn)練ChatGPT-4的成本約為7800萬美元;Google的Gemini Ultra則達(dá)到1.91億美元。人類學(xué)會和使用語言的成本遠(yuǎn)低于此。

在標(biāo)準(zhǔn)機(jī)器學(xué)習(xí)中,人類標(biāo)記不同輸入以教導(dǎo)機(jī)器如何組織數(shù)據(jù)及其在決定最終輸出時的重要性。例如,許多人領(lǐng)著極低的報酬“預(yù)訓(xùn)練”或教導(dǎo)計算機(jī)程序辨認(rèn)圖像內(nèi)容,標(biāo)記圖片以便程序區(qū)分花瓶和杯子。據(jù)《衛(wèi)報》報道,OpenAI在肯尼亞雇用合同工為ChatGPT標(biāo)記涉及暴力、自殘、謀殺等內(nèi)容的文本和圖像,報酬低得驚人。多名工人聲稱這些工作條件剝削性極強(qiáng),并請求肯尼亞政府對OpenAI展開調(diào)查。

《衛(wèi)報》的文章以非洲員工Mercy和Anita的經(jīng)歷為例。Mercy是一名位于肯尼亞內(nèi)羅畢的內(nèi)容審核員,她的工作包括審查社交媒體上的暴力或色情內(nèi)容,以確保其符合公司的社區(qū)準(zhǔn)則。這些內(nèi)容常常涉及極端暴力、性虐待等,給她的心理帶來了沉重的負(fù)擔(dān)。在她的一次審核中,她竟意外發(fā)現(xiàn)了一段視頻的受害者是自己的祖父,因這段視頻,她在同事面前崩潰,但主管只是安慰她“明天可以休息”,卻要求她繼續(xù)當(dāng)天的工作。

Anita則在烏干達(dá)北部城市古魯從事數(shù)據(jù)標(biāo)注工作,負(fù)責(zé)分析視頻內(nèi)容中的司機(jī)面部表情,幫助構(gòu)建AI的“車內(nèi)行為監(jiān)測系統(tǒng)”。她的工作壓力大,報酬低,長時間面對電腦屏幕注視枯燥的視頻內(nèi)容,每周45小時的勞動報酬僅略高于200美元,約合每小時1.16美元。

這些內(nèi)容審核員和數(shù)據(jù)標(biāo)注員的日常工作極為艱苦,不僅需要時刻集中注意力,還得面對大量令人不安的內(nèi)容。由于生產(chǎn)效率要求嚴(yán)格,他們必須在規(guī)定時間內(nèi)完成大量任務(wù),幾乎沒有時間休息或反思,許多人因此飽受心理創(chuàng)傷、抑郁甚至有自殺傾向。

文章指出,全球南方(如非洲)的工人因經(jīng)濟(jì)脆弱性,不得不接受這樣的工作條件,而雇主通常對他們的身心健康缺乏關(guān)懷。內(nèi)容審核公司會通過閉路電視監(jiān)控系統(tǒng)、指紋掃描等監(jiān)視員工的行為,計算每一秒的工作效率。盡管這些公司聲稱為貧困地區(qū)提供就業(yè)機(jī)會,但實際工作條件令人窒息,且合同通常僅為短期,員工隨時可能失去工作。工人不敢抱怨,因為知道自己很容易被替代。

根據(jù)《雅各賓》文章的作者,當(dāng)代AI的使用趨勢卻趨向于將技術(shù)神秘化,將其包裹成一個龐大且難以理解的革命性機(jī)制。這種效果并非偶然,而是符合資本的利益。AI,并不是一項革命性的技術(shù),而是關(guān)于技術(shù)的一個敘述。AI不過是這個利用技術(shù)烏托邦主義來貶低勞動的敘述中的一個新篇章。

幾家法國大型連鎖超市聲稱他們使用“人工智能”來識別小偷,然而實際情況是這些監(jiān)控是由馬達(dá)加斯加的員工通過觀看監(jiān)控視頻完成的,而這些員工每月的收入僅在90至100歐元之間。同樣的情況也發(fā)生在所謂的“Voice in Action”技術(shù)(其制造商聲稱這是一個“人工智能驅(qū)動的”系統(tǒng))上,該技術(shù)在美國的快餐店接收顧客的得來速訂單;事實上,超過70%的訂單都是由菲律賓的員工處理的。人類學(xué)家瑪麗·格雷(Mary Gray)和微軟的高級首席研究員西達(dá)爾斯·蘇里(Siddharth Suri)形象地稱這種將人力勞動隱藏在數(shù)字前臺的做法為“幽靈工作”。

將人工智能僅視為一種技術(shù)——無論是機(jī)器學(xué)習(xí)還是數(shù)字平臺——都是錯誤的。這引出了關(guān)于自動化的話語,而近年來的人工智能熱潮正是其最新的迭代??萍歼M(jìn)步的理念早在戰(zhàn)后時期之前就已出現(xiàn),但在二戰(zhàn)之后,這些理念逐漸凝聚成了一種通常被用來削弱工人權(quán)力的意識形態(tài)。

這種意識形態(tài)的初始版本是二戰(zhàn)后美國出現(xiàn)的自動化話語,該話語主張所有技術(shù)變革必然指向人類勞動,尤其是藍(lán)領(lǐng)工業(yè)勞動的消失。它是兩種相互交織的現(xiàn)象的直接產(chǎn)物。首先,是在激進(jìn)的1930年代后形成的工會組織力量,這對資本構(gòu)成了威脅;其次,是戰(zhàn)后時期非凡的技術(shù)熱情。從1930年代開始,美國企業(yè)就試圖將自己及其產(chǎn)品描繪為帶來左翼激進(jìn)分子曾與政治革命聯(lián)系在一起的那種烏托邦式未來的源頭。(例如,杜邦公司承諾通過化學(xué)實現(xiàn)“革命性”變化以及“更好的生活”,而不是財產(chǎn)的重新分配。)

二戰(zhàn)的勝利、政府資助的技術(shù)突破以及隨之而來的經(jīng)濟(jì)繁榮似乎印證了這種觀點(diǎn)。正如1955年《商業(yè)周刊》所說,人們“感到實驗室和工廠里誕生了某種新事物和革命性事物”。因此,從工業(yè)領(lǐng)袖到工會官員,再到學(xué)生運(yùn)動成員,甚至一些激進(jìn)的女權(quán)主義者,都覺得或許美國技術(shù)能夠克服工業(yè)資本主義生產(chǎn)中最痛苦的特征:階級斗爭和工作異化。

這種普遍的信念促使福特汽車公司的一位生產(chǎn)副總裁創(chuàng)造了“自動化”一詞,用來描述公司通過再造工業(yè)社會本身的過程,以對抗工會、惡化工作條件。福特公司及其他公司很快將“自動化”描繪成一種將根本改變工業(yè)工作場所的革命性技術(shù)。自動化的定義模糊不清,但仍有許多美國人真心相信它會獨(dú)立地帶來豐裕,同時消滅無產(chǎn)階級,并且用社會學(xué)家和著名公共知識分子丹尼爾·貝爾的話說,用高技能的白領(lǐng)“薪水階層”取而代之。然而,各行業(yè)中的經(jīng)理和工人所稱的自動化往往只是導(dǎo)致工作條件惡化和加速工作,而非機(jī)器代替人工勞動。

AI就像早期的機(jī)械化形式一樣,后者包括自20世紀(jì)50年代以來對白領(lǐng)辦公室工作的計算機(jī)化機(jī)械化,其中雇主的目標(biāo)是將技術(shù)含量較高的白領(lǐng)工作轉(zhuǎn)變?yōu)楦阋说陌爰夹g(shù)性工作。在20世紀(jì)下半葉,計算機(jī)制造商和雇主推出電子數(shù)字計算機(jī),意圖降低文職人員的工資成本。他們用大量低薪的女性操作打孔機(jī)來取代熟練的秘書或辦事員,這些操作員生產(chǎn)的打孔卡片被用于大型批處理計算機(jī)中。

結(jié)果是文職人員的數(shù)量增加了,而不是減少了,但新的工作比以前的工作更差。這些工作更加單調(diào),工作節(jié)奏也加快了。在20世紀(jì)的最后四分之一里,雇主成功地說服中層管理人員自行承擔(dān)文書工作,為他們配備了臺式電腦以便自行完成打字、歸檔和通信工作,這些工作曾經(jīng)由公司付費(fèi)給文職人員完成。這種工作降級的方式在今天的白領(lǐng)工作中仍然很常見。

自動化話語的力量在于,它迎合了一種科技進(jìn)步主義,這種進(jìn)步主義即便在今天,仍吸引著左翼中的某些傾向,如所謂的加速主義者,他們認(rèn)為工業(yè)化的發(fā)展本身會產(chǎn)生無產(chǎn)階級革命的條件。

一些工會在自動化浪潮中做出妥協(xié),如美國國際長途和倉庫工人工會成功地在集裝箱化的過程中爭取到對老員工的退休福利,但大多數(shù)工會卻未能抵抗自動化話語的影響。美國肉類包裝工人聯(lián)合會允許公司引進(jìn)工具設(shè)備,期望獲得退休福利和轉(zhuǎn)崗機(jī)會,但最終自動化并未解決工人失業(yè)的問題,反而導(dǎo)致工會瓦解。類似的情況在現(xiàn)代肉類加工行業(yè)仍然存在。

文章認(rèn)為,今天的“AI”已成為“自動化”的同義詞,帶有類似的、不切實際的技術(shù)烏托邦敘述。歷史表明工人和組織者需要警惕這些過度的技術(shù)敘事,拒絕將其視為不可逆轉(zhuǎn)的文明進(jìn)程,而應(yīng)將技術(shù)視為工作場所的一部分,工人有權(quán)對此進(jìn)行民主治理。AI并非一種具體的革命性技術(shù),它更多是一種用來削弱工人力量的技術(shù)敘事。文章建議工人拒絕盲目崇拜科技進(jìn)步,以爭取在工作場所中對技術(shù)的自主權(quán),避免因“進(jìn)步”之名犧牲勞動權(quán)益。

心理治療機(jī)器人的悖論

當(dāng)心理治療資源稀缺的現(xiàn)實遭遇以Chatgpt為代表的聊天機(jī)器人的興起,越來越多的人開始向人工智能尋求心理健康支持。當(dāng)心理治療機(jī)器人成為一門越來越大的生意,其中暗藏的危險也逐漸暴露出來。Jess McAllen近日在《異見者》(The Baffler)雜志發(fā)表了《機(jī)器里的治療師》(The Therapist in the Machine)一文,結(jié)合自身經(jīng)歷對這一現(xiàn)象及其背后的隱憂進(jìn)行了深入探究。

從新西蘭搬到美國之后,McAllen有5年時間沒有進(jìn)行心理治療。在她看來,心理治療機(jī)器人是美國醫(yī)療選擇悖論的化身。在新西蘭,只要評估醫(yī)生認(rèn)為你確實有需要,公共心理健康系統(tǒng)就會指派一名心理醫(yī)生,但在美國,她不得不從零開始自己尋找心理醫(yī)生。她為此求助了Psychology Today、 Alma和 Headway等多家提供心理咨詢服務(wù)的平臺,結(jié)果卻迷失在了令人眼花繚亂的搜索結(jié)果之中:你不僅要選擇治療師的學(xué)位、性別、外貌,還必須找到與自己匹配的流派、個性甚至政治立場,而無論怎么選擇都要付出高昂的費(fèi)用。

這些困難導(dǎo)致很多需要心理健康治療的人無法得到專業(yè)幫助,這個所謂的治療缺口就成為了商機(jī)。幾年前,BetterHelp和Talkspace這兩家科技公司開始為訂閱用戶提供和有執(zhí)照的治療師進(jìn)行文字和視頻聊天的服務(wù)。在積極投放廣告和在社交網(wǎng)絡(luò)上開展?fàn)I銷等策略之下,這種模式一度很受歡迎,兩家公司的利潤都達(dá)到了數(shù)百萬美元。但最近,在線治療的客戶紛紛表示,他們在不同的治療師之間輾轉(zhuǎn),這些治療師似乎總是敷衍了事半途而廢,而線上治療師們則抱怨這些平臺重數(shù)量輕質(zhì)量,總是鼓勵他們承擔(dān)不可持續(xù)的工作量?,F(xiàn)在,層出不窮的心理治療機(jī)器人試圖更進(jìn)一步,通過完全拋棄人類來規(guī)避人類的缺陷。

McAllen指出,早在半個多世紀(jì)之前,研究人員就開始實驗將人工智能應(yīng)用于心理治療領(lǐng)域。1966年,麻省理工學(xué)院教授約瑟夫·維澤鮑姆(Joseph Weizenbaum)創(chuàng)造了第一個聊天機(jī)器人ELIZA,可以被看作是今天的心理治療機(jī)器人的原型。ELIZA以蕭伯納的戲劇《皮格馬利翁》中的女主人公命名,通過人工智能的 “自然語言處理”分支進(jìn)行操作。在1966年一篇概述其研究成果的論文中,維澤鮑姆討論了病人與治療師之間的投射,他寫道:“舉例來說,如果一個人告訴精神科醫(yī)生‘我坐了很久的船’,而他的回答是‘跟我說說船吧’,我們不會認(rèn)為他對船一無所知,而會認(rèn)為他這樣引導(dǎo)隨后的對話是有某種目的的?!本S澤鮑姆認(rèn)為這種假設(shè)有利于治療技術(shù)的發(fā)展,因為這意味著人工智能不需要掌握關(guān)于現(xiàn)實世界的明確信息?!癊LIZA至少表明了制造和維持理解的假象是多么容易,那么具有可信度的判斷的假象同樣如此。這其中潛藏著某種危險?!?/p>

這種危險顯然沒能阻止當(dāng)代科技公司乃至醫(yī)療保健公司不斷推出新的改進(jìn)版本的心理治療聊天機(jī)器人來賺取利潤。最近發(fā)布的一項研究表明,與寫日記、心理教育小冊子等傳統(tǒng)的自主行為干預(yù)手段相比,心理治療機(jī)器人并沒有任何突出之處。這項研究的作者之一Todd Essig博士告訴McAllen,這些人工智能應(yīng)用程序正在利用“科學(xué)”營銷來實現(xiàn)及早套現(xiàn)。套現(xiàn)的具體形式包括提供熊貓造型的AI治療師(Earkick,加入每年40美元的高級計劃可以為“熊貓”佩戴飾品)、提供不同形象、性格和特長的AI治療師供用戶選擇(Heartfelt Services,提供大胡子Paul、神話人物般的Serene和大大咧咧的Joy三種AI治療師選項),等等。

大多數(shù)情況下,AI心理治療工具的創(chuàng)造者都聲稱他們至少在增強(qiáng)而非取代傳統(tǒng)的心理健康治療,這些工具的一個顯著優(yōu)勢是可以隨叫隨到。但McAllen指出,除了對治療費(fèi)用的考量,治療師提供有限度的服務(wù)還有其他原因。太多斷斷續(xù)續(xù)的交流會削弱每次專門治療的效果,而即時生成的、無邊界的回復(fù)可能會強(qiáng)化病人尋求安慰的行為,從而導(dǎo)致他們在感到痛苦時忽視自己的自主性。但也有一些例外,布魯克林綜合心理服務(wù)機(jī)構(gòu)的臨床心理學(xué)家瑪麗·梅爾卡多(Marie Mercado)認(rèn)為,對于邊緣性人格障礙的患者而言,知道在治療時間之外理論上可以聯(lián)系到自己的治療師是有好處的,但他們需要提前和治療師約定回應(yīng)方案。她也承認(rèn),對于恐慌突然發(fā)作無法立刻聯(lián)系到人類治療師的人來說,人工智能或許能夠提供幫助,但仍然伴隨著過度介入的風(fēng)險。

McAllen寫道,盡管人們很容易認(rèn)為人工智能心理治療被過度炒作了,因此會像NFT或是元宇宙一樣歸于失敗,但事實上,它已經(jīng)在既有的醫(yī)療體系中獲得了巨大的發(fā)展勢頭。英國國家醫(yī)療服務(wù)體系(NHS)采用了一款叫做Limbic的人工智能應(yīng)用程序幫助篩查和評估尋求心理健康治療的人。2021年,NHS參與了心理健康聊天機(jī)器人Wysa的研究。此后,該公司與 NHS 展開了一系列合作,其中包括即將推出的 “針對焦慮和情緒低落等常見心理健康問題”的人工智能 CBT項目。在美國,F(xiàn)DA已授予了Wysa公司開發(fā)的由人工智能主導(dǎo)的 “心理健康對話代理器”以“突破性設(shè)備稱號”,表明其將與該公司合作加快監(jiān)管流程。除了眾多心理治療聊天機(jī)器人之外,還有一些人工智能初創(chuàng)公司致力于將治療師的部分工作自動化。例如由沃頓商學(xué)院校友運(yùn)營的Marvix AI能夠記錄治療過程并自動生成筆記,形成一個或者兩三個診斷代碼,號稱每天可以為臨床心理醫(yī)生節(jié)省一到兩個小時,每年為其增加4.3萬美元的收入。在McAllen看來,將不斷提高生產(chǎn)力的價值體系推廣到心理治療領(lǐng)域有著很大的局限性。把心理治療視作可以量化的、因而可以甚至應(yīng)該提高效率的過程,這種觀點(diǎn)與經(jīng)常發(fā)生倒退并且伴隨著很多復(fù)雜性的心理疾病的混亂現(xiàn)實相悖離。

Heartfelt Services的創(chuàng)始人Gunnar J?rgen Viggósson是一名正在攻讀心理學(xué)本科學(xué)位的計算機(jī)科學(xué)家,他承認(rèn)人類治療師在過去發(fā)揮的作用,但認(rèn)為人工智能的優(yōu)勢恰恰在于它沒有人性。Viggósson認(rèn)為人們在和人工智能聊天時不會將自己的情感投射于其上,不會覺得它耐心有限或是擔(dān)心它覺得自己怪異,但McAllen指出,事實上,受到嚴(yán)重精神疾病折磨的人——無論是精神錯亂、狂躁癥或強(qiáng)迫癥發(fā)作還是創(chuàng)傷后應(yīng)激障礙——很可能會將自我投射到聊天機(jī)器人上。這正是維澤鮑姆對ELIZA得出的結(jié)論之一。一個人在異常精神狀態(tài)下的確可能用人工智能的回應(yīng)促成甚至引導(dǎo)魯莽的決定,從而為自己和他人帶來嚴(yán)重后果。但在心理治療機(jī)器人的創(chuàng)造者們看來,這些面臨嚴(yán)峻精神危機(jī)的人似乎并不是這些人工智能應(yīng)用程序的目標(biāo)受眾。

McAllen進(jìn)一步指出,過去心理治療針對的主要是患有嚴(yán)重精神疾病的人,直到20世紀(jì)90年代最后一波精神病患者去機(jī)構(gòu)化浪潮之后,西方各國才開始開展減少對心理疾病的污名化的運(yùn)動,由此帶來了人們對于心理治療的觀念變化:現(xiàn)在人們普遍認(rèn)為心理治療是一種必要的大腦調(diào)整,所有人都應(yīng)該參與其中——如果負(fù)擔(dān)得起的話。到了2000年代的中后期,傳遞的信息又發(fā)生了微妙的變化,宣傳活動,尤其是由政府資助的宣傳活動開始把重點(diǎn)放在更好接受的心理健康問題和含混不清的心理健康概念之上。這些修辭促成了政策上的重大勝利,如2008年的《心理健康與成癮法案》(Mental Health Parity and Addiction Act)和2010年的《平價醫(yī)療法案》(Affordable Care Act),這兩項法案都要求醫(yī)療保險公司將心理健康治療與其他醫(yī)療狀況同等對待。其他相關(guān)的后果還包括健康產(chǎn)業(yè)的爆炸式發(fā)展、高產(chǎn)的自助書籍作者對精神類藥物的妖魔化以及急癥治療快速被 “預(yù)防治療”所取代。這些結(jié)構(gòu)性變化制造出了真空,科技公司、私募基金和硅谷風(fēng)投都試圖瞄準(zhǔn)這一領(lǐng)域推出產(chǎn)品。公共醫(yī)療保險和私人保險公司很可能都會轉(zhuǎn)向人工智能心理治療工具,從而以更低廉的價格擴(kuò)大治療范圍。但心理治療資源向一般心理問題傾斜的結(jié)果是 ,患有嚴(yán)重精神疾病的人想要獲得亟需的治療變得更困難了,這一人群需要的是更加復(fù)雜的心理治療,這一缺口顯然是人工智能無法填補(bǔ)的。

McAllen的切身體會是,只有找到一個和自己的狀況相匹配的專業(yè)人士,才能得到真正的幫助。要做到這一點(diǎn),哪怕不對美國的醫(yī)療體系進(jìn)行根本性的改革,為想要接受治療師培訓(xùn)的人提供獎學(xué)金或補(bǔ)貼就能大大緩解目前專業(yè)人士短缺的問題;提高報銷比例,讓治療師放心和保險公司簽約,也能夠解決很多人因為費(fèi)用高昂而對專業(yè)治療望而卻步的問題。試圖用人工智能治療師來填補(bǔ)缺口則不過是掩耳盜鈴而已。

巧合的是,伯克利大學(xué)哲學(xué)教授Alva No?近日在《萬古雜志》(Aeon)發(fā)表的《討伐機(jī)器》(Rage Against the Machine)一文,恰好從哲學(xué)的視角解釋了人工智能的局限性,其中對于人類語言的深刻分析充分說明了心理治療機(jī)器人為什么難以取代人類心理治療師。

在No?看來,圖靈測試本身就具有誤導(dǎo)性。其中至關(guān)重要的一點(diǎn)是,圖靈在測試中用打字代替了說話,然而“言語是一種伴隨呼吸的、熱烈的運(yùn)動,總是在語境當(dāng)中,在需要、感受、欲望、投射、目標(biāo)和限制的背景之下,與他人共同展開”。在他看來,與文字信息相比,言語和舞蹈的共同之處更多,如今我們在鍵盤的統(tǒng)治之下太過自如,以至于甚至沒能注意到文本如何掩蓋了語言的身體現(xiàn)實。

圖靈測試中更為隱蔽的一個花招則是用游戲代替了有意義的人類交流。No?認(rèn)為,對生活的游戲化是圖靈最隱秘而令人不安的遺產(chǎn)之一。圖靈對于游戲的理解是片面而扭曲的,從計算的角度來看,游戲是可理解的虛擬世界的透明結(jié)構(gòu),在其中規(guī)則限制了行動,價值判斷和成敗標(biāo)準(zhǔn)都是確定無疑的,但真正的游戲同時也是競賽,是我們接受考驗的試驗場,我們的局限性會被暴露出來,我們的力量和脆弱都會一并顯現(xiàn)。一個參加國際象棋比賽的孩子可能會極度焦慮以至于感到惡心,這種本能表達(dá)并不是偶然的附帶現(xiàn)象,也不是對游戲而言沒有本質(zhì)價值的外在表現(xiàn),而是游戲的內(nèi)在組成部分。也就是說,人類不僅僅是遵循規(guī)則或規(guī)范的行動者,我們的行動總是(至少是潛在的)沖突場所。

就語言來說,我們說話時不會盲目地遵循規(guī)則,規(guī)則本身就是可供爭奪和可以爭論的。我們從一開始就不得不面對交談的困難,即使在實事求是且沒有過多壓力的多數(shù)情況下,我們也很容易誤解對方。在交談中,質(zhì)疑用詞,要求重新表述、重復(fù)和修正,幾乎是不可避免的。也就是說,交談從一開始就包括了對交談的反思和批評,我們在使用語言的同時也在改變語言,語言是一個捕捉和釋放、參與和批評的場所,是一個過程。而這顯然是機(jī)器模擬無法做到的。“人類不是訓(xùn)練出來的。我們擁有經(jīng)驗。我們學(xué)習(xí)。例如,對我們來說,學(xué)習(xí)一門語言不是學(xué)習(xí)生成‘下一個詞’,而是學(xué)著工作、玩耍、吃飯、愛、調(diào)情、跳舞、打架、祈禱、操縱、談判、假裝、發(fā)明和思考。最關(guān)鍵的是,我們不僅僅是吸收學(xué)到的東西然后不斷繼續(xù);我們總是抵抗。我們的價值判斷總是無定論的。我們不僅僅是詞語的生成器。我們是意義的創(chuàng)造者。”

熱門文章排行

掃描二維碼
Copyright ? 讀書網(wǎng) rgspecialties.com 2005-2020, All Rights Reserved.
鄂ICP備15019699號 鄂公網(wǎng)安備 42010302001612號