AI 一天,人間一年。近兩年來,AI 技術(shù)發(fā)展迅猛,對我們生活滲透的速度,可以用一日千里形容。從智能家居到自動駕駛,從智能客服到 AI 助手,從寫作畫圖到情感陪伴,高效、便捷的 AI 技術(shù),一點(diǎn)一滴悄然改變著我們的行為,提升著我們的生活質(zhì)量和工作效率。
許多像我一樣(天天夢想著不勞而獲)的打工人,開始做起了“無痛工作”的白日夢——夢想著能夠借助 AI 的力量,在不付出太多努力的情況下完成工作,享受生活。
每月花上兩三百塊錢開個 AI 會員,實(shí)現(xiàn) 50% 以上工作外包,這事擱誰身上沒有巨大的誘惑力呢?然而,當(dāng)我們沉浸在 AI 帶來的便利中時,也不得不警惕其可能給使用者帶來的負(fù)面影響:思維遲鈍、產(chǎn)生依賴、行動懶惰。
聽到這,有些朋友可能會懷疑,明明 AI 用著那么爽,出活那么快那么好,你這怕不是危言聳聽吧?
這還真不是危言聳聽。
近兩年,有多項(xiàng)研究得出了類似結(jié)論,為了讓大家兼聽則明,下面咱們用“人話”介紹幾個 AI 相關(guān)的研究以及學(xué)者們的結(jié)論和建議,請放心,零基礎(chǔ)也看得懂。
AI 讓人在方向盤上睡著了?
沃頓商學(xué)院副教授伊森·莫里克 (Ethan Mollick) 2024 年 4 月出版了一本書籍,叫《協(xié)同智能:與人工智能一起生活和工作》(Co-Intelligence: Living and Working with AI)。
書中介紹了一個實(shí)驗(yàn),莫里克和他的其他同行,請世界頂級咨詢公司之一的波士頓咨詢集團(tuán)(BCG)協(xié)助負(fù)責(zé)實(shí)施研究,近 800 名波士頓咨詢的顧問參與了實(shí)驗(yàn)。
這些顧問被隨機(jī)分為兩組,一組按照傳統(tǒng)方式正常工作,另一組必須使用 GPT-4 (OpenAI 的拳頭產(chǎn)品,大語言模型的領(lǐng)先者之一)。
這些顧問在經(jīng)過人工智能培訓(xùn)后,可以自由執(zhí)行 BCG 設(shè)計的 18 項(xiàng)任務(wù),包括創(chuàng)意任務(wù)、分析任務(wù)、寫作和營銷任務(wù)、說服力任務(wù)等,這些都是正常咨詢顧問的工作范圍之內(nèi)的標(biāo)準(zhǔn)任務(wù)。
你猜哪組完成得更好?
這個答案其實(shí)沒有懸念——使用了人工智能的那組做得更好。而且這種評判不是主觀的(某個領(lǐng)導(dǎo)說你行你就行那種),而是研究者用了 118 次不同的分析,使用人工智能組仍然具有顯著優(yōu)勢。
人工智能組的顧問們工作速度更快,更有創(chuàng)意、寫得更好、分析能力更強(qiáng)。方方面面都行。
你可能會說:這不是很好嗎?
但是研究者發(fā)現(xiàn)了一些令人擔(dān)憂的事——顧問們在使用人工智能來幫助他們完成任務(wù)過程中,由于人工智能已經(jīng)完成了大部分工作,大多數(shù)實(shí)驗(yàn)參與者只是簡單地粘貼他們被問到的問題,然后把人工智能的答案復(fù)制到他們的工作結(jié)果中。
然后 BCG 又設(shè)計了一項(xiàng)任務(wù),這項(xiàng)任務(wù)是經(jīng)過精心挑選的,以確保人工智能無法得出正確的答案——該任務(wù)結(jié)合了棘手的統(tǒng)計問題和誤導(dǎo)性數(shù)據(jù)。
在沒有人工智能幫助的情況下,人類顧問的正確率是 84% ,但當(dāng)顧問使用人工智能時,只有 60% 到 70% 的正確率。
為什么會這樣?
聰明的你肯定也猜到了,顧問們依然像上次一樣,僅僅簡單地把人工智能的答案復(fù)制粘貼下來。這很難歸咎于顧問們投機(jī)取巧。設(shè)想一下,你如果處在這個場景,面前已經(jīng)有一份看似“完美”的標(biāo)準(zhǔn)答案,很難克制自己不直接使用。
研究者們有個形象的比喻——過于依賴 AI 的顧問們就像趴在方向盤上睡著的司機(jī),因?yàn)槿斯ぶ悄芴^強(qiáng)大,能較好地完成絕大部分工作,人類不知不覺間給予了 AI 太多信任,但如果問題超出了 AI 的能力,這種信任就可能鑄成大錯。
AI 將教“會”學(xué)生還是教“廢”學(xué)生?
人工智能在教育行業(yè)中正被越來越廣泛地使用,而機(jī)智的大學(xué)生們,已經(jīng)在第一時間使用各種大模型幫他們完成作業(yè)。此外,還有學(xué)?;蛘吖俜胶献鞯闹悄荏w軟硬件,以及其他商業(yè)公司提供的一些輔助教育產(chǎn)品都層出不窮。關(guān)于人工智能對教育領(lǐng)域的研究顯然是非常重要且必要的。
去年 6 月,有一項(xiàng)發(fā)表在《自然》雜志(Nature)上的研究,就探討了人工智能對巴基斯坦和中國大學(xué)生決策能力喪失、懶惰和隱私問題的影響。
這項(xiàng)研究主要考察了巴基斯坦和中國來自不同大學(xué)的 285 名學(xué)生的學(xué)習(xí)情況,數(shù)據(jù)分析結(jié)果表明,人工智能顯著影響學(xué)生和教師的決策能力,并使學(xué)生變得懶惰。此外,還會帶來安全和隱私方面的問題。
調(diào)查結(jié)果顯示,人類(參與的教師和學(xué)生)68.9% 的懶惰、68.6% 的個人隱私和安全問題、27.7% 的決策失誤都是由于人工智能影響。
使用人工智能技術(shù)的教師和學(xué)生會慢慢地、逐漸地失去自己做任務(wù)的興趣,還會逐漸導(dǎo)致人類決策權(quán)的喪失。當(dāng)人工智能的使用和依賴增加時,會自動限制人腦的思維能力。
同時,人工智能的使用,會大幅減少實(shí)時物理交互,并會影響學(xué)生和教師之間的教育環(huán)境。
在真實(shí)的環(huán)境中,教師和學(xué)生之間存在大量的互動,這會發(fā)展學(xué)生的個性和公民素養(yǎng),例如,學(xué)生可以向其他學(xué)生學(xué)習(xí),向老師提問,感受同學(xué)們之間的反饋等等,光靠 AI 的話全都難以做到。
這項(xiàng)研究認(rèn)為,在教育中大規(guī)模應(yīng)用人工智能技術(shù)之前,需要采取重要的預(yù)防措施。在不解決人類主要問題(人性天然具有弱點(diǎn))的情況下,貿(mào)然接受人工智能就像召喚魔鬼一樣。建議集中精力合理設(shè)計、部署和使用人工智能進(jìn)行教育來解決這個問題。
用的 AI 越好,招募人才越容易?
AI 還有個常見應(yīng)用,就是幫助人力資源部門篩選簡歷,幫助招聘,那么效果究竟怎么樣呢?
哈佛商學(xué)院創(chuàng)新科學(xué)實(shí)驗(yàn)室的社會學(xué)家法布里奇奧·戴爾阿夸(Fabrizio Dell'Acqua)2022 年發(fā)布了一項(xiàng)研究,他聘請了 181 名專業(yè)招聘人員來審查 44 份簡歷。
他把受試者隨機(jī)分為四組,分別與“能完美預(yù)測的人工智能” 、“好人工智能” 、“壞人工智能”、“無人工智能”搭檔進(jìn)行招聘工作。
結(jié)果發(fā)現(xiàn),使用高質(zhì)量人工智能的受試者,對工作申請的評估不太準(zhǔn)確,他們在每份簡歷上花費(fèi)的時間和精力更少,并且盲目遵循人工智能的建議。隨著時間的推移,他們也沒有改善。
但使用“壞人工智能”的招聘人員會付出更多的努力并花費(fèi)更多的時間來評估簡歷,并且不太可能自動選擇人工智能推薦的候選人,他們更加警覺、更加挑剔、更加獨(dú)立。這些招聘人員學(xué)會了如何與指定的人工智能更好地互動,并提高了他們的績效。
這說明高性能人工智能可能會“鼓勵”人類多偷懶,把掌舵的方向盤完全交給了人工智能,自己在駕駛員的位置上睡著了。
讓 AI 幫助人類向上,人類監(jiān)督 AI 向善
史蒂芬·霍金曾說過,人工智能的成功創(chuàng)造將是人類歷史上重大的事件。不幸的是,除非我們學(xué)會避免風(fēng)險,否則這也可能是后一次。
無可否認(rèn),我們?nèi)祟愄焐哂心承┒贪?,這也是我們之所以為人的重要屬性。偉大的科技在開創(chuàng)之初,都是為了彌補(bǔ)或平衡人類的短板,我們不希望看到的結(jié)果——它讓我們的短板越來越短。
人工智能技術(shù)是為了造福人類而開發(fā)的,但從目前看,它并沒有實(shí)現(xiàn)在某些方面讓人類的自身水平提升獲益。
我們作為豐富感性的碳基人類,難免偶爾會偷懶,但我們需要認(rèn)識到,當(dāng)我們完全信任地把決策權(quán)悉數(shù)交給一個系統(tǒng)時,這實(shí)際上在進(jìn)行一筆交易,隱藏的成本可能是你內(nèi)源性的深度思考和技能成長空間。(咳咳咳,此處特別強(qiáng)調(diào)給用人工智能“交作業(yè)”的一些學(xué)生朋友們,小機(jī)靈鬼,說的就是你)
當(dāng)工作中為了提效,和人工智能協(xié)作時,我們應(yīng)該將人工智能視為一個古怪的隊友,而不是一個無所不知的仆人。我們得記得檢查其謊言和偏見、馬虎或遺漏,同時還要權(quán)衡其決策的道德性。重要的,考慮哪些任務(wù)值得交給它,哪些任務(wù)我們想保留給自己。
畢竟,如果真的讓人工智能完全“替自己打工”,那么,未來某一天,砸掉自己飯碗的,不是人工智能,而是你自己。
本文鏈接:http://www.zh1234.com/news43143.htmlAI用“錯”了 人真的會變笨!沒騙你