當(dāng) OpenAI 去年推出其聊天機(jī)器人 ChatGPT 時,AI 技術(shù)的追隨者很快就宣告了相關(guān)的領(lǐng)域的死亡,比如編劇、計算機(jī)編程和音樂作曲等。其中,教育行業(yè)的從業(yè)者幾乎立刻就感受到了 ChatGPT 的強(qiáng)大力量。借助 ChatGPT 的技術(shù),學(xué)生現(xiàn)在可以輕松地在論文和大學(xué)入學(xué)申請文章中作弊,而另一方面,老師們可以將繁重的備課作業(yè)交給人工智能,而沒有人會察覺到。
然而, ChatGPT 并不是教育的終點。就像學(xué)生們開始將聊天機(jī)器人的對話內(nèi)容作為自己的作品一樣迅速,新一輪用于檢測人工智能寫作的作品 AI 程序也出現(xiàn)了,而教師們則開始將ChatGPT 的回答融入到課程計劃中,以便趕上學(xué)習(xí)潮流。
事實上,如果充分利用,人工智能有潛力極大地增強(qiáng)學(xué)生批判性思維能力和拓展軟技能。存在這樣一種擔(dān)心:如果孩子過分依賴人工智能來回答問題,那么可能會導(dǎo)致他們停止學(xué)習(xí)基本技能,逃避日常練習(xí),最終淡忘基礎(chǔ)常識。心理學(xué)家愛德華·德西和理查德·瑞恩在自我決定理論中提出,人類本質(zhì)上是由自主性、相關(guān)性和能力驅(qū)動的,也就是說,學(xué)生將繼續(xù)學(xué)習(xí),無論任何捷徑出現(xiàn)。以維基百科的創(chuàng)建為例,學(xué)生并不會因為能夠在網(wǎng)站上迅速搜索到日期和公式而放棄文理科的學(xué)習(xí),相反,學(xué)生能夠通過網(wǎng)站工具而能夠更好地檢驗答案正誤,輔助學(xué)習(xí)進(jìn)步。
由于教育是人工智能的第一個消費者用例之一, ChatGPT 等程序?qū)⑹菙?shù)百萬兒童、教師和管理人員接觸 AI 技術(shù)的方式。因此,我們有必要關(guān)注人工智能的應(yīng)用和其對我們生活的影響。下面,我們將探討人工智能和未來學(xué)習(xí)、知識和教育的五個預(yù)測。
以前,只有富人才能夠享受像輔導(dǎo)、指導(dǎo)、導(dǎo)師服務(wù)和治療等一對一支持。但是,人工智能將有助于將這些服務(wù)民主化,讓更多人受益。實際上,布魯姆的「2 Sigma問題」發(fā)現(xiàn),接受一對一教學(xué)的學(xué)生表現(xiàn)出的成績比傳統(tǒng)教室中的孩子高出兩個標(biāo)準(zhǔn)差,而現(xiàn)在AI已經(jīng)成為解決這一問題的可能途徑。AI潛在地可以成為任何人的實時導(dǎo)師,而人類則可為AI提供深入的知識和情感、行為上的支持。例如,學(xué)術(shù)工具Numerade最近推出了一款名為Ace的AI導(dǎo)師,它可以生成個性化的學(xué)習(xí)計劃,根據(jù)學(xué)生的技能水平策劃合適的內(nèi)容。
AI 還可以讓專家和學(xué)術(shù)名人對所有學(xué)習(xí)者都可及,打破資源壁壘。這對于導(dǎo)師學(xué)徒制至關(guān)重要的職業(yè)來說,這個發(fā)展具有極大的民主化意義。想象一下,如果一位初創(chuàng)公司的創(chuàng)始人可以隨時與 Marc Andreessen 或 Paul Graham 的 AI 版本進(jìn)行聊天會怎樣!這正是創(chuàng)業(yè)公司 Delphi 正在嘗試做的。而 Historical Figures 則讓用戶與重要歷史人物如亞伯拉罕·林肯、柏拉圖和本杰明·富蘭克林對話,而 Character AI 則讓任何人創(chuàng)造「角色」,無論真實還是虛構(gòu),都可以進(jìn)行對話。
在像心理健康這樣容易受到污名化的領(lǐng)域,通過 AI 增強(qiáng)的解決方案(例如 Replika 或 Link )可能比人類治療師更容易接近,因為它們更便宜并且 24 小時可以預(yù)約,鼓勵那些害怕陌生人接診的患者。AI 也可以即時個性化和貼合個人風(fēng)格偏好(例如認(rèn)知行為療法還是更傳統(tǒng)的行為療法),解決心理治療行業(yè)中難以發(fā)現(xiàn)和匹配的問題。增強(qiáng)型 AI 治療軟件的邊際成本也很低,這意味著可以創(chuàng)建更經(jīng)濟(jì)實惠的最終產(chǎn)品,從而實現(xiàn)大規(guī)模市場準(zhǔn)入。并不是我們想象中人類不再起作用的世界。目前,AI 并不完美,它尚且不能達(dá)到 100% 的人類級別的周到和專業(yè)知識。此外,有時候,人們有可能僅希望與現(xiàn)實生活中的人互動。
借助人工智能,個性化學(xué)習(xí)可以得以實現(xiàn)。
通過使用人工智能,我們可以實現(xiàn)個性化定制學(xué)習(xí)模式和通過視覺、文本、音頻等內(nèi)容多元素,并且根據(jù)用戶的喜好,可以輕松地引入孩子或成人喜愛的角色、愛好或流派,制定個性化的課程內(nèi)容。此外,我們還可以通過軟件跟蹤用戶的知識階段和測試學(xué)習(xí)進(jìn)展,根據(jù)現(xiàn)有的差距為用戶定制內(nèi)容,以更精準(zhǔn)的了解用戶學(xué)習(xí)訴求。
例如,Cameo 推出了一個兒童產(chǎn)品,其中包括 Blippi、蜘蛛俠和其他熱門的IP人物角色。有位母親請求「蜘蛛俠」鼓勵她的孩子使用廁所,而這確實似乎起到了作用。同時,人工智能還能更好地滿足不同類型的學(xué)習(xí)者需求,包括那些高級學(xué)生、在某些學(xué)科上落后的孩子、不喜歡在教室里舉手的學(xué)生,以及那些有特殊學(xué)習(xí)需求的學(xué)生。
歷史上,學(xué)生和教育工作者在生產(chǎn)力軟件方面起著重要作用,他們通常是這些軟件的早期采用者。創(chuàng)新初創(chuàng)公司的創(chuàng)始人和開發(fā)者通常會注意到學(xué)生和教師的需求,并通過他們的反饋來改進(jìn)和優(yōu)化他們的產(chǎn)品。比如,Canva和后來被SAP收購的Qualtrics。這種趨勢也適用于聊天式對話界面和基于人工智能的下一代軟件工具,這些工具很可能成為教師和學(xué)生的早期采用者。
我們預(yù)計教師會擁抱下一代AI工具的另一個原因是,教師,尤其是來自公共機(jī)構(gòu)的教師,工作過勞且資金不足,使他們沒有時間集中精力關(guān)注他們更愿意關(guān)注的事情:學(xué)生。今天,教師花費大量時間評分、制定課程計劃和備課。通過學(xué)習(xí)數(shù)百萬早期的教育材料,人工智能可以減輕教師的工作量,例如創(chuàng)建教學(xué)計劃和擬寫教學(xué)大綱。所有教師需要做的就是為他們各自的課堂精細(xì)調(diào)整和量身定制輸出。通過解放自己的時間,教師現(xiàn)在可以專注于以前「額外」活動,比如給個別學(xué)生個性化的關(guān)注。
至于學(xué)生,他們喜歡找到節(jié)省時間并在工作中獲得優(yōu)勢的創(chuàng)造性方式。Chegg 是前一代的寵兒?,F(xiàn)在,諸如 Photomath 和 Numerade 等新的基于人工智能的資源已經(jīng)出現(xiàn),并正在幫助學(xué)生解決和理解復(fù)雜的數(shù)學(xué)和科學(xué)問題。尤其是大學(xué)這種密集的環(huán)境,受歡迎的產(chǎn)品可以通過學(xué)生組織、社交俱樂部、活動甚至在課堂上實現(xiàn)迅速傳播。
自從 ChatGPT 發(fā)布以來,公立教育工作者開始爭論如何以及是否應(yīng)該「監(jiān)管」AI 輔助的學(xué)校作業(yè)、大學(xué)招生等,許多公立學(xué)校,包括紐約、西雅圖等大型公立學(xué)區(qū),暫時禁止使用ChatGPT 和其他相關(guān)的 AI 寫作網(wǎng)站。甚至連大學(xué)招生申請的使用也受到了質(zhì)疑。
同時,許多教育工作者認(rèn)為 ChatGPT 是一種應(yīng)該與學(xué)習(xí)和教學(xué)相結(jié)合的技術(shù),并且使用 AI 將是未來關(guān)鍵的職業(yè)技能。為了實現(xiàn)這一點,我們需要在課堂上和評估課堂成果的方式上進(jìn)行一系列的調(diào)整——就像當(dāng)維基百科、計算器、互聯(lián)網(wǎng)、個人筆記本電腦等出現(xiàn)并最終成為關(guān)鍵的課堂技術(shù)時一樣。新一代的工具正在出現(xiàn),這些工具可以幫助學(xué)校更好地評估學(xué)生的學(xué)習(xí)成果并頒發(fā)證書,同時也有一些利用 AI 的工具可以讓教師和學(xué)生的生活更加美好和輕松。
需要考慮的一個問題是,這種技術(shù)的獲取方式可能會給某些學(xué)生在學(xué)習(xí)和輸出上帶來很大的優(yōu)勢。例如,在禁止使用 AI 工具的學(xué)校中,沒有家庭互聯(lián)網(wǎng)接入的學(xué)生可能無法接觸到 AI 技術(shù),而有資源的學(xué)生則可以在家學(xué)習(xí)和使用。這也將擴(kuò)大公立和私立學(xué)校教育之間的差距,因為私立學(xué)校比公立學(xué)校更容易采用和整合新技術(shù),因為它們擁有較低的師生比和更高的預(yù)算。
算法是基于現(xiàn)有數(shù)據(jù)訓(xùn)練的,但所有這些數(shù)據(jù)目前仍受人類判斷和行為的影響。這意味著各種社會偏見——種族、性別等——被嵌入算法中,并且這些偏見將繼續(xù)被放大。例如,Gmail 的句子完成 AI 假定投資者必須是男性。Google 的智能寫作團(tuán)隊已經(jīng)多次嘗試糾正這個問題,但至今仍未成功。
在這個充滿偏見的環(huán)境中,當(dāng) AI 提供錯誤信息(或虛假事實/新聞)時,事實核查將變得至關(guān)重要。今天的 AI 生成的回應(yīng)特別危險,因為它們可以輕松地組成連貫的散文,其水平的精細(xì)程度可能會欺騙人類,誤以為信息是事實準(zhǔn)確和真實的。例如,華盛頓大學(xué)在 WSJ 上介紹的一項研究顯示,72% 的人讀一篇由 AI 生成的新聞文章認(rèn)為它是可信的,盡管它的事實是不正確的。
在這個時代,無論是任何人還是機(jī)器人都會創(chuàng)造大量的內(nèi)容,因此如何篩選高質(zhì)量和事實準(zhǔn)確的成為需要主流大眾去關(guān)注的問題。對于用戶生成的內(nèi)容和其他非品牌的媒體,人們的信任將會降低。另一方面,觀眾可能也會盲目信任他們已經(jīng)關(guān)注和尊重的人物、品牌和"專家"。
最后,我們可能會培養(yǎng)出一代只有表面能力而沒有基本細(xì)節(jié)理解的人。這可能會在邊緣情況和危機(jī)時引起問題,因為深入了解基本細(xì)節(jié)變得重要。以 Web 開發(fā)的抽象為例:我們越來越遠(yuǎn)離低級硬件、基礎(chǔ)設(shè)施和后端,進(jìn)入了 GitHub Copilot 等世界,其中前端工程師幾乎不需要接觸數(shù)據(jù)庫或后端。甚至還有為非技術(shù)用戶提供的無代碼解決方案。這種抽象非常好,因為它能夠?qū)崿F(xiàn)更多的創(chuàng)造,并賦予技能較低的用戶更多的權(quán)力。但是,當(dāng)后端出現(xiàn)關(guān)鍵性故障時,而沒有人了解如何修復(fù)它時,會發(fā)生什么?
來源:微信公眾號《多鯨》