來(lái)源:Nature
原文作者:楊洪(Hong Yang),雷丁大學(xué)環(huán)境科學(xué)教授
“LLMs 將繼續(xù)存在,” 英國(guó)雷丁大學(xué)環(huán)境科學(xué)教授楊洪寫(xiě)道,“以下是我如何將它們?nèi)谌虢虒W(xué)工作之中?!?/p>
2022 年 11 月底,我的大學(xué)教學(xué)工作突然被一個(gè)不速之客打亂——ChatGPT,這是一個(gè)大型語(yǔ)言模型(LLMs),在龐大的語(yǔ)言數(shù)據(jù)集上進(jìn)行訓(xùn)練,可以總結(jié)、翻譯和創(chuàng)造文本。
就像很多老師一樣,我對(duì)該工具最大的擔(dān)憂是,學(xué)生在寫(xiě)論文時(shí)利用它作弊。我理解確保學(xué)生作品的原創(chuàng)性和避免學(xué)術(shù)不誠(chéng)信的重要性。一些美國(guó)大學(xué),如美國(guó)華盛頓大學(xué),已經(jīng)將 ChatGPT 生成的文本納入他們對(duì)抄襲的定義中,一些亞洲大學(xué),如中國(guó)的香港大學(xué),已經(jīng)完全禁止使用 ChatGPT,但許多機(jī)構(gòu)并沒(méi)有明確的指導(dǎo)方針——包括我任職的英國(guó)雷丁大學(xué),我在那里教授空氣污染的相關(guān)課程。
我不認(rèn)為我們可以完全禁止 ChatGPT,因?yàn)槟壳暗募夹g(shù)很難檢測(cè)出由模型編寫(xiě)的作品。我的學(xué)生很快就會(huì)畢業(yè)并開(kāi)始工作,他們的雇主可能會(huì)要求他們與人工智能模型一起工作,如果他們不知道如何正確使用這些工具,就可能會(huì)阻礙學(xué)生的發(fā)展。我們無(wú)法阻止學(xué)生使用計(jì)算器或互聯(lián)網(wǎng),我們也無(wú)法阻止他們使用 ChatGPT。最好的辦法是了解這個(gè)工具,并嘗試將其融入教學(xué)之中。
對(duì)教學(xué)任務(wù)的反思
在以往的教學(xué)工作中,我會(huì)給我的學(xué)生布置一份文獻(xiàn)綜述。今年,為了避免抄襲并鼓勵(lì)創(chuàng)新,我要求學(xué)生以小組形式在校園內(nèi)收集空氣質(zhì)量數(shù)據(jù)。然而,學(xué)生們依然是使用統(tǒng)計(jì)方法獨(dú)自分析數(shù)據(jù),撰寫(xiě)個(gè)人論文。
當(dāng)然,很多學(xué)生對(duì)創(chuàng)建項(xiàng)目并不熟悉。有些人努力想出一個(gè)合適的方法來(lái)評(píng)估二氧化碳排放——于是,我建議他們使用 ChatGPT 來(lái)幫助他們?cè)O(shè)計(jì)項(xiàng)目,這個(gè)模型可以概括出幾個(gè)步驟:從確定一個(gè)地點(diǎn),到選擇二氧化碳監(jiān)測(cè)設(shè)備、把設(shè)備設(shè)置好、收集和分析數(shù)據(jù),以及展示和傳播結(jié)果。
當(dāng)涉及到科學(xué)分析和撰寫(xiě)論文時(shí),學(xué)生們做了所有的工作——但他們也學(xué)會(huì)了大型語(yǔ)言模型(LLMs)是如何產(chǎn)生科學(xué)想法并幫助規(guī)劃一般實(shí)驗(yàn)的。
我的學(xué)生學(xué)習(xí)環(huán)境科學(xué)或地理學(xué),所以大多數(shù)對(duì)如 R、Python 等編程語(yǔ)言并不是很熟練,我有時(shí)在調(diào)試這些語(yǔ)言的代碼時(shí)也會(huì)遇到麻煩,而 ChatGPT 可以幫助我們解決這個(gè)問(wèn)題。例如,在我的指導(dǎo)下,學(xué)生們使用 ChatGPT 創(chuàng)建 R 代碼,進(jìn)行他們的統(tǒng)計(jì)學(xué)檢驗(yàn),并分析校園內(nèi)自然(如草原)和人為(如教室)場(chǎng)所之間的二氧化碳水平差異。我發(fā)現(xiàn),只要提示是簡(jiǎn)單明了的,機(jī)器人就會(huì)生成有效的代碼。
例如,使用 R 語(yǔ)言代碼進(jìn)行 t-test,來(lái)分析大學(xué)校園內(nèi)自然和人為場(chǎng)所的二氧化碳濃度差異。
為了確保我的學(xué)生能夠更好地理解(我提供的)材料并避免抄襲,我還改變了我的評(píng)估方法。他們不再只是寫(xiě)論文,而是需要做 10 分鐘的口頭報(bào)告,分享他們的發(fā)現(xiàn)。這種方法不僅減少了抄襲的幾率,而且使評(píng)估過(guò)程更具互動(dòng)性和吸引力。我向每個(gè)學(xué)生提供個(gè)性化的反饋,指出他們需要改進(jìn)的地方,并鼓勵(lì)他們進(jìn)行原創(chuàng)性思考。
潛在隱患
盡管 ChatGPT 能給我們帶來(lái)很多好處。但事實(shí)證明,它對(duì)學(xué)術(shù)機(jī)構(gòu)的多樣性和包容性有負(fù)面影響。
例如,在一次關(guān)于溫室氣體的講座中,我要求 ChatGPT 提供一份關(guān)于氣候變化的重要書(shū)籍及其作者的清單。
為了避免任何與種族和語(yǔ)言有關(guān)的偏見(jiàn),我在提示(prompt)中加入了 “不分種族和語(yǔ)言”(regardless of race and language)。然而,ChatGPT 的所有建議都是用英語(yǔ)寫(xiě)的,10 位作者中有 9 位是白人,10 位作者中有 9 位是男性。
使用來(lái)自出版已久的書(shū)籍和一些網(wǎng)站的信息訓(xùn)練 LLMs,可能會(huì)導(dǎo)致對(duì)邊緣社區(qū)(marginalized communities)的觀點(diǎn)的偏見(jiàn)和不準(zhǔn)確的表述,同時(shí)放大那些有權(quán)力和地位的人的聲音。Galactica 是科技公司 Meta 發(fā)布的一個(gè) LLMs,由于它產(chǎn)生了種族主義相關(guān)的內(nèi)容,而不得不被停用。
由于用來(lái)訓(xùn)練這些 LLMs 的大部分?jǐn)?shù)據(jù)都是用英語(yǔ)表達(dá)的,所以它們?cè)谶@種語(yǔ)言中表現(xiàn)最佳。LLMs 的廣泛使用可能會(huì)加劇特權(quán)群體的過(guò)度代表性,使那些已經(jīng)代表性不足的人進(jìn)一步被邊緣化。
一些實(shí)用技巧
這里有一些關(guān)于如何在課堂上有效使用 ChatGPT 的建議:
1. 花一些時(shí)間學(xué)習(xí)和練習(xí)在 ChatGPT 中輸入提示語(yǔ)。
2. 使你的(教學(xué))評(píng)估多樣化,如增加口頭報(bào)告,以避免抄襲。
3. 意識(shí)到 ChatGPT 加劇不平等的風(fēng)險(xiǎn)。
4. 確定明確的目標(biāo):對(duì)你想通過(guò) ChatGPT 實(shí)現(xiàn)的目標(biāo)有一個(gè)清晰的認(rèn)識(shí)。
5. 測(cè)試和完善提示語(yǔ):用 ChatGPT 測(cè)試提示,并根據(jù)結(jié)果完善提示。重復(fù)這個(gè)過(guò)程,直到達(dá)到預(yù)期結(jié)果。
6. 與他人一起編輯:與其他講師和你的學(xué)生合作,審查和完善提示語(yǔ)。
原文鏈接:
https://www.nature.com/articles/d41586-023-01026-9