?

火“出圈”的ChatGPT是真智能還是套路深?年輕人使用時小心這些“坑”

2023-03-20 01:09先藕潔劉胤衡
現代青年·精英版 2023年3期
關鍵詞:出圈人工智能學生

先藕潔 劉胤衡

美國人工智能研究實驗室OpenAI推出的大型預訓練人工智能語言模型ChatGPT,正成為很多年輕人關注和熱議的焦點。不少年輕人驚嘆ChatGPT回答問題的高效,也有人直言ChatGPT回復的內容“僅是機械組合,充滿套路”。毋庸置疑的是,ChatGPT將對年輕人學習、生活乃至未來發展等不同方面的影響。專家提醒年輕人利用新技術時也要注意避“坑”,不要觸碰道德和法律底線。

ChatGPT是一款人工智能聊天機器人,在2022年11月一經上線便引發關注。不同于以往廣受詬病的“人工智障”,它能夠深度理解上下文的關聯,完成寫文章、郵件甚至是敲代碼的復雜任務。于是,便有了高分論文。但這樣的成績不算作弊得來的嗎?依靠ChatGPT創作對孩子們的培養有好處嗎?

不止一個人提出這樣的問題。也因此,ChatGPT正在遭遇一個尷尬的局面,一邊因其強大的學習輔助功能而“橫掃”各大校園,成為學生眼中的“作業神器”,一邊卻被多所高校、期刊列入黑名單,遭受封殺。

“全靠ChatGPT,兩小時的考試,我一小時就交了卷?!?/p>

2022年年底,李凌參加了《新媒體與廣告》這門課的網上開卷考試??荚囈笤趦蓚€小時之內完成一道論述題,問題與互聯網廣告的新現象有關,字數要求在1200字以上。其間可以查閱各種資料。

“許多同學都進行了提前準備?!崩盍韪嬖V記者,很多人除了整理課件,還提前下載了幾十篇廣告專業相關的論文,以備參考。

他卻另辟蹊徑。兩個小時的考試,當別人還在翻閱各種資料奮筆疾書,他只是和ChatGPT對話幾個回合,輸入不到20字的問題,就獲得了一篇長達6000多字的文章——從定義、源流、特點、未來發展等角度分析了當下互聯網廣告營銷的特點。隨后,他將這些素材精簡到了1200字左右,“提前一個小時交卷走人”。

1月,成績出來了,李凌位列全班第一。

ChatGPT創造的“校園奇跡”遠不止于此。在ChatGPT的“原產地”美國,2023年1月,一項對1000名18歲以上學生的調查顯示,超過89%的受訪學生會使用ChatGPT來完成家庭作業。同月,密歇根大學的哲學教授安東尼·奧曼發現全班第一的論文是用ChatGPT寫的。

根據中青報·中青網記者不完全統計,截至2023年1月底,國內各大社交平臺上,有關使用ChatGPT完成作業的討論已經超過10萬條。

有人認為,ChatGPT能夠幫助學生快速梳理問題的解題思路,還能夠借助它檢查作業錯誤,是一個相當強大的“輔導老師”。

有人則認為人工智能工具會助長學生的惰性,“什么作業都能夠依靠人工智能完成,那學生就不用學習啦!”這并不利于培養學生獨立思考的能力,更無利于他們發展創造性思維。

目前,全球多國大學、科研機構發布明確的人工智能禁令,禁止使用ChatGPT和其他所有基于人工智能的工具完成學習與考試任務;多家期刊、出版機構也禁止將ChatGPT列為論文合著者。

不過關于ChatGPT對學生影響的討論,并未隨著一張張禁令而停歇。網絡上,公眾對于ChatGPT的爭論,仍在發酵。

有人認為,雖然ChatGPT可能會提供一個快速簡潔的答案,但這并不能培養學生的批判性思維和解決問題的能力,這些能力對未來發展至關重要。

也有人認為,人工智能只是“輔助”學生學習,無法讓他們獲得自主學習能力。

“現在對人工智能的使用,并沒有‘傻瓜’到學生輸入一個問題、就能立刻寫出一篇完美論文的程度?!鄙虾4髮W新聞傳播學院講師、碩士生導師徐偲骕對于學生使用ChatGPT等人工智能撰寫論文持開放態度,“如果學生真的用人工智能生成了論文并且達到了我的要求,那說明他也是下了一番功夫的?!?/p>

正在國內某高校就讀的彭羊也認為,一部分人過度神化了人工智能,“ChatGPT寫出來的東西,其實并不能直接用?!?/p>

2023年2月,彭羊在《量化投資》這門課上被要求寫一篇不限字數的課程論文。這門課程不僅涉及金融知識,也涉及計算機編程知識。他想到了用ChatGPT來輔助論文寫作,“我問了它一些編程問題,讓它給我的代碼糾錯、教我收集數據以及用Python(一種計算機編程語言——記者注)整理文件?!?/p>

“挺鍛煉提問能力的!”彭羊表示,ChatGPT要通過用戶與機器之間的問答才能得到答案,“要問很具體的問題,如果自己的問題模棱兩可,它的回答可能也會有很大偏差,甚至有的時候答案會出錯?!?/p>

彭羊認為,這種一問一答的過程,像人類在“馴化”人工智能,“問ChatGPT要有技巧,范圍要由大到小,比如先提出諸如‘是什么’的定義類問題,如果希望得到更精準的回答,則可以預設情景,比如‘假如你是一名……你要……為了達成目標,你該怎樣……’只有不斷變換問問題的方式,才能獲得最終想要的答案?!?/p>

“向機器人提問,也是一種學習的方式?!迸硌蚋嬖V記者,他使用ChatGPT主要還是為了優化自己的代碼、潤色論文內容,“而搜索到的內容,只有自行消化,才能達到學習目的?!?/p>

“Ask me anything?。ㄓ袉栴}盡管問?。笔荂hatGPT與用戶聊天的開場白。

一些教育工作者、科研人員認為,一些學生恰恰不知道“問什么”,尚未建立起真正的“問題意識”,如果“問什么”都不知道,那么連AI這個工具都沒法很好地使用。

上海大學文學院創意寫作學科教授、博士生導師譚旭東多年來致力于培養學生的寫作能力,經常為學生布置諸如創作散文、童話、書評等類型的課程作業。他并不擔心學生利用人工智能進行寫作,“這類作業很容易調動學生的生活經驗和知識資源,學生自己有話可說,可能就不會抄襲或者去利用人工智能寫作?!?/p>

“機器是‘生產’,而人是‘創造’?!弊T旭東指出,老師們憑借多年的寫作經驗和研究積累,能夠區分出真人和人工智能寫作的區別。即便是相同的故事,語言能力強的人也能把一個老舊的故事講得優美、有趣,甚至令人驚奇,他說,真正的寫作,用詞、造句和行文風格都是個性化的。

譚旭東并不擔心人工智能會取代學生和教育的主體地位。他說,“人文社會科學和自然科學的疆域很廣闊,還有很多未開墾的處女地,需要我們去‘第一個吃螃蟹’?!?/p>

“ChatGPT是一種全新的知識工具,從這個意義上來說,它和我們幾千年來依靠的書本、圖書館并沒有兩樣,基于這樣強大的知識工具來學習,孩子們應該學得更好?!?月9日,上海市教委副主任倪閩景撰文指出,面對ChatGPT,傳統教育的方式方法需要作出重大調整。

他就此提出三點建議:教育的首要目標是培養能獨立思考和有正確價值判斷能力的人,而不再是獲取特定的知識;要用ChatGPT等學習工具來協同改進教育教學方式;要更加關注學習的品質。

“ChatGPT這類人工智能產物能推動科技進步,有利于輔助人類的生產生活,但它不能替代人類的智力活動,因為它沒有人類所獨有的情感和思想?!敝袊淖种鳈鄥f會總干事張洪波認為,ChatGPT涉及龐大數據的算法加工,可能會侵犯到一些用戶隱私,人工智能大數據的開發者,應遵守相關的法律規定和社會倫理道德,保證所收錄的數據不侵犯他人的權益。

華中科技大學法學院副教授滕銳在接受記者采訪時表示,ChatGPT是大量不同的數據集群訓練出來的語言模型,目前其背后仍是“黑盒”結構,即無法確切對其內在的算法邏輯進行分解,所以不能確保使用ChatGPT過程中,其所輸出的內容不會產生攻擊傷害用戶的表述。

“如果ChatGPT的回復是錯誤或虛假信息,會具有極大的誤導性,有潛在法律風險?!痹谒磥?,ChatGPT難免存在一些侵犯用戶隱私的內容。此外,若回復中存在過度借鑒他人作品的情況,使用不當就有可能侵犯他人的著作權。

“目前大部分國家的知識產權法規定,人工智能程序自身不能成為作者?!彪J指出,ChatGPT的內容本質,是基于它所擁有的數據進行表達意志的創作,是作為被人類所利用的客體和工具,不具備法律人格,不能承擔相應的法律責任,如果ChatGPT侵害了他人的著作權或泄露他人隱私,由它的權利人或使用者來承擔相應的法律責任。

“推動構建人工智能治理體系,政府加強監管和研發者保持自律尤為重要?!彪J說,要避免ChatGPT引發數據安全問題,如泄露商業秘密及違背保密義務,需從法律層面明確ChatGPT產品的應用范圍,推進數據的分類分級,規定不同種類數據的保護級別和措施。他建議,在內容保護上,原創性數據要受到知識產權法的保護;在技術監管中,要定期將算法合規納入大數據安全體系,對其使用情況進行安全審計、評估驗證等。

“行業自律也非常重要,ChatGPT的所有人要注意數據安全合格,也要確保獲取個人信息具有合法性?!彪J認為,將倫理道德融入人工智能的全生命周期,才能促進大規模的人工智能應用“向善發展”。

在武漢大學法學院教授孫晉看來,在人工智能大數據的時代背景下,數據隱私泄露問題愈演愈烈,ChatGPT作為數字技術的應用,開發者和使用者都是第一責任人。他提醒,由于ChatGPT的算法和算力均很強大,如果開發者或使用者實施壟斷與限制競爭行為,濫用市場支配地位,會具有便利性和隱蔽性,會對反壟斷法帶來新挑戰。

孫晉強調,人工智能開發者要堅持“技術中立”和“科技向善”的原則,開發者的道德水準和法律邊界意識,決定其設計軟件的發展方向。同時,使用者也要秉持這兩項原則,杜絕利用新技術實施違法犯罪的行為,如侵犯公民個人隱私、侵犯商業秘密、商業詆毀、虛假宣傳、網絡詐騙、洗錢等。

在張洪波看來,利用人工智能技術實施違法犯罪,具有偵查難度,也需科技去甄別和偵破。滕銳認為,機器人走上更高智能階段的同時,人類利用機器人違法犯罪的現象也會出現,從刑法的角度來看,人工智能不具有刑法意義上的辨認和控制自己行為的能力,但可對機器人背后的自然人進行處罰。

2006年年底我國互聯網大規模爆發“熊貓燒香”病毒及其變種,該病毒通過多種方式進行傳播,造成很大危害。這個案例令滕銳至今印象深刻。他說,“熊貓燒香”病毒主要是由當時年僅20多歲的小伙子李俊制作,李俊沒有法律意識,利用新技術違法,以破壞計算機信息系統罪被判處有期徒刑四年?!澳贻p人在勇于嘗試類似ChatGPT的新鮮事物過程中,不能利用新技術去做違法之事?!?/p>

目前,為了避免學生過于依賴人工智能類工具,防止作弊,多國學校已經發出禁令,禁止學生在學校內使用類似于ChatGPT的人工智能工具完成學習任務和考試?!斑@是警示年輕人,要明白人工智能技術是人類的輔助工具,并不能替代人類進行智力創作,如果年輕人完全依賴,會影響創新創作能力?!睆埡椴ㄕf。

在張洪波看來,人工智能工具可以幫助人類快速處理字數多、容量大的文本內容,最終的智力創作成果,還是要人類自己來完成。開發者開發設計人工智能工具的目的,應該是讓人類學習生產生活更方便、快捷、準確,而不是懶惰和消極。

“任何一項新數字技術出現時,年輕人的反應最敏銳,對新事物的接受能力也很強。他們不僅僅是消費者,也有可能是未來新技術的創造者?!睂O晉提醒,年輕人也要注意,網絡不是法外之地,利用新技術時,不要觸碰道德和法律底線。

來源:《中國青年報》 澎湃新聞

猜你喜歡
出圈人工智能學生
萌囧動物出圈記
探索品牌出圈的底層邏輯
“國潮”出圈之旅:從文化自信到品牌自信
紀檢新手“出圈”記
2019:人工智能
人工智能與就業
趕不走的學生
數讀人工智能
學生寫話
下一幕,人工智能!
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合