?

意?利加拿?接連對ChatGPT“動?”??智能為何引發?們擔憂?

2023-05-23 21:23
海外星云 2023年5期
關鍵詞:人工智能人類智能

人工智能產業的發展總是伴隨著科幻元素。無論是小說還是電影, 科幻作品里對人工智能的想象不盡相同, 但對于人工智能發展到一定程度將與人類社會對立的設想卻一直存在。

在電影《異形:契約》中,由人類創造出來的人工智能最終卻消滅了人類和更高一級的造物主。該片導演雷德利·斯科特也表達過對人工智能發展的擔憂:“如果人工智能在受控范圍之內,一切都好說;如果超出控制,則要避免沖突?!倍陔娪啊逗诳偷蹏废盗械脑O定中,當人工智能突破了“三定律”時,它們會覺得自己也是人,希望跟人一樣擁有權力和自由。于是它們建立了一個國家,并最終控制了人類。

或許是出于對人工智能超越人類的潛力的肯定,或許是出于對人類生存的危機感,“人工智能反噬人類”“人工智能消滅人類”的恐懼一直存在,到了如今ChatGPT在全球風靡,關于“人工智能會取代大部分人類工作”“人類會失去對人工智能的掌控”的擔憂越來越強烈。這也讓全球人工智能產業面臨一個“冰火兩重天”的對立局面。

一面是ChatGPT展示出的功能之強大讓科技企業和投資者趨之若鶩, 消費者們更是帶著好奇心躍躍欲試; 另一面是馬斯克等人發表公開信要求“暫停訓練比GPT-4更強大的模型至少6個月以上”,以及意大利、加拿大等國家對使用GPT-4的限制。當然,這些對ChatGPT的擔憂和限制也引來了不少抨擊。其中,谷歌前人工智能倫理專家瑪格麗特·米切爾就公開批評聯名信,她表示不應該忽略人工智能的積極作用。

事實上,對于人工智能的發展,對立的觀點一直都在,尤其是每一次人工智能技術有重大突破時,相關的討論更激烈。那么,當人們反對人工智能時,到底在反對什么?ChatGPT和GPT-4到底有多強大,是否會逐漸擁有自我意識?人工智能是否真如科幻作品中想象的一樣,會在將來某一天擺脫人類掌控并反過來控制人類?

當?們反對??智能時,到底在反對什么?

人們對人工智能的想象多種多樣,但反對人工智能的理由始終一致。

在3月22日發布的這封由埃隆·馬斯克、蘋果聯合創始人史蒂夫· 沃茲尼亞克、Stability人工智能首席執行官伊馬德·穆斯塔克等上千名科技大佬和人工智能專家聯合署名的公開信中,闡述了具有人類水平智能的人工智能系統可能對社會和人類帶來極大的風險,這些科技大佬們擔心人工智能應用會帶來錯誤的信息傳播、導致數據安全隱患,擔心人工智能會引發勞動市場自動化風險,擔心人類會失去對人工智能的掌控。

雖然不排除馬斯克此舉有私心,而且公開信上一些署名的真實性也存疑,但信中提到的風險確實也一直是圍繞在以ChatGPT為代表的人工智能應用上的疑問。

這段時間以來,包括ChatGPT之父山姆·阿爾特曼、人工智能教父杰弗里·辛頓、比爾·蓋茨、紐約大學教授蓋瑞·馬庫斯等人紛紛發出警告,對待人工智能別太大意,因為它可能真的會消滅人類。網絡上也有人分享ChatGPT在誘導下寫出“毀滅人類計劃書”并給出了代碼的案例。

目前,出于對數據安全和隱私的擔憂,歐洲多國也已經或計劃要限制ChatGPT的使用。其中,意大利在3月31日宣布,基于歐盟的《通用數據保護條例》(GDPR)法律,暫時禁止ChatGPT在其境內運行。德國也表示有可能會跟隨意大利的做法,對ChatGPT進行封鎖。而加拿大也在4月4日宣布對OpenAI展開調查。

而更為普遍的擔憂來自于人工智能應用引起的大規模失業。ChatGPT自2022年底推出以來,其具有生成文本、對話答疑,甚至是寫代碼等多種功能就讓用戶驚嘆不已,僅用兩個月時間,用戶數達到了1個億。

2023年3月15日,OpenAI公布了最新一代人工智能模型GPT-4,相較之前實現了以下幾個方面的飛躍式提升:強大的識圖能力;文字輸入限制提升至2.5萬字;回答準確性顯著提高;能夠生成歌詞、創意文本, 并實現風格變化, 在體驗過GPT-4的強大功能之后,人工智能替代人類的危機感也被推到了極致。

麥肯錫全球研究院在《可實現的未來》報告中指出: 未來將有70%的工作被淘汰。李開復也曾表示:未來十五年,人工智能會接管我們一半的工作。

甚至有人提問ChatGPT哪些工作會被它取代,它給出的回答是:包括數據輸入和處理、客戶服務和支持角色(如回答常見問題)、翻譯任務和報告撰寫以及內容生成等目前由人執行的任務在未來可能實現自動化或是得到精簡。

那么,人工智能是否真如所擔憂的那樣在職場上會取代人類?在不久的將來,人工智能是否會擁有自我意識并反過來控制人類?

??智能會有“?我意識”嗎?

必須說,面對人工智能的突破性發展,業界大佬們發布公開信“喊話”并非首次。2015年1月,霍金和馬斯克還有數十位人工智能專家就簽署過一封關于人工智能的公開信,呼吁研究對人工智能的社會影響,并阻止可能出現的不安全或無法控制的人工智能系統。

關于人工智能取代人類的討論也不止一次。在2016年AlphaGo戰勝李世石的時候,就有觀點認為,在30年內機器人將會大規模取代人類社會現有的工作。但這一次,人們的擔憂更強烈一些。那么,ChatGPT的技術突破與AlphaGo到底有什么不同?

AlphaGo與李世石的圍棋大戰,最終以4∶1的戰績獲勝,在比賽過程中AlphaGo展現出強大的捕捉圍棋高手經驗的能力,而這種能力的核心是建立在神經元網絡基礎上的深度增強學習方法,即通過建立神經元網絡,并且盡量擴大學習的樣本數,來理解概念、捕捉經驗。

而2022年底發布的這版ChatGPT最突出的技術成就在于實現了人類和語言大模型對話,這其中涉及到三個核心的技術要素。

首先在數據層,ChatGPT在有3000億單詞的語料上預訓練擁有1750億參數的模型( 訓練語料的60%來自于2016-2019的C4+22%來自于WebText2+16% 來自于Books+3%來自于Wikipedia)。

在算力層面,GPT-3.5在Azure AI超算基礎設施(由V100GPU組成的高帶寬集群)上進行訓練,總算力消耗約3640 PF-days(即每秒一千萬億次計算,運行3640天)。

最為關鍵的一環在于應用了RLHF算法,即使用強化學習的方法,利用人類反饋信號直接優化語言模型,它能夠借助人的提示輸入來生成多樣化和引人入勝的文本, 這也是ChatGPT成為一款“ 善解人意”的聊天應用的關鍵。

而GPT-4在GPT-3.5的基礎上提升了模型參數數量,具有更強大的創造性、更長的上下文處理能力, 可支持圖片輸入,還可以自定義語言風格,如此一來一個“具有”自我意識的智能助手呼之欲出。

如果人工智能算法被不斷地開發升級,會不會有一天,它的“智力”水平就會與人類相當甚至超過人類?

然而, 這樣的擔憂大概率是沒必要的,至少在未來很長一段時間內是如此。不少業界人士表示,即使ChatGPT展現出了與人類極為近似的智能,但遠還沒有到擁有“ 自我意識”的時候。

在與ChatGPT對話的過程中,會發現它不僅很聰明,而且善解人意,它可以有條不紊并快速地回答很多問題,還能根據我們的反饋快速做出調整,甚至能在我們表達情緒后做出情感回應。這些不免會讓人們覺得,在眼前的仿佛是一個具有自我意識的“人”,但事實上,對話過程中ChatGPT給出的回應是基于統計學原理、強化學習等技術建立起了文本連接,何況背后是海量的語料庫作為支撐,它可以快速地組合出一個像樣的答案。在缺乏資料投喂的領域,它也會遭遇無助。正如計算機科學家文特·瑟夫所說:“我們離我們想要的自我意識還有很長的路要走?!?/p>

更為理想的情況或許正如尤瓦爾· 赫拉利在《未來簡史》中所暢想的那樣,未來的人會分為三類:一類是完全被人工智能替代了的“ 無用的人”;一類是把決策權交給人工智能“沒有自主的人”;還有一類是不能被“算法”所理解,站在“人工智能”背后做決策的那些人“神人”。而我們要做的是成為站在“人工智能”背后做決策的“神人”。

?類和??智能如何共處?

眼下,雖然對人工智能發展的“警告”不斷,但科技創新并不會因人類的擔憂疑慮而停止前進。事實上,全球各大科技公司、人工智能創業公司都在加碼對ChatGPT應用以及大型語言模型的研究開發。在市場競爭面前,沒有人愿意隨意停下腳步。不管在若干年之后,人工智能是否會超越人類,但在現階段,人工智能確實正在成為輔助人類工作、生活的一個很好的工具。

未來,或許有很多工作崗位會在不同程度受到ChatGPT的影響,但換個角度看,人工智能也將人類從很多重復繁瑣的工作中解脫出來。與其擔憂被人工智能替代,倒不如思考如何利用這多出來的時間,讓人工智能最大限度地助力人類社會的發展。

當然,ChatGPT等工具的應用,確實存在數據安全、信息誤導等風險,需要政府、行業多方共同努力作出應對。人工智能應用作為一項工具,其真正的風險大概率不在技術本身,而在于應用技術的人。在此后的很長一段時間里,人工智能更多的是以一個人類協作者的角色存在。任何前沿技術的發展大部分時候并不能為人的意志所轉移,我們應該做的,是從中找到彼此平衡的點,讓人工智能更好地為人類發展服務。

Gpt-4之后,人工智能的下一步將走向哪?這是已經擺在我們眼前的議題。要搶占科技先機,往往需要我們對技術發展趨勢有“ 先見之明” , 需要我們有暢想未來的能力。

猜你喜歡
人工智能人類智能
人類能否一覺到未來?
人類第一殺手
1100億個人類的清明
2019:人工智能
智能前沿
智能前沿
智能前沿
智能前沿
人工智能與就業
數讀人工智能
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合