?

機器人的道德發展困境分析

2019-04-22 09:43馮金衛
科教導刊 2019年4期
關鍵詞:機器人人工智能

馮金衛

摘 要 隨著即將來臨的第四次工業革命,人工智能和機器人不斷進入大眾視野。機器人不斷自主化的發展趨勢,引起機器人在道德問題的熱議。為了更好地促進機器人的發展,首先必須分清人、人工智能和機器人的區別和聯系,其次認真分析造成發展機器人引發的道德困境的原因,最后提出相應的措施。

關鍵詞 人工智能 機器人 道德困境

中圖分類號:B82-02 文獻標識碼:A DOI:10.16400/j.cnki.kjdks.2019.02.069

Analysis of the Difficulties in the Moral Development of Robots

FENG Jinwei

(Harbin Normal University, Harbin, Heilongjiang 150025)

Abstract With the forthcoming fourth industrial revolution, artificial intelligence and robots continue to enter the public eye. The development trend of robots' constant autonomy has caused the robots to have a hot discussion on moral issues. In order to better promote the development of robots, we must first distinguish the differences and connections between humans, artificial intelligence and robots. Secondly, we must carefully analyze the causes of the moral dilemma caused by the development of robots, and finally propose corresponding measures.

Keywords artificial intelligence; robot; moral dilemma

物理學家霍金曾指出:“人工智能的進化速度會比人類快,而它們的未來不可預測”,一些影視作品比如《黑客帝國》、《X戰警》和《我,機器人》宣揚的是人工智能系統和機器人會擺脫人類的監管、自主作出決定,甚至毀滅人類。這種不確定,使機器人面臨的道德風險日益凸顯,引起了人們的關注。在2017年夏季達沃斯論壇中就“人工智能和機器人”進行了專門的談論,其中關于人工智能尤其是機器人的道德發展問題就最為突出。

1 人、人工智能和機器人的區別和聯系

1.1 人有意識,人工智能和機器人只具有思維模擬

從哲學上說,人生于自然,是歷史生成性的存在。人類為了能夠生存,滿足吃喝等基本需要,必須進行物質資料生產,并且在勞動過程中,由于分工和交流的需要,產生了語言和意識。所以說“意識一開始就是社會的產物,而且只要人們存在著,它就仍然是這種產物”。人和其他動物的區別在于能否進行有意識的活動。而機器人是具有類人性質的機器,它本身是由一些電子元件和線路組成的物理裝置。而且機器人用的是計算機系統組成的“電腦”,進行的是無意識的、機械的過程,它所進行的一些思考只是對人腦思維的模擬,只是單純的執行系統發來的指令。人工智能是利用計算機系統對人的智能進行模擬、延伸和擴展的一門技術科學,它的領域研究包括機器人、圖像識別、語言識別和專家系統等。所以說人工智能是對人的意識思維的模擬,本身不具有意識。機器人是人工智能具體化的表現形式和產物,人工智能的技術發展是機器人發展的前提和基礎。而道德是關于人們的行為規范標準的總和,道德的主體都是具有社會意義上的人,所以好像關于研究機器人道德問題的論述都是偽命題。但若從機器人作為人類思維實踐化、現實化的產物來講,研究機器人的道德從實質上就是在研究人類自身的道德問題,從本體論研究是有一定的道理的。

1.2 人和機器人背后的創造者都具有物質實踐活動

人類在自然界中作為相對于自然界的認識主體而存在,客觀地去認識客體是什么,人類要接觸客觀對象,必須通過實踐。人類只要正確認識物質世界并在實踐的基礎上才能改造世界。因此,人具有實踐性的物質活動,人與社會通過社會實踐活動,形成主客觀關系。反觀機器人——作為人的理論實踐化的產物,并不是自己本身通過實踐去認識世界,這在電腦里都有相關的理論記載和描述,只需機械地執行指令。機器人自身與社會并沒有真正意義上形成主客觀關系,一切都是人工智能的創造者在社會中實踐的產物。因此,機器人的問題還是機器人的創造者即人與社會通過社會實踐形成主客觀關系問題。

1.3 人和機器人人是統一卻又異化的關系

首先,隨著經濟全球化的深入和技術的不斷進步,人們的物質生活不斷提高,人工智能產品逐漸走入百姓家。它給人們帶來諸多便利,比如家用機器人能夠幫助整理家務,勞動性機器人能提高生產效率,服務型機器人能幫老人排憂解悶等等。人通過勞動創造出勞動產品的過程,是科學技術對象化的產物,但這不是對人勞動自身和科技主體的正面肯定,而是反過來成為束縛人的異己力量,這叫做科技異化。原本家人之間是溫情和諧的,相互陪伴的,現在是人情冷漠、甚至只有赤裸裸的利害關系;原本青少年在義務階段是圖強向上的時期,現在卻沉迷“吃雞”游戲、王者榮耀無法自拔;原本同學聚會是開開心心,有說有笑的,但現在大家似乎都沉默寡言、低頭玩智能手機不交流,只在飯后發個朋友圈;智能手機等產品原本是人類生產出來方便大家溝通交流的,拉近距離的,人與物是一種自由自在的統一關系,而現在卻成了異化對立的關系,人們成為人工智能產品的附庸和奴隸;人原本是處于主體地位,現在卻處于客體地位。好像“人們似乎生活在他們的商品之中,他們的靈魂困在他們的小橋車、高清晰度的傳真裝置、錯層式的家庭住宅以及設備之中”,好像“物的世界的增值與人的世界的貶值成正比”。其次,從馬克思的“社會形態理論”看出:人對物的依賴性、物反統治于人,是異化產生的原因,同時異化的產生又與商品經濟相聯系,商品經濟社會是科技異化的快速發展時期,只有到了共產主義社會才能真正實現人的自由和解放。我國正處于并長期處于社會主義初級階段,市場經濟體制不夠完善,生產力還未達到足以高的水平,而共產主義社會的一切都是“以生產力的巨大增長和高度發展為前提的”,所以科技異化在社會中會長期存在。

2 機器人的道德發展難題

2.1 國與國之間經濟發展不平衡

各國經濟發展不同,生產基礎強弱不一,導致各國對人工智能發展采取的措施不同,研究資金有多有少,技術發展有前有后。發達國家一直利用科技“剪刀差”,占據技術制高點,進行技術保護壁壘。發展中國家人工智能技術發展雖有所貢獻,但與核心技術相關的難題不了解、不攻破的話,那么發展還是舉步維艱、進程緩慢。其次發展中國家發展機器人可能造成經濟開發困境,會引起本國的經濟結構轉變。發展中國家工業尤其是科技行業基礎薄弱,研究人員儲備不足及其理論水平不夠,但發展中國家跟風發達國家的步伐國家投入大量資金開發人工智能技術和機器人,使本來不發達的農業輕工業發展更加緩慢,這樣的經濟發展會加劇不平等現象?!?017年全球風險報告》中也有類似觀點。

2.2 人的道德復雜性造成的技術難題

原始社會時期,人人平等、互助團結;奴隸社會時期,出現階級差別、男尊女卑;封建社會出現是以維護宗法等級關系為主的道德,資本主義社會出現個人主義和利己主義為核心的道德,我國社會的道德是以集體主義為原則。道德作為社會意識形態的表現形式是有歷史階段性的,各個階段的評價標準不同,導致人的道德復雜性。機器人作為人思維實踐化的產物,人是機器人的創造者,在設計的時候免不了帶有人的道德觀念。所以人的道德發展的復雜性決定了機器人的道德發展的復雜性。人的道德雖是由思想上占統治地位的統治階級制定,但終究是由生產力和生產關系的發展水平決定的。因此,機器人的道德發展的復雜性是由科學技術發展的復雜性決定的。機器人的道德發展其實是應用于自身身上的技術難題。由麻省理工學院大學人工智能實驗室的布魯克斯開發的人形機器Cog,是一個具有類似嬰兒能力的可以進行自我學習的機器人,但只具有非常簡單有限的學習能力,布魯克斯的靈感來源于人與人之間的互動是產生智力的重要因素。之后布魯克斯又設計出的Kismet機器人可以表現人類的多種情緒狀態,包括恐懼、悲傷、驚訝和感興趣,還有閉上眼睛并退到睡覺的姿勢。Kismet代表了將情緒反應與自主活動結合在機器人身上的一種嘗試,它的情緒狀態是通過說話者的音調變化、指示性手勢以及與之交流的人類的接近行為進行判斷并作出反應。它是一個可以進行最基本社交能力的機器人,但是它并沒有進行價值推理的能力。2017年10月27日由戴維·漢森設計的機器人“索菲亞”成為人類歷史第一個被授予“公民”身份的女性機器人,她能做出62種以上的表情,與人的眼神互動,還言稱“毀滅人類”(其實是設計者玩笑和噱頭)。人工智能技術是不斷發展的,自主性和可操作性更強了,使得機器人的發展越加快速。但更多的是反映技術的困難重重。機器人目前能模仿人類基本的表情變化,但人的復雜的心理和生理歷程機器人就不好表達和描述了。應用于機器人上的技術理論也在不斷的研究和探討過程中。

2.3 道德監管的復雜性

第一,反映在機器人的道德決策的不確定性。人工智能革命在不斷提高人們對自動化的依賴的同時,自主性系統逐漸掌控著能產生多種倫理后果的決定,人工智能的道德決策的不確定性,導致了機器人道德監管的復雜性有的選擇從法律角度分析人工智能的道德發展應該采取懲罰方式,但是被懲罰的概念在機器人的發展過程中會持續多久,說不清楚,或者說懲罰只是更適用于簡單的機器人,隨著技術的不斷革新,先進的機器人會采取其他方式規避懲罰的。在當代社會由于行為和結果之間有著復雜的利益鏈條,由誰做出重要決策這一問題模模糊糊,道德誰對誰錯的問題更為復雜,那么問題出現之后監管問題也就懸而未決。第二,使用機器人的安全問題。隨著機器人不斷應用在軍事上,使得軍事戰爭更加自主化、智能化,這將會改變傳統的戰爭方式。國際上并沒有統一的管理軍事化機器人的條約和規定,如果出現設計漏洞,對國家和人們的人身安全將是巨大的威脅。而且發展機器人也沒有出臺相關的法律法規,機器人商業化會在一定程度上對人的財產安全和法律權利造成影響。

3 機器人道德發展的措施

機器人作為人類改造世界的工具,是為了讓人類能夠更好地獲得自由而全面的發展機會。因此為了構建“人類命運共同體”,首先各國之間應該采取共同經濟政治合作的方式,打破技術發展壁壘,采取“和而不同”的思想方針,實現資源共享,協同進步,并與本國具體國情相結合。這樣才能促進各國互利雙贏,推動人工智能的高速發展。其次,通過聯合國等國際組織制定相關的關于人工智能和機器人安全發展的條約和規定,共同促進機器人的健康發展。最后,人工智能作為一旦生產出來就不以人的意志為轉移的產物,構建它們的道德應該有自身的特點。眾所周知,機器人必須遵守“阿西莫夫三大定律”:不能傷害人類;聽命于人類的使命;保障自身安全,但同時不得違背上述兩點原則。從這可以看出只是單方面的強調機器人對人類的絕對服從和義務關系,并沒有突出機器人自身的權利如何,應該突出人工智能的權利問題,給予起一定的自主決策權,并協調好人的決策與人工智能的道德決策的一個適當的度。而且一定隨著時代的進步而發展,畢竟未來主義文學作品以及影視作品給了我們太多的警示作用。

參考文獻

[1] 馬克思、恩格斯.德意志意識形態,馬克思恩格斯全集(中文第2版),(第3卷)[M].北京:中共中央編譯局.

[2] 馬爾庫塞.單向度的人[M].上海:上海譯文出版社,2014.

[3] 馬克思.1844年經濟學哲學手稿.馬克思恩格斯全集(中文第2版),(第42卷)[M].北京:中共中央編譯局.

猜你喜歡
機器人人工智能
你好,機器人
人工智能之父
2019:人工智能
人工智能與就業
數讀人工智能
下一幕,人工智能!
下一幕,人工智能!
機器人來幫你
認識機器人
機器人來啦
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合