《人工智能迅速發(fā)展可能會帶來的社會影響》由會員分享,可在線閱讀,更多相關(guān)《人工智能迅速發(fā)展可能會帶來的社會影響(3頁珍藏版)》請在裝配圖網(wǎng)上搜索。
1、人工智能迅速發(fā)展可能會帶來的社會影響
隨著人工智能技術(shù)的迅速發(fā)展,最嚴(yán)峻的值得面對的問題是人工智能的風(fēng)險防控問題,包括人工智能的公平性、透明性和可責(zé)性。在算法之中,倫理道德角度來看,是否存在算法歧視,為窮人和弱勢特殊群體帶來不公平。而是否可能去量化倫理的歧視形成“道德代碼”?算法的邏輯是否透明,如何對人工智能造成的問題進行定責(zé)?更長遠(yuǎn)地想,機器人是不是人?能否具有人的權(quán)利?如何控制人工智能不會威脅到人類?
下載論文網(wǎng)
人工智能;AI工人;跨領(lǐng)域聯(lián)想
近年來,人工智能技術(shù)如浪潮般迅猛發(fā)展。應(yīng)該看到,有時候,一項技術(shù)的進步,其實還被配套技
2、術(shù)的發(fā)展制約。如果移動互聯(lián)網(wǎng)沒有發(fā)展,apple手機就不會發(fā)跡,智能機換代不會出現(xiàn)。同時,智能機也推動了移動互聯(lián)網(wǎng)的建設(shè),從而帶動了互聯(lián)網(wǎng)+的產(chǎn)業(yè)。
一、人工智能時代的潛在問題
比起技術(shù)本身,我們更關(guān)心技術(shù)進步的社會影響。與人類可能成為無用階級的悲觀論調(diào)相比,筆者眼中的人工智能時代,人類將生活得更加富足,更能投身于內(nèi)心真正渴望的工作。作者認(rèn)為,盡管技術(shù)層面的進步讓人眼花繚亂,但在哲學(xué)層面,人工智能永遠(yuǎn)無法替代人類。人工智能無法像人一樣解悟生命的意義和死亡的內(nèi)涵,無法因高山流水而逸興遄飛,因秋風(fēng)冷雨而愴然淚下,因子孫繞膝而充實溫暖,因月上中天而感時傷懷。也許與機器相比,人類的能力和生
3、命是有限的,但正是因為有限,才使得人類每個個體的思想如此寶貴獨特。
霍金的演講中有句話聽著令人毛骨悚然:“人類將猜不到AI在想什么”,但在描述人工智能以及未來機器對人類的威脅時,包括霍金在內(nèi)的許多人,都在有意無意地混淆不同領(lǐng)域的標(biāo)準(zhǔn)?;艚鹫f話的電子音是由他的輪椅上的電腦手機霍金眼球活動的信息而讀取他的意思幫助他進行表達,乃是名副其實的眼神交流,想想是不是很炫酷?不過再仔細(xì)想想這其實非常的可怕,如果有一天這位科學(xué)巨人的電腦忽然變聰明了一些…霍金曾經(jīng)提出過一個名為恐怖曲線的理論(也就是著名的恐怖谷理論),用簡單易懂的話解釋便是當(dāng)機器人與人類差別很大且不斷接近時,人們會喜歡它,然而當(dāng)它變得與人
4、類非常相似時,人們卻會討厭它害怕它,這是高級生命害怕被“別人”取而代之的一種本能。[1]
二、AI工人時代帶來的沖擊
現(xiàn)在已到“AI工人”[2]普及的臨界年代。人們必然要保持對自己將來可能飯碗不保的警惕。有時候我們很多人身在這個時代當(dāng)中,每天埋頭在自己的一堆瑣事中,會不知道周圍的社會發(fā)生了多大的變化,尤其是不與太多新鮮事物接觸的傳統(tǒng)行業(yè)。只享受科技帶來的智能生活,而沒去想其他任何東西,跟我們每個人的關(guān)系。最近銀行上智能柜臺,柜臺人員說減就減,從上到下強制執(zhí)行,幾乎就在一夜之間,盡管國有企業(yè)不會馬上裁員,讓你慢慢轉(zhuǎn)崗,可是以后呢,這是大勢所趨,連現(xiàn)在所謂銀行比較核心的信貸審批,風(fēng)險控
5、制等,其實已經(jīng)可以由機器做而且機器做得更好,那什么是無法替代的呢?
另一方面,機器人作為沒有監(jiān)管的人,被這樣的人所控制的人工智能可以做任何我們所能想到的壞事。社會分工的巨大變動是否會導(dǎo)致智能與文明的倒退,歷史從來都不是直線的,沒有人能保證先進的不會被落后的取代。集中的權(quán)利,不被監(jiān)控的操作者,人類與人工智能巨大的學(xué)習(xí)能力差異。人工智能的倫理和法律問題不容忽視:無人駕駛車輛出現(xiàn)了事故怎么劃分責(zé)任?人工智能會不會造成隱性的失業(yè)問題,甚至對人類安全造成威脅?人工智能的發(fā)展怎么應(yīng)對公平、透明性和可追責(zé)等問題?
這個尚在蹣跚走步的人工智能,其發(fā)展必然會帶給人類社會一些潛在的威脅,如果我們能在人
6、工智能的發(fā)展初期就確定好相關(guān)的法律和制度,那么AI的發(fā)展才可能更健康、有序,未來的世界會有更多的美麗而非危險。很多專業(yè)人士具有的精辟見解,例如阿西莫夫的機器人三定律:機器人不能傷害人類,機器人應(yīng)服從人類指令,機器人應(yīng)在不違背前兩條定律的基礎(chǔ)上保護自身。[3]人類在這方面又當(dāng)如何配合與適應(yīng)?這不會是一個簡單漸進的過程。
而針對我們法學(xué)生來說, 對于未來AI在法律領(lǐng)域應(yīng)用的預(yù)測,有人提出了了這樣的假設(shè):“如果能用一列n維向量描述各種事件,將「事件.txt」導(dǎo)入「法律.exe」,從而產(chǎn)生「判決.txt」”。我們都知道,AI的記憶效率和記憶準(zhǔn)確率遠(yuǎn)可以甩出人類數(shù)不清條數(shù)的街,這意味著律師需要花費
7、幾個月甚至幾年去研究法律條款研究案情以便做出合理合法的判決,而法律AI只需要啟用一段程序就可以了。[4]這種省時省力,徹底把現(xiàn)在我們以為的高大上的律師行業(yè)拉下神壇。
三、結(jié)語
其實人工智能帶來的沖擊和影響無處不在,只不過我們平常感受不是那么強烈。前途是光明的,道路是曲折的。人類文明?l展到今天,可謂步履蹣跚,如今進入了人工智能的時代,我們也有理由可以借助人工智能的發(fā)展生活得更好,當(dāng)然對于AI發(fā)展的艱難和曲折也應(yīng)該有充足的心理準(zhǔn)備。以上提到的這些離我們并不遙遠(yuǎn),都是現(xiàn)實中正在發(fā)生的,未來皆有可能。
人類強大的跨領(lǐng)域聯(lián)想、類比能力是跨領(lǐng)域推理的基礎(chǔ)。[5]這種從表象入手,推導(dǎo)并認(rèn)
8、識背后規(guī)律的能力,是計算機目前還遠(yuǎn)遠(yuǎn)不能及的。利用這種能力,人類可以在日常生活、工作中解決非常復(fù)雜的具體問題。面對生活工作中不同領(lǐng)域的信息,我們必須將這些信息合理組織,并利用跨領(lǐng)域推理的能力,歸納出其中的規(guī)律,并制定最終的決策。這不是簡單的基于已知信息的分類或預(yù)測問題,也不是初級層面的信息感知問題,而往往是在信息不完整的環(huán)境中,用不同領(lǐng)域的推論互相補足,并結(jié)合經(jīng)驗盡量做出最合理決定的過程。為了進行更有效的跨領(lǐng)域推理,許多人都有幫助自己整理思路的好方法,人類使用的這些高級分析、推理、決策技巧,對于今天的計算機而言還顯得過于高深。
參考文獻:
[1]王永慶.人工智能原理與方法[M].西安:西安交通大學(xué)出版社,1998.
[2]王萬良.人工智能及其應(yīng)用[M].北京高等教育出版社,2008(6).
[3]李陶深.人工智能[M].重慶:重慶大學(xué)出版社,2002.
[4]吳康迪.智能體技術(shù)―人工智能的新飛躍[J].科學(xué)對社會的影響,2000(1).
[5]孫珩著.淺談人工智能的發(fā)展趨勢[J].IT與網(wǎng)絡(luò),2002(6).