首頁 收藏 QQ群
 網(wǎng)站導(dǎo)航

ZNDS智能電視網(wǎng) 推薦當(dāng)貝市場

TV應(yīng)用下載 / 資源分享區(qū)

軟件下載 | 游戲 | 討論 | 電視計(jì)算器

綜合交流 / 評(píng)測 / 活動(dòng)區(qū)

交流區(qū) | 測硬件 | 網(wǎng)站活動(dòng) | Z幣中心

新手入門 / 進(jìn)階 / 社區(qū)互助

新手 | 你問我答 | 免費(fèi)刷機(jī)救磚 | ROM固件

查看: 8837|回復(fù): 9
上一主題 下一主題
[交流討論]

未來人工智能,我們的方向應(yīng)該是道德還是技術(shù)?

[復(fù)制鏈接]
跳轉(zhuǎn)到指定樓層
樓主
發(fā)表于 2018-11-30 10:56 | 只看該作者 |只看大圖 回帖獎(jiǎng)勵(lì) |倒序?yàn)g覽 |閱讀模式 | 來自江蘇
如何把道德代碼寫入人工智能?從這個(gè)問題展開一個(gè)問題:從我們現(xiàn)在的弱人工智能,到未來的強(qiáng)人工智能,我們的方向應(yīng)該是道德還是技術(shù)?

未來人工智能,我們的方向應(yīng)該是道德還是技術(shù)?


上一篇:人工智能是否能在未來取代法官?你如何看?
下一篇:高通636真的像魅族說的搭配6G運(yùn)存才能滿血嗎?
沙發(fā)
發(fā)表于 2018-11-30 10:57 | 只看該作者 | 來自江西
這個(gè)問題真的很犀利??!確實(shí)是需要思考的事情。
人工智能的發(fā)展

不得不說的是人工智能的發(fā)展確實(shí)非常迅速,可以預(yù)見的是未來人工智能必然會(huì)再一次重新定義勞動(dòng)力、崗位結(jié)構(gòu)和收入分布。
未來人工智能,我們的方向應(yīng)該是道德還是技術(shù)?

或許說人工智能可以最大程度解脫人類把勞動(dòng)力浪費(fèi)在不必然的事情上,而把更多的精力放在某一點(diǎn)。當(dāng)然事物的變革必然會(huì)有負(fù)面影響,例如從現(xiàn)在來看一定程度上就是利用計(jì)算機(jī)的人類取代了沒有計(jì)算機(jī)輔助的人類,或許未來就會(huì)變?yōu)槔萌斯ぶ悄苋祟惾〈鷽]有利用人工智能的人類。
未來人工智能,我們的方向應(yīng)該是道德還是技術(shù)?

但是許多人擔(dān)心一點(diǎn)那就是許多科幻片中出現(xiàn)的場景,人工智能過于發(fā)達(dá)會(huì)不會(huì)出現(xiàn)一些倫理類問題?
應(yīng)該給人工智能道德標(biāo)準(zhǔn)?

所謂給人工智能給予一定的道德標(biāo)準(zhǔn)其實(shí)直白來說就是將人類自身的法律、習(xí)慣、習(xí)俗、觀念用代碼給予人工智能。
很多人認(rèn)為人工智能的存在意義就是最大限度的解脫人類的勞動(dòng)力,因此人工智能被賦予道德標(biāo)準(zhǔn)可以讓人工智能執(zhí)行更多有難度或者有危險(xiǎn)的工作。而且可以避免許多爭議性問題的出現(xiàn)。。
未來人工智能,我們的方向應(yīng)該是道德還是技術(shù)?

這無疑對(duì)人類來說是美好的。
不應(yīng)該給人工智能道德標(biāo)準(zhǔn)?

很多人認(rèn)為給人工智能不應(yīng)該給予道德標(biāo)準(zhǔn),因?yàn)榈赖聵?biāo)準(zhǔn)這是一個(gè)寬泛意義的標(biāo)準(zhǔn)。每個(gè)人的道德標(biāo)準(zhǔn)都不同,這也是人類個(gè)體是唯一的象征。
未來人工智能,我們的方向應(yīng)該是道德還是技術(shù)?

如果給予人工智能道德標(biāo)準(zhǔn)就意味著機(jī)器需要思考,這在某種程度上已經(jīng)算作生命了。其次正因?yàn)榈赖聵?biāo)準(zhǔn)的難以界定,誰來定義這些道德,誰又來執(zhí)行它們?這無疑又是一個(gè)巨大的問題。
總之,新技術(shù)的出現(xiàn)都是雙刃劍,只不過是看利大于弊還是弊大于利而已。
你認(rèn)為給予人工智能道德標(biāo)準(zhǔn)是利大于弊還是弊大于利?
板凳
發(fā)表于 2018-11-30 10:57 | 只看該作者 | 來自浙江

相信很多人都聽過哲學(xué)家菲利帕·福特(Philippa Foot)于1967年提出的“電車難題”。50年來,電車難題有了很多版本。在無人駕駛已經(jīng)出現(xiàn)的今天,當(dāng)車禍無法避免時(shí),無人駕駛汽車到底應(yīng)如何取舍,是優(yōu)先保護(hù)馬路上的兒童、還是寧愿撞人也要保護(hù)車內(nèi)人員呢?


人類即將進(jìn)入機(jī)器人時(shí)代,《科學(xué)》雜志有研究表明,隨著機(jī)器習(xí)得類人的語言能力,它們也容易習(xí)得語言應(yīng)用中根深蒂固的偏見,這種偏見如若被放大,后果不堪設(shè)想。還有預(yù)言稱:人工智能系統(tǒng)在未來很可能擺脫人類監(jiān)管,自主作出決定,甚至走上反抗人類的道路。


5月20日,北大博雅講壇第129期活動(dòng)“機(jī)器人能明辨是非嗎——人工智能倫理道德的未來走向”正是要探討這些問題。


?
溫德爾·瓦拉赫


這次活動(dòng)由北京大學(xué)出版社、北大博雅講壇、博古睿研究院中國中心、當(dāng)當(dāng)聯(lián)合主辦?;顒?dòng)主講嘉賓是《道德機(jī)器:如何讓機(jī)器人明辨是非》的作者之一溫德爾·瓦拉赫(Wendell Wallach)。中國社會(huì)科學(xué)院研究員劉鋼、西安交通大學(xué)計(jì)算哲學(xué)實(shí)驗(yàn)室中方主任王小紅也出席了活動(dòng)。


瓦拉赫是享有國際聲譽(yù)的人工智能和神經(jīng)科學(xué)倫理學(xué)領(lǐng)域的專家。他主持耶魯大學(xué)生物倫理學(xué)跨學(xué)科研究中心技術(shù)和倫理工作小組長達(dá)十余年,獲得過全球技術(shù)網(wǎng)絡(luò)協(xié)會(huì)(World Technology Network)頒發(fā)的2014年的倫理學(xué)獎(jiǎng),世界經(jīng)濟(jì)論壇任命他為2016-2018全球未來技術(shù)價(jià)值和政策委員會(huì)的聯(lián)合主席。


瓦拉赫并不是站在未來學(xué)家的角度去猜想或者預(yù)測人工智能的未來,而是基于當(dāng)前技術(shù)的現(xiàn)狀去說明倫理決策能力的必要性。目前這些普遍被應(yīng)用的自動(dòng)金融系統(tǒng)、機(jī)器人照料者,以及機(jī)器人吸塵器已經(jīng)能夠影響人類的生活,并產(chǎn)生復(fù)雜而難以預(yù)料的倫理后果了。


他認(rèn)為人工智能的道德發(fā)展將經(jīng)歷操作性道德、功能性道德,和充分的道德主體性三個(gè)階段。其中操作性道德比較低端,是指道德已完全掌握在設(shè)計(jì)者和使用者手中;第二個(gè)階段是功能性道德,稍微高端一些,因?yàn)檫@個(gè)階段機(jī)器自身已經(jīng)有能力響應(yīng)道德挑戰(zhàn);第三個(gè)階段就是計(jì)算機(jī)可以自己做道德決策的階段,當(dāng)然第三個(gè)階段還是開放性的,哲學(xué)家、工程師們還需要探討單單靠一臺(tái)機(jī)器能否成為道德主體的問題。操作性道德和真正的道德主體之間還有著很多的空間。


?
他在《道德機(jī)器:如何讓機(jī)器人明辨是非》一書中認(rèn)為,雖然難有萬全之策,但有可能建構(gòu)一種人工道德智能體(AMAs),讓人工智能具有基本的道德敏感性,逐步使人工智能和機(jī)器具備道德決策能力,并隨著智能技術(shù)和人機(jī)交互的進(jìn)步而進(jìn)化、發(fā)展。這是一種自上而下式與自下而上式的混合道路,這樣才能夠使美德和特殊的情境相結(jié)合。


瓦拉赫對(duì)很多問題還保持開放態(tài)度,比如最近的關(guān)于道德心理學(xué)的實(shí)證研究,強(qiáng)調(diào)一個(gè)人與生俱來的身體或心理能力,而不是理性、情感社交、語義理解,以及意識(shí),對(duì)人的道德決策都很重要,那么這些因素對(duì)于AMAs是不是本質(zhì)性的因素呢?如果是的話,可否在計(jì)算機(jī)中實(shí)現(xiàn)?


?
博古睿研究院中國中心主任宋冰


博古睿研究院中國中心主任宋冰在致辭中說,以前計(jì)算機(jī)倫理強(qiáng)調(diào)的更多是被科學(xué)家和工程師的外部約束,行為規(guī)范,以及科技帶來的外部或者溢出效應(yīng),比如隱私、財(cái)產(chǎn)權(quán)、防范病毒、提防駭客等。機(jī)器人倫理則是新的領(lǐng)域。溫德爾·瓦拉赫這本書比較了兩種植入倫理的方法,一個(gè)是由上至下,先把倫理理論規(guī)范編程,并將它作為基準(zhǔn)來衡量各種選擇道德的可接受性。另外一種方法是從上往下,給智能機(jī)器人創(chuàng)造體驗(yàn)和學(xué)習(xí)環(huán)境,讓他們逐漸學(xué)會(huì)什么是可接受的道德規(guī)范和行為準(zhǔn)則。她進(jìn)一步表示,科學(xué)家要有人文關(guān)懷,反之亦然,哲學(xué)和社科專家也要有科學(xué)的精神。


《道德機(jī)器:如何讓機(jī)器人明辨是非》的主要譯者王小紅發(fā)言說這本書是一本具有開創(chuàng)性的人工智能的百科全書。她指出,將人類已經(jīng)成熟的倫理系統(tǒng)自上而下地灌輸進(jìn)機(jī)器人會(huì)出現(xiàn)不同倫理的矛盾和沖突,例如經(jīng)典的阿西莫夫的機(jī)器人三大定律,被嵌入到一臺(tái)計(jì)算機(jī)之后,就會(huì)產(chǎn)生許多倫理困境。而如果使用邊沁的功利主義的方法,這種最可算法化的方法如何使最大多數(shù)人獲得最大的幸福感呢?這也有問題,因?yàn)樗挠?jì)算量往往是無限的。


?
阿西莫夫曾提出機(jī)器人三定律:一是機(jī)器人不得傷害人類,或因不作為使人類受到傷害;二是除非違背第一定律,機(jī)器人必須服從人類的命令;三是除非違背第一及第二定律,機(jī)器人必須保護(hù)自己。


在問答環(huán)節(jié),有觀眾提問,現(xiàn)在出現(xiàn)了哪些不道德的人工智能,瓦拉赫回答說,“沒有不道德的人工智能,只有不道德的意圖。人工智能可能執(zhí)行了有偏見的結(jié)果,但是這是因?yàn)檩斎氲臄?shù)據(jù)本身已經(jīng)帶有偏見了?!边@種偏見主要是指種族主義、性別偏見等。還有同學(xué)提問,如何看待“類人腦”的開發(fā),瓦拉赫認(rèn)為人類目前還不夠了解人的大腦到底是如何工作的,所以他不認(rèn)為人工神經(jīng)網(wǎng)絡(luò)能夠完整的模仿人腦
地板
發(fā)表于 2018-11-30 10:58 | 只看該作者 | 來自上海
人類的科技發(fā)展都是為了人類服務(wù)的,智能科技的發(fā)展自然也不例外。智能科技如果脫離了人類的道德觀念,人類發(fā)展它還有意義嗎?

  
  
5#
發(fā)表于 2018-11-30 10:58 | 只看該作者 | 來自江西
人工智能就是輔助人類工作、生活的輔助性產(chǎn)物,技術(shù)越好功能更齊全,但人工智能要不要植入道德?我覺得完全沒必要,人工智能一旦有了情感就類似于一個(gè)人,而且他們的思維更全面,會(huì)替代人類的地位,人類之所以研發(fā)人工智能就是為了方便我們的生活才存在
6#
發(fā)表于 2018-11-30 10:58 | 只看該作者 | 來自廣東
目前來說我們偏向于技術(shù)比較多一點(diǎn),為什么呢?這是因?yàn)榧夹g(shù)還不夠完善。那么道德自然就要排后了,但是也不是說就純粹摒棄道德了,在完善技術(shù)的同時(shí)呢順便去融入道德,這樣會(huì)便于以后道德植入更快捷。
7#
發(fā)表于 2018-11-30 10:58 | 只看該作者 | 來自上海
技術(shù)的發(fā)展(生產(chǎn)力發(fā)展)有其自身邏輯和需求,是不以人主觀意志為轉(zhuǎn)移的。問題關(guān)鍵不在這里。關(guān)鍵在于我們?nèi)绾尾粩喔母锖驼{(diào)整生產(chǎn)關(guān)系、社會(huì)結(jié)構(gòu)的方方面面,去努力適應(yīng)和推動(dòng)這種生產(chǎn)力的進(jìn)步。基本出發(fā)點(diǎn)是以人為本,謀求人類絕大多數(shù)人的幸福和利益,而不是讓技術(shù)成為少數(shù)人奴役人類的工具。
8#
發(fā)表于 2018-11-30 10:58 | 只看該作者 | 來自重慶

未來五十年我們都將專注于技術(shù)!
9#
發(fā)表于 2018-11-30 10:58 | 只看該作者 | 來自浙江
我認(rèn)為道德很重要技術(shù)問題早晚可以解決,道德問題不注意技術(shù)就容易被濫用危害社會(huì)
10#
發(fā)表于 2018-11-30 10:58 | 只看該作者 | 來自廣東
當(dāng)然是兼顧。就像問人應(yīng)該是自私還是無私樣!

本版積分規(guī)則

Archiver|新帖|標(biāo)簽|軟件|Sitemap|ZNDS智能電視網(wǎng) ( 蘇ICP備2023012627號(hào) )

網(wǎng)絡(luò)信息服務(wù)信用承諾書 | 增值電信業(yè)務(wù)經(jīng)營許可證:蘇B2-20221768 丨 蘇公網(wǎng)安備 32011402011373號(hào)

GMT+8, 2024-12-27 19:46 , Processed in 0.072751 second(s), 16 queries , Redis On.

Powered by Discuz!

監(jiān)督舉報(bào):report#znds.com (請(qǐng)將#替換為@)

© 2007-2024 ZNDS.Com

快速回復(fù) 返回頂部 返回列表