九色国产,午夜在线视频,新黄色网址,九九色综合,天天做夜夜做久久做狠狠,天天躁夜夜躁狠狠躁2021a,久久不卡一区二区三区

打開APP
userphoto
未登錄

開通VIP,暢享免費(fèi)電子書等14項(xiàng)超值服

開通VIP
人工智能倫理學(xué)的一知半解

讀MBA時(shí)候的授業(yè)導(dǎo)師是周教授,周教授有一門頗受學(xué)生們歡迎的課程是“企業(yè)倫理學(xué)”。時(shí)隔多年,課本的內(nèi)容已經(jīng)還給了學(xué)校,但周老師課上的一些話還隱約記得。

倫理學(xué)是關(guān)于道德問(wèn)題的科學(xué),是將道德思想觀點(diǎn)的系統(tǒng)化和理論化。解決的基本問(wèn)題只有一個(gè),就是道德和利益的關(guān)系問(wèn)題。對(duì)這一基本問(wèn)題的答案決定著各種道德體系的原則,也決定著各種道德活動(dòng)的評(píng)判標(biāo)準(zhǔn)。

由人組成的組織在進(jìn)行經(jīng)營(yíng)活動(dòng)時(shí),在本質(zhì)上始終存在著倫理問(wèn)題。所以,企業(yè)倫理是企業(yè)經(jīng)營(yíng)本身的倫理。

AI倫理的提出

在國(guó)內(nèi),明確提出AI倫理原則的人可能是百度的創(chuàng)始人李彥宏。2018年5月26日,他在貴陽(yáng)大數(shù)據(jù)博覽會(huì)上指出,所有的AI產(chǎn)品、技術(shù)都要有大家共同遵循的理念和規(guī)則:

  1. AI 的最高原則是安全可控;

  2. AI 的創(chuàng)新愿景是促進(jìn)人類更加平等地獲得技術(shù)能力;

  3. AI 存在的價(jià)值是教人學(xué)習(xí),讓人成長(zhǎng),而不是取代人、超越人;

AI的終極理想是為人類帶來(lái)更多的自由和可能。

同樣是2018年,微軟發(fā)表了《未來(lái)計(jì)算》(The Future Computed)一書,其中提出了開發(fā)人工智能的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責(zé)任。

首先是公平性,是指不同區(qū)域的人、不同等級(jí)的人在AI面前是平等的,不應(yīng)該有人被歧視。

第二是可靠性和安全性,指的是人工智能使用起來(lái)是安全、可靠、不作惡的。

第三是隱私和保障,因?yàn)樯婕暗綌?shù)據(jù),所以總是會(huì)引起個(gè)人隱私和數(shù)據(jù)安全方面的問(wèn)題。

第四是必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。

第五是透明度。在過(guò)去,人工智能領(lǐng)域突飛猛進(jìn)最重要的一個(gè)技術(shù)就是深度學(xué)習(xí),深度學(xué)習(xí)模型的準(zhǔn)確度是幾乎所有機(jī)器學(xué)習(xí)模型中最高的,但在這里存在一個(gè)是否透明的問(wèn)題。透明度和準(zhǔn)確度無(wú)法兼得,只能在二者權(quán)衡取舍,如果準(zhǔn)確度更高,可能要犧牲一定的透明度。

第六是問(wèn)責(zé)。問(wèn)責(zé)制是一個(gè)非常有爭(zhēng)議的話題,涉及到一個(gè)法律或者立法的問(wèn)題。如果是機(jī)器代替人來(lái)進(jìn)行決策、采取行動(dòng)出現(xiàn)了不好的結(jié)果,到底是誰(shuí)來(lái)負(fù)責(zé)?不能讓機(jī)器或者人工智能系統(tǒng)當(dāng)替罪羊,人必須是承擔(dān)責(zé)任的。

實(shí)際上,大約在1950年,科幻作家阿西莫夫就提出了 “機(jī)器人三定律”:

第一,不傷害定律:機(jī)器人不得傷害人類,也不得見(jiàn)人受到傷害而袖手旁觀。

第二,服從定律:機(jī)器人必須服從人的命令,但不得違反第一定律。

第三,自保定律:機(jī)器人必須保護(hù)自己,但不得違反一、二定律。

這三條定律在制造機(jī)器人的伊始便被嵌入其大腦,永遠(yuǎn)無(wú)法消除。

這些都涉及了一定的倫理問(wèn)題, 都還都是些概要性原則,較完善地提出AI 倫理與價(jià)值的可能是阿西洛馬人工智能原則了。

阿西洛馬人工智能原則

2017年1月初舉行的“Beneficial AI”會(huì)議,在此基礎(chǔ)上建立起來(lái)的“阿西洛馬人工智能原則”,名稱來(lái)自此次會(huì)議的地點(diǎn)——美國(guó)加州的阿西洛馬(Asilomar)市,旨在確保AI為人類利益服務(wù)。

西洛馬人工智能原則的第6至18條,指出了人工智能的倫理和價(jià)值: 

6) 安全性:人工智能系統(tǒng)在它們整個(gè)運(yùn)行過(guò)程中應(yīng)該是安全和可靠的,而且其可應(yīng)用性的和可行性應(yīng)當(dāng)接受驗(yàn)證。

7) 故障透明性:如果一個(gè)人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。

8)司法透明性:任何自動(dòng)系統(tǒng)參與的司法判決都應(yīng)提供令人滿意的司法解釋以被相關(guān)領(lǐng)域的專家接受。

9)責(zé)任:高級(jí)人工智能系統(tǒng)的設(shè)計(jì)者和建造者,是人工智能使用、誤用和行為所產(chǎn)生的道德影響的參與者,有責(zé)任和機(jī)會(huì)去塑造那些道德影響。

10)價(jià)值歸屬:高度自主的人工智能系統(tǒng)的設(shè)計(jì),應(yīng)該確保它們的目標(biāo)和行為在整個(gè)運(yùn)行中與人類的價(jià)值觀相一致。

11)人類價(jià)值觀:人工智能系統(tǒng)應(yīng)該被設(shè)計(jì)和操作,以使其和人類尊嚴(yán)、權(quán)力、自由和文化多樣性的理想相一致。

12)個(gè)人隱私:在給予人工智能系統(tǒng)以分析和使用數(shù)據(jù)的能力時(shí),人們應(yīng)該擁有權(quán)力去訪問(wèn)、管理和控制他們產(chǎn)生的數(shù)據(jù)。

13)自由和隱私:人工智能在個(gè)人數(shù)據(jù)上的應(yīng)用不能充許無(wú)理由地剝奪人們真實(shí)的或人們能感受到的自由。

14)分享利益:人工智能科技應(yīng)該惠及和服務(wù)盡可能多的人。

15) 共同繁榮:由人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)該被廣泛地分享,惠及全人類。

16)人類控制:人類應(yīng)該來(lái)選擇如何和決定是否讓人工智能系統(tǒng)去完成人類選擇的目標(biāo)。

17)非顛覆:高級(jí)人工智能被授予的權(quán)力應(yīng)該尊重和改進(jìn)健康的社會(huì)所依賴的社會(huì)和公民秩序,而不是顛覆。

18)人工智能軍備競(jìng)賽:致命的自動(dòng)化武器的裝備競(jìng)賽應(yīng)該被避免。

共有23條準(zhǔn)則,旨在確保人類在新技術(shù)出現(xiàn)時(shí)能順利規(guī)避其潛在的風(fēng)險(xiǎn),其突出核心成員有Stephen Hawking和Elon Musk。這個(gè)組織專注于由新技術(shù)和問(wèn)題構(gòu)成的潛在威脅,如人工智能、生物技術(shù)、核武器和氣候變化等。

AI 倫理學(xué)?

實(shí)際上,很多倫理問(wèn)題連人類自身都沒(méi)有解決,由人類定義的倫理邏輯是否存在漏洞呢?微不足道的漏洞,在人工智能發(fā)展到一定程度后卻可能成為壓倒整個(gè)倫理系統(tǒng)的稻草。

對(duì)于功利主義者而言,“以人類為中心”將是發(fā)展人工智能的重要倫理依據(jù):必要的領(lǐng)域應(yīng)該限制機(jī)器的智能超過(guò)人類的智能,即使將來(lái)某一天超過(guò)了,掌握權(quán)還要在人類的手中。但是這種“物我兩分”的價(jià)值觀,本質(zhì)上是一種“主奴思想”。在人工智能可能超過(guò)人類的語(yǔ)境下,可能并不是最好的解決方案。倘若人類真的要在人工智能這條路上走下去,將倫理的判斷完全掌握在人類手中或是全權(quán)交給“更智慧”的人工智能都是不可行的;將人類自身與人工智能放到統(tǒng)一的維度去審視,方能產(chǎn)生一個(gè)相較而言最為完善的人工智能倫理關(guān)系。

另外,妥善處理人工智能與人類之間可能產(chǎn)生的情感與羈絆,也是人工智能倫理研究的重要一環(huán)。

在國(guó)外,MIT媒體實(shí)驗(yàn)室(MIT Media Lab)和哈佛大學(xué)伯克曼克萊恩互聯(lián)網(wǎng)及社會(huì)研究中心(Berkman Klein Center)共同成為了“人工智能倫理和監(jiān)管基金”的管理機(jī)構(gòu),用于解決人工智能所帶來(lái)的人文及道德問(wèn)題。

現(xiàn)在,人工智能技術(shù)在我們生活的各個(gè)方面都變得越來(lái)越有用。它們存在于我們的智能手機(jī)、社交網(wǎng)絡(luò)、家庭智能音箱、私人交通工具ーー只要你能想到的,就有人工智能在某處工作。就像任何新興的技術(shù)一樣,需要充分利用這些AI技術(shù); 同時(shí)確保人工智能在道德和收益上有益于所有人。

人工智能倫理學(xué)可能會(huì)發(fā)展成一門學(xué)科,可能要解決以下的一些問(wèn)題:

  • 人性: 機(jī)器如何影響人們的行為和互動(dòng)?

  • 不平等: 人們?nèi)绾畏峙錂C(jī)器創(chuàng)造的財(cái)富?

  • 失業(yè): 人們?cè)跊](méi)有工作后會(huì)發(fā)生什么?

  • 安全: 人們?nèi)绾伪Wo(hù)AI不受敵人侵?jǐn)_?

  • ......

在建立AI體系時(shí)需要考慮的一些倫理要點(diǎn)

現(xiàn)在,可能需要企業(yè)和政府介入并幫助解決這些問(wèn)題,確定指導(dǎo)行業(yè)內(nèi)的AI倫理原則,最終幫助確保AI技術(shù)的安全性和可持續(xù)性,能夠發(fā)揮AI 的潛力。

在建立AI倫理和AI經(jīng)濟(jì)時(shí)需要考慮的五個(gè)要點(diǎn)——

1: 引入人工智能的公司治理和道德框架

對(duì)于支持AI倫理的人工智能經(jīng)濟(jì)而言,第一步是制定關(guān)鍵原則,以維護(hù)該技術(shù)的道德使用。企業(yè)應(yīng)起草或修訂企業(yè)政策,納入新技術(shù)的道德使用立場(chǎng),概述其業(yè)務(wù)模式所特有的問(wèn)責(zé)措施。公司還需在組織的各個(gè)層面建立明確的期望,使AI倫理成為整個(gè)公司討論中的一部分,從董事會(huì)會(huì)議和員工績(jī)效評(píng)估,到非正式管理和員工簽到。

在政府層面,官員應(yīng)該注意監(jiān)管機(jī)構(gòu)在指導(dǎo)實(shí)施AI倫理方面的作用。決策者應(yīng)直接與行業(yè)專家合作,熟悉人工智能的技術(shù)構(gòu)成、潛在的安全風(fēng)險(xiǎn)和現(xiàn)實(shí)世界的應(yīng)用程序,然后再啟動(dòng)正式的調(diào)研方案。

2: 揭開人工智能的神秘面紗和關(guān)于其責(zé)任的問(wèn)題

為了揭開人工智能的神秘面紗和圍繞問(wèn)責(zé)制,企業(yè)應(yīng)該首先承認(rèn)實(shí)施該技術(shù)的任何潛在風(fēng)險(xiǎn),并制定在部署之前和使用之后進(jìn)行AI測(cè)試的戰(zhàn)略。在制定這些策略時(shí),公司應(yīng)該與外部專家一起探討人工智能的問(wèn)責(zé)制如何適用于特定的企業(yè)目標(biāo)和客戶需求。

政府官員應(yīng)該認(rèn)識(shí)到在采取措施促進(jìn)問(wèn)責(zé)制和允許人工智能創(chuàng)新之間的動(dòng)態(tài)平衡。找到這種平衡將有助于保持技術(shù)及其用戶的誠(chéng)實(shí)和透明度,因?yàn)樾抡呷?/span>然在制定之中。

3: 建立人們對(duì)企業(yè)人工智能的信任

作為一個(gè)企業(yè),在使用人工智能時(shí),必須盡可能保持透明。在向利益相關(guān)者介紹這一想法時(shí),企業(yè)必須分享技術(shù)的預(yù)期目的以及認(rèn)為在他們的組織中采用這一想法的重要原因。商業(yè)領(lǐng)袖需要通過(guò)制定培訓(xùn)和認(rèn)證方案,明確界定使用人工智能的標(biāo)準(zhǔn),并應(yīng)公開說(shuō)明為界定這些最佳實(shí)踐而采取的措施,特別是為檢驗(yàn)技術(shù)缺陷而采取的任何步驟。

政府可以通過(guò)尋找機(jī)會(huì),讓公眾參與正在進(jìn)行的討論,解決民眾關(guān)注的問(wèn)題,并介紹今后的考慮因素,從而建立對(duì)企業(yè)AI的信任。此外,通過(guò)政府來(lái)提高民眾的認(rèn)識(shí),政府可以努力減少公眾對(duì)于在工作和日常生活中使用AI的某些抑制。

4: 將人工智能引入勞動(dòng)力隊(duì)伍

為了鼓勵(lì)將人工智能納入勞動(dòng)力隊(duì)伍,企業(yè)應(yīng)投資于對(duì)自動(dòng)化技術(shù)相互作用的工作人員進(jìn)行再培訓(xùn)。為了最大限度地利用這種培訓(xùn),公司可以給人力資源部門提供未來(lái)技能需求所需的數(shù)據(jù),這樣他們就能準(zhǔn)確地知道什么樣的工具可以武裝當(dāng)前和未來(lái)的員工隊(duì)伍,從而取得成功。

5: 需要為年輕學(xué)生制定數(shù)字教育方案

最后,企業(yè)和政府都應(yīng)該支持針對(duì)年輕學(xué)生的AI教育項(xiàng)目,幫助確保下一代人能夠運(yùn)用人工智能,理解更廣泛的倫理問(wèn)題。在一個(gè)理想的世界里,學(xué)生完成教育后,預(yù)測(cè)圍繞人工智能技術(shù)的使用的道德框架和原則,他們將理解問(wèn)責(zé)制,并反過(guò)來(lái)期望公司具有透明度。只要企業(yè)、政府和行業(yè)參與者共同努力,為AI倫理奠定適當(dāng)?shù)幕A(chǔ),這一切就可以實(shí)現(xiàn)。

AI倫理學(xué),可能還處于一知半解的狀態(tài)里,都在路上。

參考資料:

  • 周衛(wèi)中. 企業(yè)社會(huì)責(zé)任的五大認(rèn)識(shí)誤區(qū)[J]. 企業(yè)管理(5):102-104.

  • 王景峰, 周衛(wèi)中, WANGJing-feng, et al. 偽社會(huì)責(zé)任的界定與形式轉(zhuǎn)化研究[J]. 技術(shù)經(jīng)濟(jì)與管理研究, 2015(7):57-61.

  • How Enterprises Can Help Build Ethical AI Strategies By: Chris Preimesberger, eWEEK | October 08, 2018

  • Michael Irving, 陳亮. 阿西洛馬23原則使AI更安全和道德[J]. 機(jī)器人產(chǎn)業(yè), 13(2):14-17.

  • 阿西洛馬人工智能原則——馬斯克、戴米斯·哈薩比斯等確認(rèn)的23個(gè)原則,將使AI更安全和道德[J]. 智能機(jī)器人(1):28-29.

  • 張雪嬌. 阿西莫夫?qū)C(jī)器人世界的倫理凝視[D]. 華中師范大學(xué), 2015.

  • 杜靜, 黃榮懷, 李政璇, et al. 智能教育時(shí)代下人工智能倫理的內(nèi)涵與建構(gòu)原則[J]. 電化教育研究, 2019(7).

本站僅提供存儲(chǔ)服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊舉報(bào)。
打開APP,閱讀全文并永久保存 查看更多類似文章
猜你喜歡
類似文章
為什么阿西莫夫的機(jī)器人三定律救不了我們 | 微科幻主題站 | 果殼網(wǎng) 科技有意思
人工智能時(shí)代的道德:讓算法遵循“善法”
機(jī)器人倫理的研究進(jìn)路:自上而下的研究進(jìn)路
?閆坤如:人工智能機(jī)器具有道德主體地位嗎?
警惕人工智能的倫理缺失
人文社會(huì)科學(xué)與人工智能倫理的關(guān)系
更多類似文章 >>
生活服務(wù)
熱點(diǎn)新聞
分享 收藏 導(dǎo)長(zhǎng)圖 關(guān)注 下載文章
綁定賬號(hào)成功
后續(xù)可登錄賬號(hào)暢享VIP特權(quán)!
如果VIP功能使用有故障,
可點(diǎn)擊這里聯(lián)系客服!

聯(lián)系客服