您的位置: 首頁 >科技 >

學(xué)生小組探討了人工智能的倫理維度

2022-07-03 03:37:30 編輯:瞿云棟 來源:
導(dǎo)讀 多年來,科技行業(yè)采取了一種快速和突破性的方法,很少有人會(huì)想到市場(chǎng)上出現(xiàn)了一波驚人的通信和導(dǎo)航世界的新工具?,F(xiàn)在,隨著對(duì)假新聞傳播

多年來,科技行業(yè)采取了一種快速和突破性的方法,很少有人會(huì)想到市場(chǎng)上出現(xiàn)了一波驚人的通信和導(dǎo)航世界的新工具。

現(xiàn)在,隨著對(duì)假新聞傳播,個(gè)人數(shù)據(jù)濫用以及機(jī)器學(xué)習(xí)算法大規(guī)模歧視的可能性日益增加的擔(dān)憂,人們正在評(píng)估該行業(yè)的破產(chǎn)情況。三個(gè)麻省理工學(xué)院的學(xué)生,Irene Chen, Leilani Gilpin和 Harini Suresh,他們是新麻省理工學(xué)院人工智能倫理閱讀小組的創(chuàng)始人, 進(jìn)入這個(gè)清算時(shí)刻 。

這三個(gè)人都是電氣工程和計(jì)算機(jī)科學(xué)系(EECS)的研究生,他們?cè)诠韫裙ぷ鬟^,他們親眼目睹了如何以良好的意愿開發(fā)技術(shù)可能會(huì)出現(xiàn)嚴(yán)重錯(cuò)誤。

“人工智能很酷,”陳在最近一個(gè)早晨在大堂7聊天時(shí)說。“它太強(qiáng)大了。但有時(shí)它會(huì)嚇到我。“

創(chuàng)始人曾在課堂上和朋友之間就人工智能的承諾和風(fēng)險(xiǎn)進(jìn)行了辯論,但他們?cè)?月份 在劍橋機(jī)器學(xué)習(xí)研討會(huì)上獲得了谷歌贊助的 公平性。在那里,麻省理工學(xué)院的一位教授提出了一個(gè)倫理論壇的想法,并讓這三個(gè)女人保持聯(lián)系。

當(dāng)麻省理工學(xué)院上個(gè)月宣布計(jì)劃創(chuàng)建麻省理工學(xué)院斯蒂芬A.施瓦茨曼計(jì)算機(jī)學(xué)院時(shí),他們啟動(dòng)了 麻省理工學(xué)院人工智能倫理閱讀組。在施瓦茨曼宣布之后的熱情中,超過60人參加了他們的第一次會(huì)面。

其中一位是麻省理工學(xué)院斯隆管理學(xué)院碩士生Sacha Ghebali 。他在麻省理工學(xué)院的金融課程中參加了必修的道德課程,并渴望了解更多信息。

“我們正在構(gòu)建具有很大杠桿作用的工具,”他說。“如果你沒有正確地構(gòu)建它們,你可能會(huì)造成很大的傷害。你需要不斷思考道德。“

在最近的一個(gè)晚上,Ghebali回到了第二晚的討論之中。他們?cè)诳帐幨幍慕淌依飮欢雅_盒聚集在一起,因?yàn)榧獱柶皆谌ツ甏禾熘匦麻_始致命的撞車事件而開始了會(huì)議,其中一輛自駕車的優(yōu)步撞上了行人。吉爾平問道,誰應(yīng)該承擔(dān)責(zé)任,編程汽車的工程師或車輪后面的人?

隨后進(jìn)行了熱烈的辯論 然后,當(dāng)談話轉(zhuǎn)向道德應(yīng)該如何教授時(shí),學(xué)生們分成小組:要么作為一個(gè)獨(dú)立的課程,要么整合到整個(gè)課程中。他們考慮了兩種模式:哈佛,它將哲學(xué)和道德推理融入其計(jì)算機(jī)科學(xué)課程,以及硅谷的圣克拉拉大學(xué),它在其入門數(shù)據(jù)科學(xué)課程中提供基于案例研究的倫理學(xué)模塊。

“在CS課程中教授道德很難,所以也許應(yīng)該有單獨(dú)的課程,”一名學(xué)生提出。其他人認(rèn)為道德應(yīng)該整合到每個(gè)技術(shù)培訓(xùn)層面。

“當(dāng)你學(xué)習(xí)編碼時(shí),你將學(xué)習(xí)一個(gè)設(shè)計(jì)過程,”EECS研究生Natalie Lao說,他幫助為K-12學(xué)生開發(fā)人工智能課程。“如果你將道德規(guī)范納入你的設(shè)計(jì)實(shí)踐,你就會(huì)學(xué)會(huì)將道德規(guī)范內(nèi)化為你工作流程的一部分。”

學(xué)生們還討論了是否應(yīng)考慮最終用戶以外的利益相關(guān)者。Suresh告訴小組說:“當(dāng)我正在建立與所有會(huì)影響的人交談時(shí),我從未接受過教育。” “這可能非常有用。”

1922年的計(jì)算機(jī)科學(xué)與電子工程教授Abelson說,該研究所應(yīng)該如何在麻省理工學(xué)院施瓦茨曼計(jì)算機(jī)學(xué)院教授倫理學(xué),他幫助啟動(dòng)了該小組并參加了兩次會(huì)議。“這真的只是一個(gè)開始,”他說。“五年前,我們甚至沒有談?wù)撊藗冴P(guān)閉汽車的方向盤。”

隨著人工智能的不斷發(fā)展,安全和公平問題仍將是最重要的問題。在麻省理工學(xué)院的研究中,倫理閱讀小組的創(chuàng)始人同時(shí)開發(fā)工具來解決小組中提出的困境。

吉爾平正在創(chuàng)建方法和工具,以幫助自動(dòng)駕駛汽車和其他自動(dòng)機(jī)器解釋自己。她說,要讓這些機(jī)器真正安全且受到廣泛信任,他們需要能夠解釋自己的行為并從錯(cuò)誤中吸取教訓(xùn)。

Suresh正在開發(fā)算法,使人們更容易負(fù)責(zé)任地使用數(shù)據(jù)。在與Google的暑期實(shí)習(xí)期間,她研究了在Google新聞和其他基于文本的數(shù)據(jù)集上訓(xùn)練的算法是如何學(xué)習(xí)某些功能以學(xué)習(xí)偏見的關(guān)聯(lián)的。她說,識(shí)別數(shù)據(jù)管道中的偏見來源是避免下游應(yīng)用程序中更嚴(yán)重問題的關(guān)鍵。

Chen,以前是DropBox的數(shù)據(jù)科學(xué)家和參謀長(zhǎng),負(fù)責(zé)開發(fā)用于醫(yī)療保健的機(jī)器學(xué)習(xí)工具。在一篇新論文“ 為什么我的分類器歧視”中,她認(rèn)為AI預(yù)測(cè)的公平性應(yīng)該通過收集更多數(shù)據(jù)來衡量和糾正,而不僅僅是通過調(diào)整模型。她下個(gè)月在世界上最大的機(jī)器學(xué)習(xí)會(huì)議神經(jīng)信息處理系統(tǒng)上發(fā)表論文。

“Dropbox的許多問題,以及現(xiàn)在我在麻省理工學(xué)院的研究,都是全新的,”她說。“沒有劇本。處理人工智能的一部分樂趣和挑戰(zhàn)是你隨時(shí)都在努力。“

人工智能小組于11月28日和12月12日舉行了本學(xué)期的最后兩次會(huì)議。


免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請(qǐng)聯(lián)系刪除!

最新文章

精彩推薦

圖文推薦

點(diǎn)擊排行

2016-2022 All Rights Reserved.平安財(cái)經(jīng)網(wǎng).復(fù)制必究 聯(lián)系QQ280 715 8082   備案號(hào):閩ICP備19027007號(hào)-6

本站除標(biāo)明“本站原創(chuàng)”外所有信息均轉(zhuǎn)載自互聯(lián)網(wǎng) 版權(quán)歸原作者所有。