歡迎光臨南京品微智能科技有限公司官網(wǎng)! 熱線電話:(025)8526-3812 | 設(shè)為首頁 | 加入收藏
首頁 >> 新聞中心 >>  行業(yè)動態(tài)

聯(lián)系我們


地址:南京市江北新區(qū)研創(chuàng)園騰飛大廈A座8樓
手機:13951803071
郵箱:hr@pwsmart.com.cn
行業(yè)動態(tài)

可控的人工智能 才有未來

時間:2019-08-20 16:07:20 點擊:

盡管并非所有人都認同AI的這幾個“可”,但這提出了AI的一種方向,即AI產(chǎn)品的研發(fā)和使用必須同時具有幾個維度,而不能只發(fā)展一個方面。AI或其他科技產(chǎn)品無論如何新穎和實用,也需要在可控的狀態(tài)下才能受到人們的歡迎,并且在獲得極大效益的同時,防止和減少對人類社會可能造成的麻煩和災(zāi)難。這或許是反思世界各國經(jīng)濟發(fā)展與環(huán)境保護曾犯下的錯誤后得出的經(jīng)驗。

  確保AI的“知、控、用、靠”也是總結(jié)了科技史上的先研發(fā)、后管理的傳統(tǒng)思路和做法的教訓(xùn)。在科技史上,汽車的發(fā)明把人類社會帶入了工業(yè)文明時代,但是,在汽車的使用過程中,人們卻較難控制其帶來的交通事故和傷害,安全帶的發(fā)明和使用就是控制汽車傷害事件的一個要素,但是,汽車發(fā)明之后80年才研發(fā)出安全帶。

  基于這樣的認知,微軟提出了其人工智能發(fā)展的一項原則——每一項AI產(chǎn)品都要經(jīng)過AI倫理道德審查。AI的迅猛發(fā)展也讓人類認識到,如果AI在可用的同時不可控的話,人類將付出更大的代價。因此,對每一種AI產(chǎn)品進行倫理審查和立規(guī)也成為AI研發(fā)必須同時完成的任務(wù)。2016年微軟的CEO薩提亞·納德拉(Satya Nadella)提出了人工智能的十大倫理:AI必須用來輔助人類;AI必須是透明的;AI必須實現(xiàn)效能最大化,同時又不能傷害人的尊嚴;AI必須保護人的隱私;AI必須承擔(dān)算法責(zé)任以便人類可以撤銷非故意的傷害;AI必須防止偏見。

  以上6項是對AI產(chǎn)品提出的,但同時也提出了使用AI產(chǎn)品的人類應(yīng)該擁有的4個倫理原則,包括人要有同理心,這在人與AI共存的世界里非常有價值;教育,為研發(fā)和管理AI提供基礎(chǔ);保持人的創(chuàng)造力,機器也會繼續(xù)豐富和增強人們的創(chuàng)造力;裁決和責(zé)任,最終由人來對AI的判決或診斷,或?qū)I產(chǎn)生的所有結(jié)果負責(zé)。

  如果能實施,這些原則當(dāng)然能對AI進行有效的控制。但實際上,由于種種原因,很多機構(gòu)和研發(fā)者設(shè)計的AI產(chǎn)品并非可控,也因此會在應(yīng)用時出現(xiàn)種種問題。目前最大的問題就是侵犯人們的隱私,難以保證安全,也因此受到人們的批評和反對。

  最近一個比較大的教訓(xùn)是蘋果產(chǎn)品的語音助手西瑞(Siri)。2019年7月,媒體報道,西瑞會偷錄用戶的隱私語音,如就診時的醫(yī)療信息等,并轉(zhuǎn)化為聲音檔案,發(fā)送給蘋果公司在不同國家的承包商。聲音檔案同時也記錄用戶的位置、使用數(shù)據(jù)與通訊內(nèi)容。在經(jīng)過一番解釋和拉鋸之后,蘋果公司于8月28日就西瑞秘密錄下與用戶的交流,并將文件泄露給外包商正式道歉。由于隱私不保,用戶提出了批評,而且如果這些情況不能改善,就會讓蘋果失去大量的用戶,甚至被市場拋棄。

  不過這種情況也表明,人工智能的發(fā)展最終還是取決于是否能受人控制,因為離開了人的控制,AI就無法進化和升級。正是在人與AI的互動情況之下,才有可能讓AI的倫理審查和監(jiān)控失靈或失范,并造成安全漏洞。

  因此,不只是可知可用,可控和可靠也要同時得到保證和保障,AI才會有未來。其他產(chǎn)品同樣如此。


首頁 | 關(guān)于我們 | 產(chǎn)品中心 | 解決方案 | 聯(lián)系我們 | 在線留言 | 企業(yè)簡介

地址:南京市江北新區(qū)研創(chuàng)園騰飛大廈A座8樓
服務(wù)熱線 : 025-8526-3812 電子郵箱:hr@pwsmart.com.cn 備案號:蘇ICP備19046346號

關(guān)注微信號