欧美一级特黄AAAAAAA什,国产乱婬片视频,99香蕉国产精品偷在线观看,欧美日韩精品一区二区,男人与雌性宠物交视频

手機看中經(jīng)經(jīng)濟日報微信中經(jīng)網(wǎng)微信
當前位置     首頁(yè) > 新聞 > 科教更多新聞 > 正文
中經(jīng)搜索

談人工智能作惡:黑產(chǎn)超正規行業(yè) 別"煉"出造反AI

2018年11月05日 07:24   來(lái)源:科技日報   

  本報記者 劉 垠

  一場(chǎng)搶劫案后,格雷的妻子喪生,自己也全身癱瘓。他接受了一個(gè)天才科學(xué)家的“升級”改造治療——在他身體里植入了人工智能程序STEM,獲得了超強的能力,從一個(gè)“殘廢”直接升級成為職業(yè)殺手。隨著(zhù)STEM的進(jìn)化升級,步步緊逼格雷交出身體使用權和大腦意識控制權……

  本年度關(guān)于人工智能和人類(lèi)未來(lái)的最佳影片,不少人認為非《升級》莫屬。而人工智能和人類(lèi)抗衡的探討,是科幻電影中的永恒話(huà)題,從《銀翼殺手》到《機械姬》,再到今年的低成本電影《升級》,都映射出未來(lái)人工智能對人類(lèi)的威脅。

  黑產(chǎn)超正規行業(yè) 惡意源于人類(lèi)基因

  AI造反,是科幻電影里太常見(jiàn)的橋段。問(wèn)題在于,現實(shí)當中真正的AI好像也在一步步向我們走來(lái)。不少人抱有憂(yōu)慮和不安,人工智能會(huì )“作惡”嗎?

  傾向于A(yíng)I威脅論的人并不在少數。馬斯克曾在推特上表示:“我們要非常小心人工智能,它可能比核武器更危險!笔返俜摇せ艚鹨舱f(shuō):“人工智能可能是一個(gè)‘真正的危險’。機器人可能會(huì )找到改進(jìn)自己的辦法,而這些改進(jìn)并不總是會(huì )造福人類(lèi)!

  “任何技術(shù)都是一把雙刃劍,都有可能用于作惡,為什么人工智能作惡會(huì )引起這么大的反響?”在近日召開(kāi)的2018中國計算機大會(huì )的分論壇上,哈爾濱工業(yè)大學(xué)長(cháng)聘教授鄔向前拋出了問(wèn)題,人工智能研究的底線(xiàn)到底在哪里?

  早在1942年,阿西莫夫就提出了機器人三定律。但問(wèn)題在于,這些科幻書(shū)中美好的定律,執行時(shí)會(huì )遇到很大的問(wèn)題。

  “一臺計算機里跑什么樣的程序,取決于這個(gè)程序是誰(shuí)寫(xiě)的!360集團技術(shù)總裁、首席安全官譚曉生說(shuō),機器人的定律可靠與否,首先是由人定義的,然后由機器去存儲、執行。

  值得注意的是,“不作惡”已成科技行業(yè)的一個(gè)技術(shù)原則。那么,機器人作惡,惡意到底從何而來(lái)?

  如今人工智能發(fā)展的如火如荼,最早擁抱AI的卻是黑產(chǎn)群體,包括用AI的方法來(lái)突破驗證碼,去黑一些賬戶(hù)。譚曉生笑言:“2016年中國黑產(chǎn)的收入已超過(guò)一千億,整個(gè)黑產(chǎn)比我們掙的錢(qián)還要多,它怎么會(huì )沒(méi)有動(dòng)機呢?”

  “AI作惡的實(shí)質(zhì),是人類(lèi)在作惡!北本┐髮W(xué)法學(xué)院教授張平認為,AI不過(guò)是一個(gè)工具,如果有人拿著(zhù)AI去作惡,那就應該制裁AI背后的人,比如AI的研發(fā)人員、控制者、擁有者或是使用者。當AI在出現損害人類(lèi)、損害公共利益和市場(chǎng)規則的“惡”表現時(shí),法律就要出來(lái)規制了。

  目前,無(wú)人駕駛和機器人手術(shù)時(shí)引發(fā)的事故,以及大數據分析時(shí)的泛濫和失控時(shí)有耳聞。那么,人工智能會(huì )進(jìn)化到人類(lèi)不可控嗎?屆時(shí)AI作惡,人類(lèi)還能招架的住嗎?

  任務(wù)驅動(dòng)型AI 還犯不了“反人類(lèi)罪”

  值得關(guān)注的是,霍金在其最后的著(zhù)作中向人類(lèi)發(fā)出警告,“人工智能的短期影響取決于誰(shuí)來(lái)控制它,長(cháng)期影響則取決于它能否被控制!毖韵轮,人工智能真正的風(fēng)險不是惡意,而是能力。

  “人工智能未來(lái)的發(fā)展會(huì )威脅到人類(lèi)的生存,這不是杞人憂(yōu)天,確實(shí)會(huì )有很大的風(fēng)險,雖說(shuō)不是一定會(huì )發(fā)生,但是有很大的概率會(huì )發(fā)生!痹谧T曉生看來(lái),人類(lèi)不會(huì )被滅亡,不管人工智能如何進(jìn)化,總會(huì )有漏洞,黑客們恰恰會(huì )在極端的情況下找到一種方法把這個(gè)系統完全摧毀。

  對此,上海交通大學(xué)電子系特別研究員倪冰冰持樂(lè )觀(guān)態(tài)度!拔覀兡壳按蟛糠值腁I技術(shù)是任務(wù)驅動(dòng)型,AI的功能輸出、輸入都是研究者、工程師事先規定好的!蹦弑忉屨f(shuō),絕大多數的AI技術(shù)遠遠不具備反人類(lèi)的能力,至少目前不用擔心。

  張平表示,當AI發(fā)展到強人工智能階段時(shí),機器自動(dòng)化的能力提高了,它能夠自我學(xué)習、自我升級,會(huì )擁有很強大的功能。比如人的大腦和計算機無(wú)法比擬時(shí),這樣的強人工智能就會(huì )對我們構成威脅。

  “人類(lèi)給AI注入什么樣的智慧和價(jià)值觀(guān)至關(guān)重要,但若AI達到了人類(lèi)無(wú)法控制的頂級作惡——‘反人類(lèi)罪’,就要按照現行人類(lèi)法律進(jìn)行處理!睆埰秸f(shuō),除了法律之外,還需有立即“處死”這類(lèi)AI的機制,及時(shí)制止其對人類(lèi)造成的更大傷害!斑@要求在A(yíng)I研發(fā)中必須考慮‘一鍵癱瘓’的技術(shù)處理,如果這樣的技術(shù)預設做不到,這類(lèi)AI就該停止投資與研發(fā),像人類(lèi)對待毒品般全球誅之!

  作惡案底漸增 預防機制要跟上

  事實(shí)上,人們的擔憂(yōu)并非空穴來(lái)風(fēng)。人工智能作惡的事件早在前兩年就初見(jiàn)端倪,比如職場(chǎng)偏見(jiàn)、政治操縱、種族歧視等。此前,德國也曾發(fā)生人工智能機器人把管理人員殺死在流水線(xiàn)的事件。

  可以預見(jiàn),AI作惡的案例會(huì )日漸增多,人類(lèi)又該如何應對?

  “如果我們把AI當作工具、產(chǎn)品,從法律上來(lái)說(shuō)應該有一種預防的功能?茖W(xué)家要從道德的約束、技術(shù)標準的角度來(lái)進(jìn)行價(jià)值觀(guān)的干預!睆埰綇娬{,研發(fā)人員不能給AI灌輸錯誤的價(jià)值觀(guān)。畢竟,對于技術(shù)的發(fā)展,從來(lái)都是先發(fā)展再有法律約束。

  在倪冰冰看來(lái),目前不管是AI算法還是技術(shù),都是人類(lèi)在進(jìn)行操控,我們總歸有一些很強的控制手段,控制AI在最高層次上不會(huì )對人產(chǎn)生一些負面影響!叭绻麤](méi)有這樣一個(gè)操控或者后門(mén)的話(huà),那意味著(zhù)不是AI在作惡,而是發(fā)明這個(gè)AI工具的人在作惡!

  凡是技術(shù),就會(huì )有兩面性。為什么我們會(huì )覺(jué)得人工智能的作惡讓人更加恐懼?與會(huì )專(zhuān)家直言,是因為AI的不可控性,在黑箱的情況下,人對不可控東西的恐懼感更加強烈。

  目前最火的領(lǐng)域——“深度學(xué)習”就是如此,行業(yè)者將其戲謔地稱(chēng)為“當代煉金術(shù)”,輸入各類(lèi)數據訓練AI,“煉”出一堆我們也不知道為啥會(huì )成這樣的玩意兒。人類(lèi)能信任自己都無(wú)法理解的決策對象嗎?

  顯然,技術(shù)開(kāi)發(fā)的邊界有必要明晰,比爾·蓋茨也表示擔憂(yōu)。他認為,現階段人類(lèi)除了要進(jìn)一步發(fā)展AI技術(shù),同時(shí)也應該開(kāi)始處理AI造成的風(fēng)險。然而,“這些人中的大多數都沒(méi)有研究AI風(fēng)險,只是在不斷加速AI發(fā)展!

  業(yè)界專(zhuān)家呼吁,我們必須清楚地知道人工智能會(huì )做出什么樣的決策,對人工智能的應用范圍和應用結果的預期,一定要有約束。

  AI會(huì )不會(huì )進(jìn)化,未來(lái)可能會(huì )形成一個(gè)AI社會(huì )嗎?“AI也許會(huì )為了爭取資源來(lái)消滅人類(lèi),這完全有可能,所以我們還是要重視AI作惡的程度和風(fēng)險!爆F場(chǎng)一位嘉賓建議,我們現在要根據人工智能的不同階段,比如弱智能、強智能和超智能,明確哪些人工智能應該研究,哪些應該謹慎研究,而哪些又是絕對不能研究的。

  如何防范AI在極速前進(jìn)的道路上跑偏?“要從技術(shù)、法律、道德、自律等多方面預防!睆埰秸f(shuō),AI研發(fā)首先考慮道德約束,在人類(lèi)不可預見(jiàn)其后果的情況下,研發(fā)應當慎重。同時(shí),還需從法律上進(jìn)行規制,比如聯(lián)合建立國際秩序,就像原子彈一樣,不能任其無(wú)限制地發(fā)展。

(責任編輯:孫丹)

欧美一级特黄AAAAAAA什,国产乱婬片视频,99香蕉国产精品偷在线观看,欧美日韩精品一区二区,男人与雌性宠物交视频