隨州網(wǎng)

 找回密碼
 注冊(cè)會(huì)員
查看: 3334|回復(fù): 3
打印 上一主題 下一主題

霍金:人工智能不一定是好事 或?qū)е氯祟悳缤?/span>

[復(fù)制鏈接]
跳轉(zhuǎn)到指定樓層
樓主
發(fā)表于 2014-9-11 15:49 | 只看該作者 |只看大圖 回帖獎(jiǎng)勵(lì) |倒序?yàn)g覽 |閱讀模式

騰訊科技訊消息,著名物理學(xué)家史蒂芬霍金(Steven Hawking)在討論約翰尼德普(Johnny Depp)主演的新片《超驗(yàn)駭客》時(shí)稱,人工智能或許不但是人類歷史上最大的事件,而且還有可能是最后的事件。他的意思是:人工智能可能會(huì)導(dǎo)致人類的滅亡。

當(dāng)你為人工智能技術(shù)的飛速發(fā)展而歡呼雀躍的時(shí)候,你是否想過這可能并不是一件好事?

在觀看了德普主演的新片《超驗(yàn)駭客》后,霍金在為《獨(dú)立》雜志撰寫的一篇文章中明確地表達(dá)了他對(duì)這個(gè)問題的擔(dān)憂。

霍金擔(dān)憂的對(duì)象不僅僅是未來的人工智能技術(shù),甚至還包括現(xiàn)在的一些公司比如谷歌Facebook。他說:“人工智能的短期影響取決于由誰來控制它,而長(zhǎng)期影響則取決于它是否能夠被控制。”

不管從短期還是長(zhǎng)期角度來說,人工智能都存在著巨大的潛在風(fēng)險(xiǎn)。實(shí)際上,霍金似乎根本就不信任所謂的人工智能專家。

他說:“未來可能出現(xiàn)的情況到底是好是壞完全是無法預(yù)料的,面對(duì)這種情況,專家們肯定會(huì)盡一切可能去保證得到最好的結(jié)果,對(duì)嗎?錯(cuò)!如果有一個(gè)優(yōu)越的外星文明給我們發(fā)來一條信息說:‘我們將在幾十年之后到達(dá)地球,’我們是否應(yīng)該回答說:‘好的,當(dāng)你到達(dá)地球的時(shí)候請(qǐng)通知一下我們,我們將給你留門’?我們可能不會(huì)那么做,但是如果人工智能技術(shù)繼續(xù)發(fā)展下去,差不多就會(huì)出現(xiàn)那樣的情況!

實(shí)際上,堅(jiān)持技術(shù)發(fā)展似乎可以消除或避免最終產(chǎn)品可能對(duì)人類構(gòu)成的威脅。無人汽車就是個(gè)很好的例子。工程師們似乎并不關(guān)心人們?cè)陂_車的過程中獲得的樂趣。

霍金承認(rèn),機(jī)器人和其他的人工智能設(shè)備也許會(huì)給人類帶來巨大的好處。如果那些設(shè)備的設(shè)計(jì)非常成功,就能給人類帶來巨大的好處,他說那將是人類歷史上最大的事件。然而他同時(shí)也提醒說,人工智能也有可能是人類歷史上最后的事件。

實(shí)際上,人類在考核人工智能技術(shù)的潛在風(fēng)險(xiǎn)和收益方面所做的研究工作太少;艚饘(duì)此表示擔(dān)憂和哀嘆。

他說:“人工智能技術(shù)發(fā)展到極致程度時(shí),我們將面臨著人類歷史上的最好或者最壞的事情!

霍金以前就曾試圖提醒人們注意一點(diǎn),即科幻的魅力會(huì)蒙蔽我們的雙眼。它有時(shí)會(huì)掩蓋住一個(gè)重要的問題,即最終的結(jié)果有可能引發(fā)一場(chǎng)浩劫。他曾經(jīng)說過,外星文明可能會(huì)憎恨地球文明。

人類有一種自戀的傾向,盲目相信自己很聰明而從不考慮事情有時(shí)可能會(huì)出錯(cuò);蛟S正如霍金所說的那樣,科技行業(yè)應(yīng)該更多地把關(guān)注的焦點(diǎn)放在未雨綢繆上面


沙發(fā)
發(fā)表于 2014-9-11 16:55 | 只看該作者
偉大的霍金!     

板凳
發(fā)表于 2014-9-11 17:21 | 只看該作者
科技進(jìn)步了,大腦退化了

4
發(fā)表于 2014-9-11 22:05 | 只看該作者
這個(gè)痞子

回復(fù)

使用道具 舉報(bào)

本版積分規(guī)則

QQ|合作伙伴|手機(jī)版|小黑屋|廣告報(bào)價(jià)|聯(lián)系我們|本站簡(jiǎn)介|無圖瀏覽|隨州網(wǎng) ( 鄂ICP備11019817號(hào)-1 )

GMT+8, 2024-9-21 17:35

Powered by Discuz! X3.4

© 2001-2019 Comsenz Inc.

快速回復(fù) 返回頂部 返回列表