国产在线精品一级A片-国产另类欧美-国产精品va在线观看一-我要找美国一级片黄色|www.zheinei.com

人工智能的潛在風險閱讀答案

時間:2019-01-25 19:42:03 人工智能答案 我要投稿

人工智能的潛在風險閱讀答案

  騰訊科技訊 5月3日消息,著名物理學家史蒂芬霍金(Steveb Hawking)在討論約翰尼德普(Johnny Depp)主演的新片《超驗駭客》時稱,人工智能或許不但是人類歷史上最大的事件,而且還有可能是最后的事件,他的意思是:人工智能可能會導致人類的滅亡。

人工智能的潛在風險閱讀答案

  當你為人工智能技術的飛速發展而歡呼雀躍的時候,你是否想過這可能并不是一件好事?

  在觀看了德普主演的新片《超驗駭客》后,霍壘在為《獨立》雜志撰寫的一篇文章中明確地表達了他對這個問題的擔憂。

  霍金擔憂的對象不僅僅是未來的人工智能技術,甚至還包括現在的一些公司比如谷歌和Facebook,他說:“人工智能的短期影響取決于由誰來控制它,而長期影響則取決于它是否能夠被控制。”

  不管從短期還是長期角度來說,人工智能都存在著巨大的潛在風險。實際上,霍金似乎根本就不信任所謂的人工智能專家。

  他說:“未來可能出現的情況到底是好是壞完全是無法預料的,面對這種情況,專家們肯定會盡一切可能去保證得到最好的結果.對嗎?錯!如果有一個優越的外星文明給我們發來一條信息說:‘我們將在幾十年之后到達地球。’我們是否應該回答說:‘好的,當你到達地球的時候請通知一下我們,我們將給你留門’?我們可能不會那么做,但是如果人工智能技術繼續發展下去,差不多就會出現那樣的情況,”

  實際上,堅持技術發展似乎可以消除或避免最終產品可能對人類構成的威脅。無人汽車就是個很好的.例子,工程師們似乎并不關心人們在開車的過程中獲得的樂趣。

  霍金承認,機器人和其他的人工智能設備也許會給人類帶來巨大的好處。如果那些設備的設計非常成功,就能給人類帶來巨大的好處,他說那將是人類歷史上最大的事件。然而他同時也提醒說,人工智能也有可能是人類歷史上最后的事件。實際上,人類在考核人工智能技術的潛在風險和收益方面所做的研究工作太少。霍金對此表示擔憂和哀嘆。

  他說:“人工智能技術發展到極致程度時,我們將面臨著人類歷史上的最好或者最壞的事情。”

  霍金以前就曾試圖提醒人們注意一點,即科幻的魅力會蒙蔽我們的雙眼。它有時會掩蓋住一個重要的問題,即最終的結果有可能引發一場浩劫。他曾經說過,外星文明可能會憎恨地球文明。

  人類有一種自戀的傾向,盲目相信自己很聰明而從不考慮事情有時可能會出錯。或許正如霍金所說的那樣,科技行業應該更多地把關注的焦點放在未雨綢繆上面。

  l. 下列對文章內容的理解正確的一項是

  A. 人工智能長期來看只在未來存在著巨大的潛在風險,所以我們必須防范未然。

  B. 基于人工智能的潛在風險,霍金根本就不信任所謂的人工智能專家。

  C. 人工智能技術發展到極致程度時,人類歷史上最好或最壞的事情都可能發生。

  D. 霍金認為,機器人和其他的人工智能設備會給人類帶來巨大的好處。

  2. 下列對人工智能可能引發的人類終結的理解不正確的一項是

  A. 人工智能短期影響取決于由誰來控制它,唯利是圖的人掌握它,會損人利己;心懷叵測的人掌握了人工智能技術,有可能會毀滅人類甚至地球。

  B. 人工智能長期影響取決于人類能否控制它,即人工智能技術發展到了極致,以至于人類的智慧和能力或許無法控制它。

  C. 人工智能專家們只看到它有利于人類的一面,而往往忽視了它可能無法預知的不利于人類的一面。

  D. 由于人工智能技術的繼續發展,在未來可能出現的情況到底是好是壞完全是無法預料的。

  3. 根據文章內容,下而推斷不正確的一項是

  A. 面對無法預料的未來,霍金認為人工智能會引導人類走向滅亡。

  B. 如果人工智能設備的設計非常成功,就能給人類帶來巨大的好處。

  C. 對人工智能的潛在風險,人類還沒有足夠關注,研究工作太少。

  D. 人類過于自戀和自信,以至于只專注好的趨勢,而忽視危機的來臨。

  參考答案

  1. (3分)C(A. 短期也存在風險,“只在”表述不準:B. 只是“似乎”,并未確切;D. “也許”、“如果”等詞,說明霍金的表述是不確定的。)

  2. (3分)A(原文沒有說“毀滅地球”。)

  3. (3分)A(只是“可能”,并沒有那么確切。所以這種推斷是片面的。)

【人工智能的潛在風險閱讀答案】相關文章:

1.人工智能時代天氣如何預報閱讀答案

2.人工智能贏了人類該恐懼嗎閱讀答案

3.詞典的故事閱讀答案

4.文章無邪閱讀答案

5.文章《雪》閱讀答案

6.海市課后閱讀答案

7.斜視課后閱讀答案

8.文章《老鼠的困惑》閱讀答案