This year marks exactly two centuries since the publication of Frankenstein; or, The Modern Prometheus, by Mary Shelley. Even before the invention of the electric light bulb, the author produced a remarkable work of speculative fiction that would foreshadow many ethical questions to be raised by technologies yet to come.
Today the rapid growth of artificial intelligence (AI) raises fundamental questions: “What is intelligence, identity, or consciousness? What makes humans humans?”
What is being called artificial general intelligence, machines that would imitate the way humans think, continues to evade scientists. Yet humans remain fascinated by the idea of robots that would look, move, and respond like humans, similar to those recently depicted on popular sci-fi TV series such as “Westworld” and “Humans”.
Just how people think is still far too complex to be understood, let alone reproduced, says David Eagleman, a Stanford University neuroscientist. “We are just in a situation where there are no good theories explaining what consciousness actually is and how you could ever build a machine to get there.”
But that doesn’t mean crucial ethical issues involving AI aren’t at hand. The coming use of autonomous vehicles, for example, poses thorny ethical questions. Human drivers sometimes must make split-second decisions. Their reactions may be a complex combination of instant reflexes, input from past driving experiences, and what their eyes and ears tell them in that moment. AI “vision” today is not nearly as sophisticated as that of humans. And to anticipate every imaginable driving situation is a difficult programming problem.
Whenever decisions are based on masses of data, “you quickly get into a lot of ethical questions,” notes Tan Kiat How, chief executive of a Singapore-based agency that is helping the government develop a voluntary code for the ethical use of AI. Along with Singapore, other governments and mega-corporations are beginning to establish their own guidelines. Britain is setting up a data ethics center. India released its AI ethics strategy this spring.
On June 7 Google pledged not to “design or deploy AI” that would cause “overall harm,” or to develop AI-directed weapons or use AI for surveillance that would violate international norms. It also pledged not to deploy AI whose use would violate international laws or human rights.
While the statement is vague, it represents one starting point. So does the idea that decisions made by AI systems should be explainable, transparent, and fair.
To put it another way: How can we make sure that the thinking of intelligent machines reflects humanity’s highest values? Only then will they be useful servants and not Frankenstein’s out-of-control monster.
1. Mary Shelley’s novel Frankenstein is mentioned because it ________.
2. In David Eagleman’s opinion, our current knowledge of consciousness ________.
3. The solution to the ethical issues brought by autonomous vehicles ________.
4. The author’s attitude toward Google’s pledges is one of ________.
5. Which of the following would be the best title for the text?
问题1选项
A.fascinates AI scientists all over the world
B.has remained popular for as long as 200 years
C.involves some concerns raised by AI today
D.has sparked serious ethical controversies
问题2选项
A.helps explain artificial intelligence
B.can be misleading to robot making
C.inspires popular sci-fi TV series
D.is too limited for us to reproduce it
问题3选项
A.can hardly ever be found
B.is still beyond our capacity
C.causes little public concern
D.has aroused much curiosity
问题4选项
A.affirmation
B.skepticism
C.contempt
D.respect
问题5选项
A.AI’s Future: In the Hands of Tech Giants
B.
Frankenstein, the Novel Predicting the Age of AI
C.The Conscience of AI: Complex But Inevitable
D.AI Shall Be Killers Once Out of Control
第1题:C
第2题:D
第3题:B
第4题:A
第5题:C
第1题:
【整体分析】
来源:The Christian Science Monitor《基督教科学箴言报》于2018年7月2日刊登的文章AI can have values if not a conscience(人工智能即使没有良知,也可以有价值观)。
主题:本文讨论了人工智能快速发展所带来的伦理问题。虽然科学家还无法制造出所谓的通用人工智能,但人类仍然痴迷于机器人这一概念。随着即将问世的自动驾驶汽车等技术的出现,人工智能的决策将带来棘手的伦理问题。因此,许多国家的政府和大型企业正在制定指导方针,以确保人工智能的使用符合伦理道德的自律守则,并且人工智能系统做出的决策应该是可解释的、透明的和公平的。
结构:
【试题解析】
【选项释义】
Mary Shelley’s novel Frankenstein is mentioned because it ________. 玛丽•雪莱的小说《弗兰肯斯坦》之所以被提及,是因为它________。
A. fascinates AI scientists all over the world A. 让全世界的人工智能科学家着迷
B. has remained popular for as long as 200 years B. 在长达200年的时间里一直很受欢迎
C. involves some concerns raised by AI today C. 涉及今天人工智能引起的一些问题
D. has sparked serious ethical controversies D. 引发了严重的伦理争议
【考查点】事实细节题。
【解题思路】根据题干关键词Frankenstein可以定位到文章第一段第二句“甚至在电灯泡发明之前,作者就创作了一部杰出的推理小说,这部小说预示了未来技术将引发的许多伦理问题(foreshadow many ethical questions to be raised by technologies yet to come)”,说明提到这部小说的原因是它预示了未来的科技发展引发的伦理问题,为下文探讨人工智能的主题做铺垫。因此C选项“涉及今天人工智能引起的一些问题”正确。
【干扰项排除】
A选项“让全世界的人工智能科学家着迷”在文中没有提及,属于无中生有;
B选项“在长达200年的时间里一直很受欢迎”,文中只是说它出版了200年,这是一个事实,而不是它被提及的原因,属于曲解原文;
D选项“引发了严重的伦理争议”,由foreshadow many ethical questions to be raised by technologies yet to come(预示了未来技术将引发的许多伦理问题)可知,这部小说预示了未来的问题,而不是当时已经引发了问题,属于反向干扰。
第2题:
【选项释义】
In David Eagleman’s opinion, our current knowledge of consciousness ________. 在大卫•伊格曼看来,我们目前对意识的认识________。
A. helps explain artificial intelligence A. 有助于解释人工智能
B. can be misleading to robot making B. 对机器人的制造有误导作用
C. inspires popular sci-fi TV series C. 激发了流行科幻电视连续剧的灵感
D. is too limited for us to reproduce it D. 对我们来说太有限了,无法复制它
【考查点】事实细节题。
【解题思路】根据题干关键词David Eagleman可以定位到文章第四段第一句“斯坦福大学的神经科学家大卫•伊格曼说,人类的思考方式仍然复杂到无法理解(far too complex to be understood),更不用说复制了(let alone reproduced)”,说明人类的意识是非常复杂的,人们对其理解有限,无法复制。因此D选项“对我们来说太有限了,无法复制它”正确。
【干扰项排除】
A选项“有助于解释人工智能”,B选项“对机器人的制造有误导作用”和C选项“激发了流行科幻电视连续剧的灵感”是在文章第三段中提及,不是大卫•伊格曼的观点,属于出处错位。
第3题:
【选项释义】
The solution to the ethical issues brought by autonomous vehicles ________. 自动驾驶汽车带来的伦理问题的解决方案________。
A. can hardly ever be found A. 几乎不可能找到
B. is still beyond our capacity B. 仍然超出我们的能力范围
C. causes little public concern C. 没有引起公众的关注
D. has aroused much curiosity D. 引起了很多人的好奇心
【考查点】推理判断题。
【解题思路】根据题干关键词autonomous vehicles可以定位到文章第五段第二句“例如,即将问世的自动驾驶汽车会带来棘手的伦理问题(poses thorny ethical questions)”,说明伦理问题非常棘手,所以人类很难解决这些问题。因此B选项“仍然超出我们的能力范围”正确。
【干扰项排除】
A选项“几乎不可能找到”,由poses thorny ethical questions(带来棘手的伦理问题)可知,这些问题虽然非常棘手,但没有说完全不可能解决,属于过度推断;
C选项“没有引起公众的关注”和D选项“引起了很多人的好奇心”在文中没有提及,属于无中生有。
第4题:
【选项释义】
The author’s attitude toward Google’s pledges is one of ________. 作者对谷歌声明的态度是________。
A. affirmation A. 肯定
B. skepticism B. 怀疑
C. contempt C. 蔑视
D. respect D. 尊重
【考查点】观点态度题。
【解题思路】根据题干关键词Google’s pledges可以定位到文章第八段第一句“虽然这份声明很模糊,但它代表了一个起点(represents one starting point)”,说明作者认为谷歌的声明代表了一个起点,对其抱有肯定态度。因此A选项“肯定”正确。
【干扰项排除】
B选项“怀疑”和C选项“蔑视”表达的是负面的情感,而文章说的是肯定的态度,属于反向干扰;
D选项“尊重”,由the statement is vague(这份声明很模糊)可知,作者对谷歌声明的态度还没有到尊重的程度,属于过度推断。
第5题:
【选项释义】
Which of the following would be the best title for the text? 以下哪项是本文的最佳标题?
A. AI’s Future: In the Hands of Tech Giants
A. 人工智能的未来:在科技巨头的手中
B. Frankenstein, the Novel Predicting the Age of AI B. 《弗兰肯斯坦》,预言人工智能时代的小说
C. The Conscience of AI: Complex But Inevitable C. 人工智能的良知:复杂但不可避免
D. AI Shall Be Killers Once Out of Control D. 人工智能一旦失去控制就会成为杀手
【考查点】主旨大意题。
【解题思路】本文首先通过《弗兰肯斯坦》一书引出人工智能的主题,指出人工智能的决策将带来棘手的伦理问题,接着介绍了许多国家的政府和大型企业正在制定指导方针,以确保人工智能的使用符合伦理道德的自律守则,由此可知文章主要探讨了人工智能带来的复杂但难以避免的伦理问题。因此C选项“人工智能的良知:复杂但不可避免”正确。
【干扰项排除】
A选项“人工智能的未来:在科技巨头的手中”和B选项“《弗兰肯斯坦》,预言人工智能时代的小说”只在文中的某部分提及,不能概括全文的主旨大意,属于以偏概全;
D选项“人工智能一旦失去控制就会成为杀手”在文中没有提及,属于无中生有。
【重点词汇】
speculative /ˈspekjələtɪv/ adj. 推测的;猜测的;推断的
foreshadow /fɔːˈʃædəʊ/ v. 预示;是……的预兆
ethical /ˈeθɪkl/ adj. 道德的;伦理的
consciousness /ˈkɒnʃəsnəs/ n. 觉察;感觉;意识
evade /ɪˈveɪd/ v. 逃脱;躲开;躲避
autonomous /ɔːˈtɒnəməs/ adj. 自主的;有自主权的
thorny /ˈθɔːni/ adj. 棘手的;麻烦的;引起争议的
pledge /pledʒ/ v. 正式承诺
surveillance /sɜːˈveɪləns/ n. 监视
at hand 在手边;即将到来
let alone 更不必说
split-second 一瞬间做出的;做得非常精确的
【长难句分析】
1. Even before the invention of the electric light bulb, the author produced a remarkable work of speculative fiction that would foreshadow many ethical questions to be raised by technologies yet to come.
【结构分析】
【补充分析】
① Even before the invention of the electric light bulb是时间状语,强调在电灯泡发明之前就创作出了这部小说;
② that引导定语从句修饰a remarkable work of speculative fiction,说明这是一部预示了许多伦理问题的小说;
③ to be raised by technologies yet to come是ethical questions的后置定语,表示未来技术将引发的伦理问题。
【参考译文】甚至在电灯泡发明之前,作者就创作了一部杰出的推理小说,这部小说预示了未来技术将引发的许多伦理问题。
2. Their reactions may be a complex combination of instant reflexes, input from past driving experiences, and what their eyes and ears tell them in that moment.
【结构分析】
【补充分析】
① of引导后置定语修饰combination,表示组合包括哪些内容;
② what引导宾语从句,表示他们的眼睛和耳朵所见所闻的东西。
【参考译文】他们的反应可能是一个复杂组合,包括即时反射、过去驾驶经验的输入以及当时眼睛和耳朵的所见所闻。
【全文翻译】
今年是玛丽•雪莱的作品《弗兰肯斯坦》(又名《现代普罗米修斯》)出版整整200周年的日子。甚至在电灯泡发明之前,作者就创作了一部杰出的推理小说,这部小说预示了未来技术将引发的许多伦理问题。
如今,人工智能(AI)的快速发展提出了一些根本性问题:“什么是智能、身份或意识?是什么使人类成为人类?”
科学家还无法制造出所谓的通用人工智能,即模仿人类思维方式的机器光。然而,人类仍然痴迷于机器人这一概念,机器人可以像人类一样观察、走动和做出反应,就像最近热门的科幻电视剧《西部世界》和《真实的人类》中描绘的那样。
斯坦福大学的神经科学家大卫•伊格曼说,人类的思考方式仍然复杂到无法理解,更不用说复制了。“我们目前的情况是,没有合适的理论来解释意识到底是什么,也没有合适的理论来解释如何制造出一台机器来实现意识。”
但这并不意味着涉及人工智能的关键伦理问题不会马上出现。例如,即将问世的自动驾驶汽车会带来棘手的伦理问题。人类司机有时必须在瞬间做出决定。他们的反应可能是一个复杂组合,包括即时反射、过去驾驶经验的输入以及当时眼睛和耳朵的所见所闻。如今,人工智能的“想象力”远不如人类的复杂。而预测每一种可能的驾驶情况是一个很难的编程问题。
新加坡一家机构的首席执行官谭家豪指出,当决策基于大量数据时,“你很快就会陷入许多伦理问题”。该机构正在帮助政府制定一套使人工智能的使用符合伦理道德的自律守则。与新加坡一样,其他国家的政府和大型企业也开始制定自己的指导方针。英国正在建立一个数据伦理中心。印度今年春天发布了人工智能伦理战略。
6月7日,谷歌正式承诺不会“设计或部署”可能造成“全面伤害”的人工智能,也不会开发由人工智能指挥的武器,或使用违反国际准则的人工智能进行监视活动。它还承诺不会部署违反国际法或人权的人工智能。
虽然这份声明很模糊,但它代表了一个起点。同样代表着一个起点的还有这一观点——人工智能系统做出的决策应该是可解释的、透明的和公平的。
换句话说:我们如何确保智能机器的思维反映了人类的最高价值观?只有到那时,它们才会成为有用的仆人,而不是弗兰肯斯坦手下的失控怪物。