引领自主移动机器人、无人车行业发展
推动产业升级、服务回报社会

沉痛缅怀——“宇宙之王”霍金先生离世
2018-03-14

人人都渴望探索未知的世界,可今天,那个离未知世界最近的人走了。

英国当地时间314日凌晨346分,据英国天空新闻等多家媒体报道,被誉为爱因斯坦后最杰出的理论物理学家、20世纪享有国际盛誉的伟人之一天文学家、“宇宙之王”威廉·史蒂芬·霍金(Stephen William Hawking)在剑桥辞世,享年76岁。

霍金先生的子女露西、罗伯特和蒂姆在英国新闻协会通讯社发表的声明中说:我们深爱的父亲今天去世了。声明称,霍金是一位伟大的科学家,一个非凡的人,他的成就将流芳百世。他的勇气、坚持以及他的杰出及幽默鼓舞了世界各地的人。声明的最后,霍金先生的子女也说:我们将永远怀念他。

斯蒂芬·威廉·霍金(Stephen William Hawking),194218日出生于英国牛津,他毕业于牛津大学和剑桥大学,并获剑桥大学博士学位。1963年,21岁的他不幸被诊断患有肌肉萎缩性侧索硬化症即运动神经细胞病。当时,医生曾诊断身患绝症的他只能活两年,可他一直坚强地活了下来,继续进行他的科研工作,结了两次婚,并育有三个孩子。

1988年,霍金先生出版了《时间简史》,解释宇宙、黑洞和大爆炸等天文物理学理论。《时间简史》被译成40余种文字,出版逾1000万册。

19792009年任卢卡斯数学教授,主要研究领域是宇宙论和黑洞,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界的霍金宇宙模型,在统一20世纪物理学的两大基础理论——爱因斯坦创立的相对论和普朗克创立的量子力学方面走出了重要一步。获得CH(英国荣誉勋爵)、CBE(大英帝国司令勋章)、FRS(英国皇家学会会员)、FRSA(英国皇家艺术协会会员)等荣誉。

相信对更多普通的人来说,熟悉霍金先生可能是从他的人工智能(AI)威胁论开始的。对于人工智能的再度崛起,霍金先生的态度并不乐观,他曾表示:AI的崛起可能是人类文明的终结,除非我们学会如何避免危险。

早在2014年,霍金就提出了“人工智能的发展会导致人类灭绝”的言论,更是在2015年举行的国际人工智能联合会议(IJCAI)上,霍金和·马斯克等千余位科学家联合签署了一份公开信,呼吁人们重视人工智能可能带来的负面影响。

关于人工智能带来的威胁,霍金先生表示分为短期和长期两种。短期威胁包括自动驾驶、智能性自主武器以及隐私问题;长期担忧主要是人工智能系统失控带来的风险,如人工智能系统可能不听人类指挥。

霍金先生表示,人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻,把我们的研究提升人工智能能力转移到最大化人工智能的社会效益上面。

霍金先生还表示,人类无法知道我们将无限地得到人工智能的帮助,还是被藐视并被边缘化,或者很可能被它毁灭。我们担心聪明的机器将能够代替人类正在从事的工作,并迅速地消灭数以百万计的工作岗位。

尽管近年来,霍金先生所秉持的人工智能威胁论不断被反驳,但是他坚定地认为,“人工智能的发展本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。当下还无法判断人工智能的崛起对人类来说到时是好事还是坏事,但我们应该竭尽所能,确保其未来发展对我们和我们的环境有利。”

不过,霍金先生也表示,虽然他对人工智能有各种担忧,但他对人工智能技术本身还是抱有乐观的态度。他认为人工智能带来的收益是巨大的,人类或许借助这一强大的工具,可以减少工业化对自然的伤害。

霍金先生对人工智能发展的担忧不是为了阻止人类探索创新技术的步伐,而是要人类重视在探索未知的道路中勿忘初心。伟人一路走好!

世间再无霍金,时间永留简史。

推荐

返回列表
罗伯沃茨机器人

© 2016 Robowatch沪ICP备16017606号-1