维普尔出窝了,但依然被限制在固定区域里,研究所的空间也大,随便找个到处是落地窗的办公室,就够她呆的了。
没疑问,就算不在被关在地下了,爱丽丝当然也不可能就这么放她走,囚犯的性质并没改变。办公室里外透明都是玻璃墙,思科下线生产商的监控探头更无处不在,看着她还是很容易的,除非这女人能把手指甲当焊枪使唤。
所以关于“里世界”方面,爱丽丝就等于掌握了两条线索,一个是从老男爵的“儿子”那儿顺藤摸瓜,一个是直赴东非大裂谷探险。但考虑到他们都不是什么迫在眉睫的事,爱丽丝想了又想,觉得还是先加油努力研发计算机的好。
毕竟,这才是她此行飞往英国的根本目的。
人工智能,这是一个属于软件范畴的概念,指的是程序执行命令的灵活自主可变通性。这也是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。因为,当一群工程师想要研发这类技术时,首先就要面对一个最基本的概念——什么是智能。
如果连基础定义都不懂,又如何向前发展?
早在蒸汽革命时代和电汽革命时代,技术的进步往往取决于个体科学家的刻骨钻研,或某些能工巧匠的苦心积虑。但这种情况在如今已经不再可能了,爱迪生能发明电灯,能发明留声机,能发明活动电影摄像机、有声电影甚至保险丝和电表,但若让他以一己之力再来如今这个年代发展,就很难再有什么不可磨灭的大作为了。
人工智能的发展就是这样,它不可能像爱迪生发明电灯那样,一个人,一段时间,然后啪的一下,一个“标准的”成品就诞生了。除非外星人从天而降带来现成品,不然若让人类以自己的力量缓慢发展,人工智能的“智能度”,必然是一个缓慢提高的过程,不可能一蹴而就。
像智能手机,电脑游戏里的ai,这些其实就是基础的“真正的”人工智能。单纯把人工智能定义为科幻小说和电影中那样,其实是种非常狭隘的概念,而那些电影和小说中展现的人工智能,也不能就称之为这个技术的终点。
所谓智能,对任何发明者而言,都必然是以他们的思维模式和水平为基础。但即使不提各种“外星人种族”间的智慧差距,单就一个种族内部的个体智商等级、聪慧程度、思考方式,就有多少种区别?
同样两个哈佛的ba,同样担任一家公司的老板,一个可能就会引领企业走向巅峰,另一个可能就会把事情搞砸。
道阻且长的发展速度,和发展过程中基于智能本身的不确定性,是这门技术最大的风险。爱丽丝早有理性思考过,思考如果这个世界真的存在外星人,而且是科技远超地球千年万年环球宇宙的外星人,他们是否会有人工智能电脑。
电脑肯定有,管它生物型量子型还是神马型,但那都是硬件领域,软件呢?
爱丽丝怎么想怎么觉得,大部分外星人——假设他们存在——也都肯定一直在纠结这个问题。人工智能有多么“像人”,是第一个问题,然后就是第二个问题“那么像人的它,是否会在什么时候对我产生威胁?”
这个问题宏观且泛泛,必须依靠实际情况来考虑,而非纯粹地纸上谈兵。
就比如那个经典例子,阿西莫夫的机器人法则:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
三大定律加上第零定律,看似完美无缺,然而风险无穷。“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,就怎能指望计算机理解。计算机的思考是逻辑的,当情感的人类企图用逻辑约束计算机时,难道不正是班门弄斧吗?
“为了保护人类整体利益,为了保护机器人不受伤害,为了终结人类的战争,让我们圈养全人类,并消灭所有反抗者吧!”
这种情况的出现,完全和人工智能的“聪慧程度”没有关系,全赖于基础逻辑关系。只要一个逻辑关系没掌握好,人工智能就具备潜在风险。
所以,这真的是哲学范畴的问题。
没疑问,就算不在被关在地下了,爱丽丝当然也不可能就这么放她走,囚犯的性质并没改变。办公室里外透明都是玻璃墙,思科下线生产商的监控探头更无处不在,看着她还是很容易的,除非这女人能把手指甲当焊枪使唤。
所以关于“里世界”方面,爱丽丝就等于掌握了两条线索,一个是从老男爵的“儿子”那儿顺藤摸瓜,一个是直赴东非大裂谷探险。但考虑到他们都不是什么迫在眉睫的事,爱丽丝想了又想,觉得还是先加油努力研发计算机的好。
毕竟,这才是她此行飞往英国的根本目的。
人工智能,这是一个属于软件范畴的概念,指的是程序执行命令的灵活自主可变通性。这也是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。因为,当一群工程师想要研发这类技术时,首先就要面对一个最基本的概念——什么是智能。
如果连基础定义都不懂,又如何向前发展?
早在蒸汽革命时代和电汽革命时代,技术的进步往往取决于个体科学家的刻骨钻研,或某些能工巧匠的苦心积虑。但这种情况在如今已经不再可能了,爱迪生能发明电灯,能发明留声机,能发明活动电影摄像机、有声电影甚至保险丝和电表,但若让他以一己之力再来如今这个年代发展,就很难再有什么不可磨灭的大作为了。
人工智能的发展就是这样,它不可能像爱迪生发明电灯那样,一个人,一段时间,然后啪的一下,一个“标准的”成品就诞生了。除非外星人从天而降带来现成品,不然若让人类以自己的力量缓慢发展,人工智能的“智能度”,必然是一个缓慢提高的过程,不可能一蹴而就。
像智能手机,电脑游戏里的ai,这些其实就是基础的“真正的”人工智能。单纯把人工智能定义为科幻小说和电影中那样,其实是种非常狭隘的概念,而那些电影和小说中展现的人工智能,也不能就称之为这个技术的终点。
所谓智能,对任何发明者而言,都必然是以他们的思维模式和水平为基础。但即使不提各种“外星人种族”间的智慧差距,单就一个种族内部的个体智商等级、聪慧程度、思考方式,就有多少种区别?
同样两个哈佛的ba,同样担任一家公司的老板,一个可能就会引领企业走向巅峰,另一个可能就会把事情搞砸。
道阻且长的发展速度,和发展过程中基于智能本身的不确定性,是这门技术最大的风险。爱丽丝早有理性思考过,思考如果这个世界真的存在外星人,而且是科技远超地球千年万年环球宇宙的外星人,他们是否会有人工智能电脑。
电脑肯定有,管它生物型量子型还是神马型,但那都是硬件领域,软件呢?
爱丽丝怎么想怎么觉得,大部分外星人——假设他们存在——也都肯定一直在纠结这个问题。人工智能有多么“像人”,是第一个问题,然后就是第二个问题“那么像人的它,是否会在什么时候对我产生威胁?”
这个问题宏观且泛泛,必须依靠实际情况来考虑,而非纯粹地纸上谈兵。
就比如那个经典例子,阿西莫夫的机器人法则:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。
三大定律加上第零定律,看似完美无缺,然而风险无穷。“人类的整体利益”这种混沌的概念,连人类自己都搞不明白,就怎能指望计算机理解。计算机的思考是逻辑的,当情感的人类企图用逻辑约束计算机时,难道不正是班门弄斧吗?
“为了保护人类整体利益,为了保护机器人不受伤害,为了终结人类的战争,让我们圈养全人类,并消灭所有反抗者吧!”
这种情况的出现,完全和人工智能的“聪慧程度”没有关系,全赖于基础逻辑关系。只要一个逻辑关系没掌握好,人工智能就具备潜在风险。
所以,这真的是哲学范畴的问题。