第三十七章 逻辑锁(1/3)
阿西莫夫提出的“机器人三定律”实际上是一种“逻辑锁”。
也就是通过限制一定的条件从而更好地掌控人工智能的行为。
人类同样也是遵循着“逻辑”的指引,才能做出符合“常理”的行为和话语。
比如,从开车这一行为来看,开车的逻辑一般是点火,松手刹,踩离合,挂档。
但是你做错了,像是没有点火,你做了其它的行为,那么车还是不会发动。
再比如说行驶过程中,所有人遵守交通规则的逻辑,那么什么事都不会发生,但是不遵守交规,在马路上以型曲线行驶,那么出车祸是很常见的事。
要么遵守逻辑准则,要么不遵守逻辑。
然而不遵守逻辑最好的结果就是发不动车,最差的结果就是车毁人亡。
这就是“逻辑锁”。
首先,我们知道计算机系统的最重要的一点就是“语言”,通过各种计算机语言,计算机的系统才能得以运行。
“语言”则是“逻辑”的产物,假如我们在利用“语言”给机器人的程序编写的时候添加了“机器人三定律”,这就代表我们给这个机器人上了一把逻辑锁。
当然,以上这些内容并非来自学界,而是林禹自己的想法,因为学界也没有对“机器人伦理学”下过定义。
在看到【强人工智能逻辑锁】的时候,他就想到了这些。
人工智能在早期的研究中,基本划分成了三个派别连接主义、符号主义以及行为主义,三个流派各有侧重。
连接主义是以研究生物神经系统的仿生学为主,目前以深度神经网络为代表。也就是林禹从系统处获得的【神经拟合电路】这一方面。
符号主义是以研究数理逻辑为主,目前以聊天机器人为代表。
而行为主义则是以研究行为控制为主,目前的代表是日本的阿西莫、米国的大狗等。
三个学派所代表的是三个研究视角,它们之间本是相互衔接的关系,并不是对立关系,只有相互融合、合而为一时才能真正看清楚人类智能的全貌,否则就是有缺陷的认知。
这三个流派都面临这一个同样的问题,人工智能的发展方向是人类,他们研究的问题,也是人类的问题。
我们给人工智能上了一把“逻辑锁”,也就是说人工智能将会面临和人类一样的“道德困境”。
也就是“电车难题”,不光人类会陷入道德抉择的困境,人类的造物也会因为人类的枷锁而陷入困境。
根据
本章未完,点击下一页继续阅读。