“他们认为,高级的动物和人类,在刚刚诞生的时候,通常是什么都不会的。
“动物小时候对身体的控制能力很弱,走路都摇摇晃晃的,成熟之后也需要跟着母亲学习捕猎,
“人类小时候不会说话,无法站立也不能移动,也是随着成长慢慢学会的。
“有的学者认为,对照智能机器的运转逻辑的话,这就是一个自主调整和安装驱动的过程。
“而我们以前制造的机器,根据绝对可靠和可控的原则,并没有给与机器任何自主权。
“他们的驱动程序,都是我们人工编制好,直接写死在存储芯片的上的。
“而另一个方向上,单体的计算机上运行的机器智能学习创造系统,已经有能力自行编写程序了。
“所以有工匠建议,对复杂智能机器添加类似功能。
“允许复杂智能机器开始机器学习,让它们自行编写驱动和应用程序。
“但这里面显然是存在风险的。
“机器自行编写的程序,对于我们人类而言,未必是绝对可控的。
“其中也许会产生不利于人类的程序和判断。
“所以我想请父皇给拿个主意……”
朱靖垣听完之后就陷入了沉思。
由于朱靖垣当初的建议,朱迪镧和工匠们对复杂智能机器的戒备极高。
所有进入控制系统的数据都要严格审查,始终都在尽可能减少输入系统的数据量。
关键是始终没有在复杂智能机器上架设机器学习功能。
工匠们现在判断这条路很可能走不通了,认为这样的智能机器应该不会孕育出自我意识场。
所以现在工匠们想尝试引入机器学习系统。
机器自主学习意味着更多的可能性,但是这些可能性之中当然也包括有风险的方向。
以至于朱迪镧这个大明皇帝都有些拿不定主意了。
朱靖垣现在同样拿不定主意,意识在两个选项上面来回摇摆。
以现在的大明的技术和规模,就算是没有真正的复杂智能机器,也能继续繁荣很长时间。
甚至有机会进入真正的大同世界。
但是同样存在能源枯竭以及无法走出星球的风险。
拥有自我意识的复杂智能机器,也许就是下一次科技爆炸的关键点。
通用量子计算机、可控核聚变能源、暗物质燃料和武器、亚光速航天器等尖端科技的难点。
可能都需要借助复杂智能机器才能真正快速解决。
创造出智能机器仆从,在极端恶劣的太空环境长期生活,可能就是人类真正涉足太空的前提。
因为相对于整个宇宙而言,人类现有的身体太过脆弱和渺小了。
人类只有在复杂机器上催生出自我意识,才有机会弄清楚人类自己的意识是怎么回事。
然后才有可能实现以机器取代肉体的生命性质晋级。
但是不完全可控的智能机器诞生后,会不会将人类视为敌人和奴隶主?
会不会成为人类文明的天敌和终结者?
文明和科技的水平越高,所有的决定都会越来越危险。
因为他们能够操作的能量级越来越高,能够影响的事务的规模和深度也越来越大了。
能够更加轻易的自己毁灭自己。
当然,也可能自己的猜测全部都是错误的,智能机器本来就是无法产生自我意识的。