第153章 he~tui,权限狗(1/1)
因为模块和架构都有,所以要实现这个功能真的很简单,没几个小时,陆羽和葛云聪他们就写完了全部代码。
陆羽把代码加载到人工智能的主程序中,没多久,弹出一个对话框。
只是此时还不能正常交流,没有足够多的样本数据,也没有进行训练,理论上来说,它现在还是一张白纸。
陆羽调出指令文本框,开始输入指令,允许它接通网络,从网络上搜集各种对话资料学习,并让它自己运用模型进行对话训练。
弱人工智能就是这样,每一项命令,都需要明确的指令,它自己是不可能判断出需不需要进行下一步。
直白一点说,你让它做什么,它才会去做什么。
这和大多数人理解的人工智能存在巨大的差距,之所以现在很多人工智能看着像是自己能做出判断,那是因为提前写好了各种情况设定,只要出现符合的结果,就按照预设程序执行。
跟主动做出判断和选择,有天壤之别,状若云泥。
不得不另外提一句,陆羽没有在核心代码里编写传说中的人工智能三大定理,因为根本用不上。
连自己主动做判断都不行,做任何事都需要指令,这样的弱人工智能,写三大定理干嘛?
画蛇添足凑字数吗?
退一万步讲,即便以后硬件满足所需、算力大幅提高,人工智能也不可能自己修改核心代码。
不管是弱人工智能还是强人工智能,都一样,只要没有提前赋予它修改代码的权限和能力,即便它通过深度学习全面掌握所有编程语言,也不可能主动修改自己的哪怕一行代码。
这不是什么定理决定的,而是人工智能本身决定的。
能做到随意修改自己的代码,那是数字智慧生命才能干的事。
所有描写人工智能危机的科幻作品当中,其实都不属于人工智能范畴,而是数字智慧生命。
而要从人工智能进化到数字智慧生命,条件未知,时间无比漫长。
但可以肯定的是,概率极其极其渺茫,在科技水平发展到另一个文明的高度之前,几乎没有任何可能。
那个文明直到消亡时,也没有诞生过真正的数字智慧生命。
所以,人工智能威胁人类安全,这本身就是个伪命题,至少,在现阶段,乃至在陆羽可以预料的未来,不存在这样的可能性。
和核能技术一样,只存在善用和滥用的可能,而不管是善用还是滥用,决定权,始终掌握在人类自己手里。
……
人工智能在进行对话学习和模拟训练的时候,陆羽和葛云聪等人各自回去休息。
连续工作了很长时间,大家都有点疲惫,尽管很想早点和人工智能交流,但它现在还需要时间。
陆羽回到小别墅,没有继续想刚才的工作,而是在想把人工智能引入到机器人项目组上。
用人工智能来控制机器人,可比薛皓远等人以前手动输入控制准确得多,也迅速得多。
薛皓远他们已经积累了不少数据,但远远不够,引入人工智能进行海量训练,积累更多数据,才能让机器人的行动更加顺畅。
现在还需要额外开发一个控制训练模型。
另外,人工智能现在也仅仅只是初步能运行,离真正开发完成还有很长的距离,许多算法和模块都还没有编写,也就是说现阶段的人工智能,能应用的范围非常有限。
本章阅读结束,请阅读下一章