“我们这些预防只能对付普通人,对付那些专业人士很难,这方面还是需要法律法规来规范的。”闂
范晓明笑笑说:“理是这个理,对于机器人的管理的确需要规范化,对于远程控制机器人差不多是这样,对于智能机器人是什么样的太多,从我个人的角度看,对于人工智能和智能机器人,我们必须要谨慎,这可不是闹着玩的。”
虽说现在人工智能和智能机器人没有科幻小说中描叙的那么可怕,但随着科学技术的发展,是有可能实现的。
就像他们很早之前通论过的,对于人工智能和智能机器人的防备要提前做。
等到人工智能和智能机器人都成熟了,那时候就迟了。
简单点说,从发展人工智能和智能机器人的一开始就要想到各种可能,想到其对应的克制方法。
包奇正点点头说:“对人工智能和智能机器人的发展,我们一直都很谨慎,如远程控制类机器人和人工智能、智能机器人,不管是硬件还是软件,我们都做了隔离,可以说,是两套完全不同的系统,为的就是以防万一。”
对于人工智能和智能机器人。闂
在发展的过程中是很小心的。
那些科幻电影也不是瞎拍的,有着一定的依据。
就好比现在,制造工厂、资源和能源采集,这些慢慢的都会实现自动化和智能化。
再加上正在使用且数量庞大的人形仿生机器人和其他一些工程机器人。
要是在发展人工智能和智能机器人的过程中,其产生了自主意识,且反叛了人类。
那些人形仿生机器人和相关的工程机器人,以及那些自动化、智能化制造工厂被劫持,那人类就会面临灭顶之灾。
“这么做是对的。”苏哲认真的说,“我们采取这些防御措施的时候,也不要忘了对科研人员的监督,在发展人工智能和智能机器人的每一个环节,我们要重视起来。”闂
有时候,想出来的对策是非常好的,可在执行的过程中就变了样子。
发展科学技术没有错,但如何应用科学技术就有讲究了。
说到底,科学技术是一把双刃剑。
用的好,那是发展生产力,利国利民。
用的不好,那是可以将整个人类送走的。
所以说,对科学技术的发展和应用都要有相对程度的监督。
虽说他想的是科研自由,但这自由不是绝对的自由。闂
需要一些必要的监督。
这是必不可少的。
“是的,这就要相关的法律法规。”包奇正点头说,“相关部门正在研究这个问题,随着时间的推移,全国范围内参与科研工作的人员会越来越多,人一多,说不定就会出现一些不好的事,比如说在基因方面的问题等等,也就需要更加完善的法律法规那约束。”
“是这个理。”范晓明点头,“人单单依靠道德来约束是不行的,还要法律法规的约束。”
三人有聊了一会儿,见时间不早了,也就结束了交流。
这章没有结束,请点击下一页继续阅读! <!--20230412212821-->