来自DailyTech的消息,美国海军日前发出一份报告。报告说,要时刻注意作战机器人的软件问题,特别是那些可以自行识别敌人并自行开枪的机器人,尤其要注意其使用安全。以下为engadget的中文报道说明:

当一个未来主义学家预言一些可怕的新技术将使国家陷入被攻击的境地,人们并不会把它当回事。但是,当这些消息来自官方时,人们就开始紧张。美国加州州立理
工大学公布的一份报告(其数据来源是美国海军的海军研究办公室)称,军队里各种人工智能项目是如此庞大,以至于没有人能够完全准确地了解它的运行。

"
当数百名程序员为一个战争机器人的运行编写数百万行的代码时,"首席行政编译员林兆明在报告中说,"没有一个人能够完全清楚地知道它是怎么运行的,至少,
从自己编写的程序中看不到。"而正是这些我们不知道的可能会追捕我们并最终杀死我们。这不是空话,去年,一个软件故障袭击了美国,导致陆军机器人将攻击目
标指向无辜对象。(幸运的是,没有人开枪)。解决问题专家,林世贤博士,正在展开机器人教育,赋予它们"战场道德,武士代码。"当然,多年来,政府绝对没
有什么伦理道德方面的问题,所以让机器人杀手在程序上有一些最基本的价值观应该是相对简单的

事实如此,现在的程序员基于模块编程,每个程序员完成的是一个模块的功能,谁也不知道这个功能会用的什么地方去。比如电影《虎胆龙威四》中的黑客程序员,每一个人都去完成了一个功能模块,最后由幕后人集成了一个大的攻击系统,成功的实施了网络打击。所以,对于这种作战机器人来说,当中有非常多的人工智能模块,每一个模块从功能上来讲,都没有问题,只是当这些个模块整合起来的时候,功能的触发条件就变的很重要了。什么时候需要去触发这些功能,什么时候不需要,什么时候可以开枪,都需要有一定的条件去限制功能的触发,所以,这种控制功能的人工智能,就会变的尤为重要。

工业上来说,安全一直是非常重要的。一方面是人身安全,一方面是设备安全,还有是产品安全。而对于这种可以要人命的作战机器人来说,安全问题尤其要放在首位。