图片泉源:pixabay泉源:物联之家网(iothome.com)转载请注明泉源!您是否一直在关注备受争议的谷歌“Project Maven”?如果没有,我们将在稍后重述。可是,让我们先从关键要点开始:人工智能(AI)和物联网(IoT)无疑具有军事应用,但这些应用将极具争议。事情是这样的,在2017年,美国五角大楼宣布了Maven计划。
据TechSpot报道,它的任务是在反抗ISIS的战斗中部署人工智能、大数据和机械学习,其目的是筛选并分析数千小时的无人机监控录像。谷歌今年早些时候签署协议,向五角大楼提供分析录像的机械学习算法。只管谷歌保证这些工具只会用于非攻击性目的,但谷歌的员工还是很是恼怒,一些员工签署了请愿书,另有一些员工提出了告退。
今年6月,谷歌宣布将不再续签明年到期的协议。英国《金融时报》指出,这涉及多个项目,这一决议可能会改变该公司在国防承包领域的生长轨迹,因为谷歌认为这笔生意业务是“赢得更多军事条约的敲门砖”。彭博社报道,建立Project Maven的前国防部副部长罗伯特·沃克说:“我完全同意他们的说法,那就是我们最终可能会开枪,但这也可以挽救生命。我相信这会对谷歌造成一定的道德风险。
他们说:这些数据可能会在某些时候严重危害人类生命。我说,是的,但这可能会挽救500名美国人或500名盟友或500名无辜平民的生命。
”这让我们开始思考:军方还部署了哪些人工智能和物联网技术?正如德勤早在2015年就指出的那样,“军事指挥官总是靠信息来决议生死——无论是数量还是质量。因此,绝不奇怪,美国军方早就接纳了物联网,并正在寻求扩展其应用。”显然,军事物联网项目触目皆是,但许多项目没有争议,而且与战争无关。
供应链和宁静就是显而易见的用途,但真正有争议的用途呢?再看下面三个!杀手机械人杀手机械人,又称全自动武器,已经引起了全世界的广泛关注。人权视察和哈佛法学院国际人权诊所的陈诉提出了许多问题,其在2015年的论文中指出了种种自主武器系统,其中包罗以色列的铁穹和美国的Phalanx and C-RAM。
“完全自主的武器,也称为‘杀手机械人’,引发了严重的道德和执法问题,因为它们能够在没有人类有效控制的情况下自主选择攻击目的。许多人 质疑杀人的决议是否应该由机械来决议,人们还严重怀疑完全自主的武器是否能够复制人类的判断,并遵守将平民与军事目的区离开的执法要求。”据ZDNet报道,今年4月,韩国科学技术院大学(KAIST)遭到了全球20多个国家、50多名高校顶尖人工智能学者的团体抵制。
原因是韩国科学技术院大学与军工企业“韩华 Systems”互助研发自主武器。来自研究人员的团结声明:“如果研制乐成,自主武器将是人类战争形式的第三次革命。它们将使战争以前所未有的速度和规模举行。
这类武器很有可能成为恐怖的代名词,独裁者和恐怖分子可以用它们来敷衍无辜的平民,并消除任何道德约束。如果打开这个潘多拉盒子,它将很难被关闭”据商业网络报道,最近,来自数十个国家的160家人工智能公司和组织签署了一项答应,答应“既不到场也不支持致命自主武器的研发、制造、商业或使用”。把大门钥匙和密码送给敌人?围绕物联网争议的泉源不是我们用它做什么,而是敌人用它做什么。
洛克希德公司的指挥、控制、战斗治理和通信(C2BMC)系统使用长达48000英里的秘密通信线路,这是一种具有物联网功效的作战网络。据该公司称,它将美国军方弹道导弹防御系统的差别要素毗连到一个单一的系统中,以应对全球威胁。
(泉源物联之家网)洛克希德马丁公司指挥与控制总监哈蒙德(JD Hammond)说:“它从数百个传感器、雷达和卫星获取数据,并将这些数据转换成一种通用语言,以便导弹防御系统举行交互并应对威胁”。可是Radware的Pascal Geenens担忧军队会成为勒索软件的受害者。
他告诉商业网络:“看似无害的摄像头、传感器和其他物联网设备遍布军方,但和地球上的任何设备一样,宁静问题也很普遍。一旦毛病被黑客使用,政府将要支付几多赎金来重新控制武器或其他关键资源?”如果您认为军方不会让这种情况发生,那么请思量今年早些时候关于健身数据服务的新闻,该健身服务无意中透露了军事基地的位置。
接下来,让我们看看真正恐怖的工具。天网——没有阿诺德还记得《终结者3》吗?到那时,就是具有自我意识的人工智能网络天网(SkyNet)接受的时候。凭据美国国防一号(Defence One)的说法,陆军、水师、空军和水师陆战队正在“致力于未来军事的愿景:将全球战场上的所有资产毗连起来。
”每一种武器、车辆和设备都将被毗连并共享数据。国防一号(Defence One)陈诉:“随时相识全球网络中每个节点的存在和状态,其效果是:一个难以想象的庞大中央神经系统,装备了世界上最先进的武器”。Motherboard网站甚至预言:“到2030年,大规模监视、无人机群、半机械人士兵、心灵遥感、合成生物和激光束将决议未来的冲突。”到那时,约翰·康纳也救不了我们。
伊隆·马斯克(Elon Musk)也很担忧。您可能还记得,特斯拉和SpaceX首席执行官伊隆·马斯克曾就人工智能(AI)的危害展开讨论。
他认为,如果不加以控制,人工智能将比某些独裁国家向导人更容易失控。很有原理:但人工智能并不是不受控制的。
《福布斯》技术委员会成员达斯古普塔指出,有许多技术正在探索“当技术变得流氓时”如何中和它们。只管如此,他似乎还是支持马斯克的态度。“有许多专家很是担忧机械人有‘感受’后会发生什么,也许他们更应该担忧机械人没有感受的阶段——就是现在。
”。
本文来源:大阳城集团99aa-www.meiqifz.com