AI|美空军目标定位AI认为自己有90%的成功率,但实际可能只有25%
如果美五角大楼要依靠算法和AI,那么它必须要解决“脆性AI”的问题 。该国负责情报、监视和侦察助理副参谋长Daniel Simpson最近说明了这一问题 。据了解,在最近的一次测试中,一个实验性的目标识别程序在所有条件都完美的情况下表现良好,但一个微妙的调整却使其性能表现急剧下降 。
文章图片
【AI|美空军目标定位AI认为自己有90%的成功率,但实际可能只有25%】资料图
Simpson表示,最初,AI是从一个传感器获得数据--这个传感器以一个倾斜的角度寻找一枚地对地导弹,然后它从另一个传感器获得数据--该传感器则以接近垂直的角度寻找多枚导弹 。“真让人吃惊:该算法的表现并不好 。实际上,它可能有25%的时间是准确的,”他说道 。
这是一个有时被称为脆弱AI的例子,根据研究人员和前海军飞行员Missy Cummings于2020年公布的一份报告了解到,当任何算法不能概括或适应一套狭窄的假设之外的条件时就会发生这种情况 。Cummings指出,当用于训练算法的数据由来自一个独特的有利位置的一种类型的图像或传感器数据组成,而来自其他有利位置、距离或条件的数据不足时就会出现脆性 。
在自动驾驶汽车实验等环境中,研究人员将只是收集更多的数据用于训练 。但在军事环境中,这可能是非常困难的,因为那里可能有大量的一种类型的数据--如高空卫星或无人机图像,但其他类型的数据却很少,因为它们在战场上没有用 。
军队在试图训练某些物体识别任务的算法时面临着额外的障碍,与之相比,如公司为自动驾驶汽车训练物体识别算法 。
越来越多的研究人员开始依赖所谓的“合成训练数据”,就军事目标定位软件而言,这将是由真实数据人工生成的图片或视频以训练算法如何识别真实事物 。
不过Simpson表示,算法的低准确率并不是这项工作中最令人担忧的部分 。虽然该算法只有25%的时间是正确的,但他说道--“它有信心在90%的时间里是正确的,所以它有信心是错误的 。而这不是算法的错 。这是因为我们给它提供了错误的训练数据 。”
Simpson指出,这样的结果并不意味着空军应该停止追求AI的物体和目标检测 。但它确实有在提醒人们,AI在以数据欺骗形式进行的对抗性行动面前是多么得脆弱 。另外,它还表明,AI和人一样可能会受到过度自信的影响 。
推荐阅读
- 星链|石豪:在太空,马斯克和美国当局是如何作恶的
- 样儿|从太空看地球新年灯光秀啥样儿?快看!绝美风云卫星图来了
- AMD|AMD 350亿美元收购赛灵思交易完成时间推迟 预计明年一季度完成
- the|美监督机构:从煤电厂捕获二氧化碳的计划浪费了联邦资金
- the|美FDA将批准辉瑞为12-15岁儿童提供COVID-19加强针
- 社交|Facebook被指试图在美政客中抹黑前雇员Frances Haugen声誉
- 文章|美媒文章:古人类领域2021年六大新突破
- Apple|法官称苹果零售店搜包和解协议虽不完美,但可继续进行
- IT|全球汽车行业价值两年突增至3万亿美元 中国电动车企立大功
- the|美国人的“圣诞热情” 连奥密克戎也挡不住