多个机器人能够更好地协作感知场景(例如,检测物体),但使用深度学习时容易受到对抗性攻击的影响。虽然对抗性防御可以解决这个问题,但其训练需要攻击机制,而攻击机制通常是未知的。与此不同,我们提出了ROBOSAC,一种新的基于采样的防御策略,适用于未知的攻击者。我们的关键思想是,协作感知应该比个体感知更容易达成共识。这导致了我们的假设验证框架:从一个随机的团队子集中比较具有和不具有协作的感知结果,直到达成共识。在这样的框架中,被取样的团队成员越多,通常意味着更好的感知性能,但需要更长的采样时间来拒绝潜在的攻击者。因此,我们推导出需要多少次采样试验来确保所需大小的无攻击子集,或者等价地,我们可以在给定次数的尝试中成功采样的最大子集大小。我们在自动驾驶场景中的协作3D物体检测任务上验证了我们的方法。
论文链接:http://arxiv.org/pdf/2303.09495v1
更多计算机论文:http://cspaper.cn/