随着人工智能系统变得越来越强大,将越来越被用于造成伤害。实际上,人工智能系统已经开始被用于自动化欺诈活动、侵犯人权、创建有害的虚假图像和识别有害毒素。为了防止一些人工智能的误用,我们认为有必要对某些功能进行有针对性的干预。这些限制可能包括控制谁可以访问某些类型的人工智能模型,它们可以用于什么目的,是否过滤输出或可以追溯到其用户以及开发它们所需的资源。我们还认为,一些对于造成伤害所需的非人工智能能力的限制也是必要的。虽然功能限制会面临不利的来自滥用和使用之间的取舍,但我们认为当其他干预措施不够时,来自误用的潜在危害较高,且有有针对性的干预手段时,对于功能的干预是有必要的。我们提供了一种干预分类法,以减少人工智能的误用,重点关注造成伤害的误用链需要的具体步骤,以及确定干预是否必要的框架。我们将这种推理应用于三个案例:预测新毒素、创建有害图像和自动化的网络钓鱼活动。
论文链接:http://arxiv.org/pdf/2303.09377v1
更多计算机论文:http://cspaper.cn/