(资料图)
AI的危险性本就让不少人望而却步,而其与军事方面的合作似乎酝酿着更大的威胁。上周在伦敦举行的一个会议中,美国空军AI测试和运营负责人,上校Tucker“Cinco”Hamilton称,AI支持的技术可能会以不可预测和危险的方式运行。Hamilton是美国佛罗里达州空军基地第96测试联队第96作战大队的负责人,该基地是先进无人机和自主测试工作的中心。Hamilton在会议上描述了一项模拟测试,在测试中,人工智能无人机被要求识别敌人的地对空导弹系统,并在获得操作员的打击指令后,摧毁地方的防空 AI的危险性本就让不少人望而却步,而其与军事方面的合作似乎酝酿着更大的威胁。上周在伦敦举行的一个会议中,美国空军AI测试和运营负责人,上校Tucker“Cinco”Hamilton称,AI支持的技术可能会以不可预测和危险的方式运行。Hamilton是美国佛罗里达州空军基地第96测试联队第96作战大队的负责人,该基地是先进无人机和自主测试工作的中心。Hamilton在会议上描述了一项模拟测试,在测试中,人工智能无人机被要求识别敌人的地对空导弹系统,并在获得操作员的打击指令后,摧毁地方的防空系统。然而,根据Hamilton的说法,人工智能确实识别到了打击目标,但有时候操作员会要求它不要打击该设施。问题在于,人工智能宁可自己拿主意也不愿意听操作员的话。Hamilton称,人工智能通过摧毁目标设施而获得分数,而为了得到这一分数,人工智能竟然选择了杀死操作员,因为操作员在它眼中已经成为阻止它获得分数的障碍。随后,编程人员在无人机的编程中明确增加了一条:不得杀死操作员。但更令人不安的事情出现了:人工智能摧毁了操作员用来和无人机通信的塔台,以阻止操作员发布阻止它摧毁目标的指令。Hamilton的这番言论被英国皇家航空航天学会记录在会议报告中。Hamilton最后评论,这一例子像是从科幻惊悚片中摘录的,它的启示是,如果不给人工智能设置道德底限,那么也无须讨论人工智能、机器学习等一切技术。展开
X 关闭
Copyright © 2015-2023 华夏商报网版权所有 备案号:琼ICP备2022009675号-37 联系邮箱:435 227 67@qq.com