整天想些不切实际的医学狗 | 不想秃头的儿科学研究僧 | 咖啡重度爱好者 | 阅读观影不设限
© 龙霸黑虎侠
昨日Aboboo听力
【每次考前一天都忘了发了T.T】
机器人能否拥有自行决策击杀目标的权利【killer robots】
现在AI的应用越来越广泛
智能武器系统也搭载了智能感受器和识别系统
让它们可以根据自身的系统来决定什么是击杀目标什么时候使用致命性武力
这看起来似乎不太妥当,AI可以做出正确的判断吗?
但如果人类对只能武器拥有最终支配权和决策权
就可能会掀起新型武器攻击,因为这只需要少量的人力即可操控
武器与AI之间应该如何权衡呢?