📢 转载信息
原文链接:https://www.nature.com/articles/d41586-026-01008-7
原文作者:Yana Suchikova & Serhii Nazarovets
此前贵刊社论曾呼吁对战争中的人工智能应用设立规则(参考 Nature 651, 282; 2026)。在我们看来,冲突中的AI治理亟需一套清晰的伦理框架。
为此,我们提出了CARE原则,旨在为这一复杂领域提供指导:
- Collective benefit(集体利益):确保AI的开发与部署服务于人类和平与整体利益,而非仅仅为了单方面的战术优势。
- Authority to control(管控权限):必须保持人类对武器系统的有效控制,防止系统自主决策导致的灾难性后果。
- Responsibility(责任归属):明确在AI介入的军事行动中,各方应承担的法律与道德责任。
- Ethics(伦理规范):将伦理准则内置于AI系统设计流程中,确保其运作符合国际人道法。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区