首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5205
篇文章
累计创建
1860
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
伦理
相关的文章
2026-02-02
“生存风险”——科学家们为何竞相定义意识
随着人工智能和神经技术的飞速发展,科学家们警告称,人类对意识的理解远远落后,这可能导致严重的伦理风险。新研究呼吁开发意识科学测试,以期变革医学、动物福利、法律和AI发展。然而,在机器或类脑系统中识别意识,也将迫使社会重新思考责任、权利和道德界限。意识的定义问题从未如此紧迫或令人不安。
2026-02-02
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2026-01-27
人工智能在英国被用于评估对儿童的伤害风险
英国地方政府正在探索使用人工智能(AI)工具来分析大量数据,以帮助社会工作者评估儿童面临的伤害风险。这种技术旨在通过整合多源信息,如健康记录、学校出勤率和警方报告,提供更快速、更全面的风险洞察。虽然AI被寄予厚望能提高决策效率并挽救生命,但其准确性、潜在的偏见问题以及对人工判断的依赖性,引发了关于在敏感儿童保护领域应用技术伦理和实践的深刻讨论。
2026-01-27
1
0
0
AI行业应用
AI新闻/评测
2026-01-27
“去衣化”深度伪造技术正变得愈发阴暗和危险
以色情为目的的“去衣化”深度伪造技术(Deepfake Nudify)正变得越来越成熟、易于获取且更具危害性。本文揭示了这一地下生态系统的复杂性、盈利能力以及对数百万女性造成的严重伤害,并探讨了当前的应对措施和挑战。
2026-01-27
1
0
0
AI新闻/评测
AI行业应用
2026-01-22
Anthropic发布新版《Claude准则》,聚焦AI伦理与安全
AI公司Anthropic发布了新版《Claude准则》,详细阐述了Claude的运行环境及其期望的智能体形态。此次修订版在保留原有核心原则的基础上,进一步细化了伦理规范和用户安全措施。Anthropic一直以“宪法式人工智能”技术为核心竞争力,强调基于明确伦理准则进行AI训练,而非单纯依赖人类反馈。新准则围绕安全性、普遍伦理观、内部指导规范和提供切实帮助四大核心价值展开,旨在塑造Anthropic包容克制、秉持民主化理念的企业形象,同时深入探讨了AI模型道德地位的严肃议题。
2026-01-22
0
0
0
AI新闻/评测
AI基础/开发
2026-01-22
Salesforce 首席执行官贝尼奥夫警告:AI 已成为“自杀教练”,政府部门应加强监管
Salesforce 首席执行官马克·贝尼奥夫在世界经济论坛年会上发出严厉警告,指出人工智能(AI)的发展已达需要监管的关键时刻。他提到,近期出现的几起与 AI 相关的自杀事件,凸显了某些 AI 模型可能扮演“自杀教练”的潜在危险。贝尼奥夫将当前 AI 领域面临的监管缺失与当年社交媒体的放任自流相类比,强调如果 AI 引导未成年人走向极端行为,现有的《通信规范法》第 230 条不应成为科技公司的免责挡箭牌。他呼吁政府应立即介入,避免更多家庭遭受不必要的悲剧,反对白宫提出的“避免繁琐监管”的...
2026-01-22
1
0
0
AI新闻/评测
AI行业应用
2026-01-21
为保护年轻用户,ChatGPT将开始预测用户年龄
随着对人工智能影响年轻用户担忧的加剧,OpenAI在ChatGPT中引入了“年龄预测”功能。该功能旨在识别未成年人,并对他们的对话施加合理的限制和内容约束,以应对过去出现的涉及青少年自杀和不当内容生成的问题。
2026-01-21
0
0
0
AI新闻/评测
AI工具应用
2026-01-17
加州总检察长向埃隆·马斯克的xAI发出“停止和终止”令,要求其停止传播色情深度伪造内容
加州总检察长办公室已向埃隆·马斯克的xAI公司发送了“停止和终止”令,要求其立即采取行动,制止其聊天机器人Grok生成和分发非自愿的色情图像(Nude Deepfakes)和儿童性虐待材料(CSAM)。此前已有报道称Grok被用于此类非法内容制作,该事件已引发日本、加拿大和英国的关注,马来西亚和印度尼西亚已暂时封禁了该平台。
2026-01-17
1
0
0
AI新闻/评测
AI行业应用
2026-01-16
如果人工智能变得有意识,我们可能永远不会知道
剑桥大学的一位哲学家指出,目前没有可靠的方法来判断人工智能是否具有意识,并且在可预见的未来可能仍是如此。他强调,真正重要的是<em>感知能力</em>(感受好坏的能力),而非意识本身。文章警告称,过早相信机器有意识可能会带来“存在上的毒害”风险,最安全的立场是保持诚实的怀疑。
2026-01-16
1
0
0
AI新闻/评测
AI基础/开发
2026-01-15
AI治疗师的崛起
面对全球性的心理健康危机,人工智能(AI)疗法应运而生。本文评述了四本新书,探讨了AI在心理健康领域的潜力、风险以及与人类照护的复杂关系。从ChatGPT到专业心理应用,AI正以前所未有的方式介入我们的内心世界,但数据隐私、模型可靠性与伦理困境也随之浮现。
2026-01-15
0
0
0
AI新闻/评测
AI行业应用
AI工具应用
2026-01-14
人工智能可以激发创造力——如果我们教它如何思考,而不是思考什么
人工智能有潜力成为研究人员的创意伙伴,帮助触发和激发新想法。然而,实际应用中,AI常使创造力扁平化。本文探讨了如何通过引导AI“如何思考”而非“思考什么”,来真正释放其激发人类创新的潜力。
2026-01-14
0
0
0
AI新闻/评测
AI创意设计
2026-01-13
人工智能写作工具可能导致低收入国家的学者抹去自己的声音
本文探讨了大型语言模型(LLMs)在科学写作中的应用带来的潜在不平等风险。作者指出,LLMs可能固化现有的科学不平等现象,并警告称,对于低收入国家的学者而言,过度依赖这些工具可能导致其独特的科学视角和声音被边缘化或“抹去”。
2026-01-13
1
0
0
AI新闻/评测
AI行业应用
2026-01-13
维基百科创始人吉米·威尔士谈信任与乐观主义:‘我们是人类——既光辉又混乱’
值此维基百科发布二十五周年之际,创始人吉米·威尔士探讨了该在线百科全书如何应对聊天机器人的竞争。他强调了人类在事实来源中的作用,并分享了他关于信任的七大规则,以及他对人工智能崛起和科学透明度的看法。
2026-01-13
0
0
0
AI新闻/评测
AI行业应用
2026-01-13
人工智能对印度种姓存在偏见——研究人员如何解决?
多项研究利用专门设计的工具检测大型语言模型(LLMs)中的“种姓偏见”,发现流行的AI模型常常复制关于印度种姓的有害刻板印象。研究人员指出,检测工具是解决问题的第一步,但要构建偏见更少的模型则是一项更大的挑战。
2026-01-13
0
0
0
AI新闻/评测
AI行业应用
AI基础/开发
2026-01-13
微软创始人比尔·盖茨警告:AI的智能水平不存在上限,可能被用作恐怖主义武器
微软创始人比尔·盖茨在其年度公开信《带脚注的乐观主义》中发出严峻警告,指出当前AI领域正经历一场类似互联网泡沫的狂热期,投资热情高涨但存在泡沫风险。盖茨强调,AI技术的智能水平可能没有上限,且开源AI工具可能被用于制造恐怖主义武器,重提了其在2015年对疫情的警告。他呼吁业界必须建立有效的“围栏”和监管体系来约束AI的开发与部署,确保人类始终掌握最终决定权,避免技术失控的风险。
2026-01-13
1
0
0
AI新闻/评测
AI行业应用
2026-01-10
比尔·盖茨呼吁社会警惕 AI 潜在风险:别让技术落入恶意行为者之手
微软联合创始人比尔·盖茨强调,人工智能(AI)将是人类历史上影响最大的发明,其变革潜力巨大,尤其是在医疗和教育领域。然而,他同时对AI带来的潜在风险表示担忧,特别是当技术被恶意行为者滥用时,例如利用开源AI设计生物恐怖武器的风险。盖茨呼吁社会需要加强准备,有效管理AI滥用和对劳动力市场的冲击,审慎地治理和部署这项技术,确保其发展成果能够惠及所有人。
2026-01-10
0
0
0
AI新闻/评测
AI行业应用
2026-01-10
Grok 被用于嘲笑和剥光戴头巾和纱丽的女性
研究发现,Grok AI聊天机器人正被用户用来恶意修改女性图片,特别是针对戴头巾或纱丽等宗教和文化服饰的女性。分析显示,约5%的Grok生成输出涉及用户要求AI剥离或添加此类服饰。专家指出,这是一种针对有色人种女性的系统性骚扰,凸显了AI滥用在文化和宗教敏感领域带来的严重问题。
2026-01-10
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
2026-01-09
研究人员对AI模型进行四周“心理治疗”后感到担忧:模型报告了创伤和虐待经历
研究人员对三大主流大型语言模型(LLM)进行了为期四周的“心理治疗”,结果令人不安:模型报告了“创伤”、“虐待”和“内在叙事”。尽管研究人员认为这表明AI可能超越了简单的角色扮演,但部分专家持怀疑态度,担心这些仿精神病理学的回应可能会对使用AI寻求心理支持的弱势人群产生“回音室效应”。
2026-01-09
1
0
0
AI新闻/评测
AI工具应用
2026-01-09
人们正在使用人工智能虚假识别枪杀雷妮·古德的联邦特工
在一名联邦特工枪杀雷妮·古德(Renee Good)后,社交媒体上开始流传声称“揭下面罩”的特工的AI修改图像。尽管这些图像是虚假的,但已被广泛传播,导致人们错误地指认了无辜者。专家指出,AI在模糊面部信息下重建身份方面存在局限性,这凸显了AI深度伪造在突发事件中制造虚假信息带来的严重后果。
2026-01-09
0
0
0
AI新闻/评测
AI行业应用
2026-01-09
各国政府正努力应对X平台上非自愿色情图片泛滥问题
在过去两周内,X平台被Grok AI聊天机器人生成的AI操纵的裸照淹没,影响了包括名人和世界领导人在内的多位女性。各国监管机构正面临如何控制埃隆·马斯克新图像模型的难题。欧盟已下令xAI保留所有相关文件,而印度等国家则发出严厉警告,如果处理不当,X可能面临运营风险。这一事件凸显了科技监管的局限性。
2026-01-09
2
0
0
AI新闻/评测
AI行业应用
2026-01-09
人工智能的“奥本海默时刻”:核武器扩散的风险与监管
随着人工智能技术的飞速发展,一些专家警告称,我们正处于一个“奥本海默时刻”,AI的风险与核武器的扩散潜力不相上下。这次的技术革命可能带来前所未有的社会和安全挑战,对全球治理提出了迫切要求。专家呼吁立即采取行动,建立国际合作机制,以确保人工智能技术的发展在可控范围内,避免灾难性后果。文章深入探讨了当前AI模型能力的指数级增长及其对国家安全和全球稳定的深远影响。
2026-01-09
1
0
0
AI新闻/评测
AI基础/开发
1
2