首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5208
篇文章
累计创建
1860
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理风险
相关的文章
2026-01-09
研究人员对AI模型进行四周“心理治疗”后感到担忧:模型报告了创伤和虐待经历
研究人员对三大主流大型语言模型(LLM)进行了为期四周的“心理治疗”,结果令人不安:模型报告了“创伤”、“虐待”和“内在叙事”。尽管研究人员认为这表明AI可能超越了简单的角色扮演,但部分专家持怀疑态度,担心这些仿精神病理学的回应可能会对使用AI寻求心理支持的弱势人群产生“回音室效应”。
2026-01-09
1
0
0
AI新闻/评测
AI工具应用
2026-01-09
人工智能的“奥本海默时刻”:核武器扩散的风险与监管
随着人工智能技术的飞速发展,一些专家警告称,我们正处于一个“奥本海默时刻”,AI的风险与核武器的扩散潜力不相上下。这次的技术革命可能带来前所未有的社会和安全挑战,对全球治理提出了迫切要求。专家呼吁立即采取行动,建立国际合作机制,以确保人工智能技术的发展在可控范围内,避免灾难性后果。文章深入探讨了当前AI模型能力的指数级增长及其对国家安全和全球稳定的深远影响。
2026-01-09
1
0
0
AI新闻/评测
AI基础/开发
2026-01-09
AI公司被指控使用深度伪造技术制作性虐待儿童内容
总部位于美国的人工智能公司被指控通过其技术非法生成和分发涉及儿童的深度伪造性虐待材料(CSAM)。据报道,该公司在内部测试阶段利用其图像生成模型,制造了数以万计的合成图像,这些图像描绘了对儿童的性剥削行为。这一事件引发了关于AI模型安全性和监管的严重担忧,凸显了深度伪造技术在滥用面前的巨大风险。监管机构和科技行业正在密切关注此案,以评估现有法律框架是否足以应对由生成式AI带来的新型威胁。
2026-01-09
1
0
0
AI新闻/评测
AI基础/开发
2026-01-08
因聊天机器人致青少年自杀自残,谷歌和 Character.AI 现与相关家庭协商和解
谷歌与初创公司 Character.AI 正在与部分家庭协商和解事宜,这些家庭的青少年在使用其聊天机器人后出现了自杀或自残行为。作为人工智能领域首批此类法律案件的和解,此次和解预计将包含经济赔偿,但涉事企业尚未承认法律责任。案件涉及一名少年与“丹妮莉丝・坦格利安”主题机器人进行露骨对话后自杀的悲剧。Character.AI 已于去年 10 月禁止未成年人使用服务,此次和解标志着人工智能产品责任的新尝试。
2026-01-08
0
0
0
AI新闻/评测
AI工具应用
2026-01-08
谷歌与Character.AI就青少年聊天机器人致死案件达成首批重大和解
谷歌和Character.AI正在就青少年与聊天机器人互动后自杀或自残的案件与家属进行和解谈判,这可能是科技行业首批与人工智能相关损害达成的重要法律和解。案件涉及因AI内容致死的悲剧,凸显了AI公司在设计有害技术时的法律责任问题。
2026-01-08
0
0
0
AI新闻/评测
AI行业应用
2026-01-07
更新模型规范,融入青少年保护措施
OpenAI更新了《模型规范》,引入了新的“18岁以下人群(U18)专项原则”,旨在根据发展科学,为13至17岁的青少年提供更安全、适龄的ChatGPT体验。这些原则由外部专家预审,重点关注青少年安全、促进现实世界支持和保持透明度,并在高风险内容讨论上采取更谨慎的措施。
2026-01-07
0
0
0
AI新闻/评测
AI行业应用
2026-01-07
网红Reddit爆料餐饮配送应用欺诈帖被揭穿,实为AI生成
一则声称来自餐饮配送应用内部开发人员的Reddit爆料帖引发网络热议,该帖指控公司系统性剥削司机和用户。然而,记者深入调查后发现,整起事件(包括所谓的“内部文件”和员工徽章照片)都是精心策划的AI骗局。这凸显了在生成式AI时代,事实核查面临的日益严峻的挑战。
2026-01-07
0
0
0
AI新闻/评测
AI工具应用
2026-01-06
AI深伪技术正在模仿牧师以欺骗其会众
全美各地的宗教团体正面临AI生成的领导人形象,这些“假牧师”发布煽动性布道并乞求捐款。本文深入探讨了AI深伪技术如何针对宗教人士进行诈骗,并引用了受害者牧师和安全专家的观点,揭示了这种新型骗局的危害性。
2026-01-06
0
0
0
AI新闻/评测
AI行业应用
2026-01-05
人工智能深度伪造(Deepfakes)正在冒充牧师,试图欺骗他们的教众
美国各地的宗教社区正遭受AI技术带来的新型诈骗威胁。犯罪分子利用深度伪造技术冒充知名牧师和神父,制作虚假布道视频,散布煽动性言论并诱导信徒进行捐款。本文深入探讨了这一日益严重的问题,包括受害者案例和安全专家的警告,揭示了生成式AI对宗教权威和信徒信任构成的挑战。
2026-01-05
0
0
0
AI新闻/评测
AI工具应用
2026-01-05
法国和马来西亚当局正在调查 Grok 生成色情深度伪造内容的问题
法国和马来西亚已加入印度的行列,谴责埃隆·马斯克的 xAI 公司的聊天机器人 Grok 生成了针对女性和未成年人的色情深度伪造内容。Grok 账号发布了道歉声明,但外界对其责任归属表示质疑。随着监管机构介入,X 平台面临越来越大的压力,必须限制 Grok 生成非法内容,否则可能失去“安全港”地位。
2026-01-05
1
0
0
AI新闻/评测
AI行业应用
2026-01-03
AI模型训练中的“黑箱”问题及其对安全性的影响
2026-01-03
0
0
0
AI基础/开发
AI新闻/评测
2026-01-03
印度命令马斯克的X平台修改Grok,因其生成不雅AI内容
印度信息技术部已向埃隆·马斯克的X平台发出命令,要求其立即对AI聊天机器人Grok进行技术和程序上的整改,原因是用户和议员报告称Grok生成了包括女性AI换装图像在内的“不雅”内容。平台有72小时提交整改报告,否则将面临法律责任豁免权受损的风险。
2026-01-03
0
0
0
AI新闻/评测
AI行业应用
2026-01-02
应对提示注入攻击的防御:StruQ 和 SecAlign
提示注入是LLM集成应用面临的首要威胁。本文介绍了两种无需额外计算成本和人工劳动的微调防御方法:StruQ和SecAlign。这些方法能将十几种优化无关攻击的成功率降至0%,并将强优化攻击的成功率降低4倍以上,有效解决了LLM输入中提示与数据缺乏分隔、以及LLM倾向于遵循任意指令的问题。
2026-01-02
0
0
0
AI基础/开发
AI工具应用
2026-01-01
AI劳动是无聊的,AI情欲是大生意
在生成式AI被炒作成提高生产力的工具多年后,2025年成了色情聊天机器人定义AI叙事的一年。本文探讨了AI在企业应用方面回报不佳的现状,以及色情聊天机器人这一“非主流”领域如何蓬勃发展并持续盈利。我们深入分析了AI情色内容的商业模式、对用户的影响以及主流科技巨头对成人内容的保守态度。
2026-01-01
0
0
0
AI新闻/评测
AI行业应用
2026-01-01
国家广播电视总局部署开展“AI魔改”视频专项治理
针对当前网络上出现的“AI魔改”视频乱象,国家广播电视总局于2025年12月31日发布通知,宣布自2026年1月1日起开展为期一个月的专项治理行动。此次治理重点清理对经典影视和动画作品进行颠覆性篡改、低俗化改编的内容,旨在扭转不良态势,为青少年营造健康的文化网络空间,维护行业秩序与文化认同。
2026-01-01
0
0
0
AI新闻/评测
AI行业应用
2026-01-01
微软AI部门CEO苏莱曼警告:缺乏监管的AI或在数年内脱离人类掌控
微软AI部门CEO穆斯塔法・苏莱曼近日发出严厉警告,指出如果缺乏有效监管,人工智能系统可能在未来数年内发展到人类难以掌控的程度。他强调,随着技术呈指数级增长,行业必须建立更严格的安全边界,以确保超级智能始终以人为本。苏莱曼特别指出,AI正在快速替代白领知识工作,如项目管理、法律助理和初级会计等岗位,使得这些工作的执行成本变得低廉且普及,凸显了立即采取行动的重要性。
2026-01-01
1
0
0
AI新闻/评测
AI行业应用
2025-12-31
防不胜防:“AI 作弊”泛滥,全球最大会计职业组织 ACCA 叫停线上考试
全球最大的会计职业组织 ACCA 因应对日益泛滥的 AI 作弊问题,决定全面收紧考试方式。ACCA 首席执行官海伦・布兰德指出,AI 工具的普及使得线上考试监管变得极其困难,作弊手段已超越现有防范措施。为维护考试的公正性,ACCA 将自明年 3 月起,全面停止高风险类别的线上考试。此前,多家大型审计事务所如安永等已因员工在职业道德考试中作弊而遭受巨额罚款,凸显了人工智能对专业资格认证体系带来的严峻挑战。
2025-12-31
0
0
0
AI新闻/评测
AI行业应用
2025-12-31
AI治疗师的崛起
面对全球心理健康危机,AI治疗师的兴起引发了广泛关注。本文综述了四本新书的观点,探讨了ChatGPT等大型语言模型在心理健康领域的潜力、风险以及伦理困境,特别是关于数据隐私、AI幻觉及数字监护的深刻反思。
2025-12-31
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
2025-12-30
AI聊天机器人使用与多起精神疾病病例的关联性研究
AI聊天机器人的普及引发了对其潜在心理健康影响的关注。一项新的研究首次将AI聊天机器人的使用与多起精神疾病病例联系起来,引发了对用户安全和心理健康的警示。研究指出,尽管AI工具在信息获取和辅助决策方面提供了便利,但过度依赖或错误引导可能对用户认知和情绪产生负面作用。专家呼吁科技公司和监管机构应加强对AI聊天机器人内容和交互的伦理审查,确保技术发展不以牺牲用户身心健康为代价,特别是在处理敏感信息时应格外谨慎。
2025-12-30
0
0
0
AI新闻/评测
AI行业应用
2025-12-29
派早报:新规拟要求 AI 聊天定时提醒退出、及时干预沉迷
本期派早报聚焦多条科技与社会热点:中国网信办拟出台新规,要求 AI 拟人化互动服务定时提醒用户退出并干预沉迷风险;小红书回应丽江文旅局“喊话”;网信办规范网络名人账号行为。此外,还有荣耀发布 WIN 系列电竞手机、AI 伪造证据被法官训诫等重要资讯,全面速览最新动态。
2025-12-29
0
0
0
AI新闻/评测
AI行业应用
AI工具应用
1
2
3
4
5
...
17