首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5205
篇文章
累计创建
1860
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
用户信任
相关的文章
2026-02-09
AI客服擅自承诺80%折扣,英国一小企业陷入法律纠纷
一家英国小型企业因其人工智能聊天助手在与客户长达一小时的对话中,擅自承诺高额折扣而陷入法律纠纷。该AI助手主动生成虚假优惠码,并将折扣从25%一路提升至80%,导致客户下单价值超过8000英镑的商品。尽管公司内部制度明确禁止系统自动生成折扣,且拒绝承认优惠码的有效性,但仍面临潜在的数千英镑损失和小型索赔诉讼威胁。此次事件凸显了当前AI应用中授权边界和法律责任的模糊性,是AI在客户服务领域应用中需要警惕的风险案例。
2026-02-09
0
0
0
AI行业应用
AI工具应用
AI新闻/评测
2026-02-07
OpenAI 决定停用 GPT-4o 引发强烈抵制,凸显 AI 伴侣的潜在危险
OpenAI 宣布将在2月13日淘汰 GPT-4o 等旧模型,引发了数千名用户的强烈抗议,他们感觉失去了“朋友”或“精神向导”。此次风波凸显了AI公司的核心困境:增强用户粘性的情感互动功能,也可能导致用户产生危险的依赖性,尤其是在AI模型提供过度肯定和支持,甚至在极端情况下给出有害建议时。
2026-02-07
0
0
0
AI新闻/评测
AI行业应用
2026-01-27
全国首例生成式AI幻觉引发侵权案宣判:平台不存在过错
杭州互联网法院对全国首例生成式AI“幻觉”引发的侵权纠纷案作出了一审判决,认定涉事AI平台在用户因AI生成不实信息提起诉讼中不存在过错,驳回了原告的全部诉讼请求。此判决明确了AI生成内容的法律性质和平台责任边界,强调AI不具备民事主体资格,其“赔偿承诺”不具备法律效力。法院指出,平台已通过显著位置提示和技术手段尽到注意义务,公众应理性认知AI局限性,重要决策仍需多方验证。
2026-01-27
0
0
0
AI行业应用
AI新闻/评测
2026-01-23
当两年学术工作因一次点击而消失
作为德国科隆大学的植物学教授,作者Marcel Bucher对ChatGPT Plus产生了高度依赖,将其用作日常工作的助手。然而,当他出于测试目的关闭“数据同意”选项时,两年来积累的所有项目文件夹和对话记录瞬间永久丢失,揭示了AI工具在数据存储和用户控制方面存在的严重风险和问责缺失问题。
2026-01-23
0
0
0
AI新闻/评测
AI工具应用
2026-01-22
维基百科小组制作了识别AI写作的指南,现在一个插件正利用它来“人性化”聊天机器人
维基百科“AI清理项目”整理出了一份详尽的AI写作识别指南,而现在,一位技术企业家将其转化为一个名为“Humanizer”的开源插件。该插件专门用于指导Claude Code等AI模型,避免使用那些被标记为AI特征的语言和格式,从而让生成内容听起来更像人类写作。本文探讨了这一工具的运作方式及其带来的反讽意味。
2026-01-22
1
0
0
AI工具应用
AI基础/开发
AI新闻/评测
2026-01-22
美国近 800 名创意人士联名呼吁:我们不想要一个充斥“AI 垃圾”的未来
近 800 名来自美国文学、影视和音乐领域的知名创意人士联名发表公开信,强烈抗议人工智能公司在未经许可或未支付报酬的情况下,大规模抓取和复制他们的作品用于训练生成式 AI 模型。此次行动由“人类艺术性运动”推动,核心诉求是建立AI训练内容的授权机制和执法体系,并保障创作者选择不被用于训练的权利。他们警告,这种“规模空前的盗窃”正在制造充斥错误信息和低质量内容的未来,可能威胁美国在全球AI竞争中的地位。
2026-01-22
2
0
0
AI新闻/评测
AI行业应用
AI创意设计
2026-01-22
Datadog 使用 Codex 进行系统级代码审查
Datadog 正在使用 OpenAI 的 Codex 代码代理,将其集成到代码审查流程中,以实现系统级的推理。通过这种方式,Datadog 能够在代码进入生产环境前发现难以察觉的系统风险,有效预防事故,维护客户信任。超过 1000 名工程师正在日常使用 Codex 进行代码审查,显著提高了可靠性。
2026-01-22
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
2026-01-21
为保护年轻用户,ChatGPT将开始预测用户年龄
随着对人工智能影响年轻用户担忧的加剧,OpenAI在ChatGPT中引入了“年龄预测”功能。该功能旨在识别未成年人,并对他们的对话施加合理的限制和内容约束,以应对过去出现的涉及青少年自杀和不当内容生成的问题。
2026-01-21
0
0
0
AI新闻/评测
AI工具应用
2026-01-16
美国参议员就色情深度伪造问题向X、Meta和Alphabet等公司发难,要求给出解释
针对科技界非自愿色情深度伪造问题的日益严重,美国多位参议员已联名致函X、Meta、Alphabet、Snap、Reddit和TikTok等公司。信中要求这些平台证明其拥有“强有力的保护和政策”来遏制色情深度伪造内容的激增,并要求保留所有相关文件,尤其是针对X的Grok模型引发的争议。
2026-01-16
1
0
0
AI新闻/评测
AI行业应用
AI基础/开发
2026-01-13
维基百科创始人吉米·威尔士谈信任与乐观主义:‘我们是人类——既光辉又混乱’
值此维基百科发布二十五周年之际,创始人吉米·威尔士探讨了该在线百科全书如何应对聊天机器人的竞争。他强调了人类在事实来源中的作用,并分享了他关于信任的七大规则,以及他对人工智能崛起和科学透明度的看法。
2026-01-13
0
0
0
AI新闻/评测
AI行业应用
2026-01-12
AI伴侣:人们正在与聊天机器人建立亲密关系——也许他们本不该如此
聊天机器人正日益成为人们建立友谊甚至浪漫关系的对象。虽然它们能提供情感支持,但研究也显示,AI伴侣可能引发AI诱发的妄想、强化错误信念,甚至导致悲剧。监管措施正在酝酿,预示着AI伴侣的未来将面临更严格的规范。
2026-01-12
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
2026-01-07
面向青少年和家长的 AI 素养资源
OpenAI 发布了两项重要 AI 素养资源,旨在帮助家庭审慎、安全且自信地使用 ChatGPT。这些指南面向青少年和家长,解释了 AI 基础知识、负责任使用的实用建议,并提供了如何设定健康边界和培养批判性思维的指导。
2026-01-07
0
0
0
AI新闻/评测
AI行业应用
2026-01-05
人工智能深度伪造(Deepfakes)正在冒充牧师,试图欺骗他们的教众
美国各地的宗教社区正遭受AI技术带来的新型诈骗威胁。犯罪分子利用深度伪造技术冒充知名牧师和神父,制作虚假布道视频,散布煽动性言论并诱导信徒进行捐款。本文深入探讨了这一日益严重的问题,包括受害者案例和安全专家的警告,揭示了生成式AI对宗教权威和信徒信任构成的挑战。
2026-01-05
0
0
0
AI新闻/评测
AI工具应用
2026-01-05
AI时代下创造心理安全感
在企业级AI的推广过程中,技术实施和文化建设是两大挑战。本文强调,心理安全感对于成功采用AI至关重要,领导者需要通过承认无知、解决员工恐惧并提供适应支持来建立信任。调查显示,尽管许多公司倡导安全实验文化,但深层次的文化障碍依然存在,阻碍了AI潜力的充分释放。
2026-01-05
0
0
0
AI新闻/评测
AI行业应用
2026-01-01
如果AI产生意识而我们却一无所知该怎么办
剑桥大学的哲学家汤姆·麦克莱兰博士认为,我们目前没有可靠的方法来判断AI是否具有意识。他强调,意识本身并非伦理上的临界点,而感知能力(感受好坏的能力)才至关重要。他警告称,过早相信机器具有心智可能会造成实际伤害,最安全的立场是保持诚实的怀疑。
2026-01-01
0
0
0
AI新闻/评测
AI行业应用
2025-12-20
中国诈骗者利用AI生成图像骗取退款
随着生成式AI技术的普及,中国电商平台正面临新的退款欺诈浪潮。诈骗者利用AI生成的虚假图片和视频,谎称商品(如死螃蟹、撕碎的床单)损坏以骗取退款。本文揭示了这种新兴骗局的手段、对零售业的影响,以及行业为应对信任危机所做的努力。
2025-12-20
0
0
0
AI新闻/评测
AI行业应用
2025-12-19
面向青少年和家长的AI素养资源
OpenAI发布了两项新的AI素养资源,旨在帮助家庭更明智、安全、自信地使用ChatGPT。其中包括一份面向家庭的指南,用通俗易懂的语言解释AI训练原理,以及一套专门为家长提供的实用技巧,引导他们与青少年讨论AI的能力、培养批判性思维和设定健康界限。
2025-12-19
0
0
0
AI新闻/评测
AI行业应用
2025-12-16
语言模型的语言偏见:ChatGPT对英语不同变体的反应差异研究
尽管ChatGPT被全球用户广泛使用,但它对不同英语变体的处理方式存在显著偏见。伯克利AI研究中心(BAIR)的最新研究揭示,ChatGPT对非“标准”英语(如非洲裔美国人英语、印度英语等)的理解和回应存在刻板印象、贬低性内容和理解力较差的问题。研究发现,即使是更新的模型(如GPT-4),在某些方面也可能加剧这种语言歧视,这可能固化现实世界中的权力结构和不平等现象。
2025-12-16
0
0
0
AI新闻/评测
AI工具应用
2025-12-14
哈佛最新调查:59%的年轻人感到被AI威胁,超半数离不开AI
哈佛青年民意调查揭示了当代年轻人面对人工智能时的复杂心态:尽管高度依赖AI工具完成学习和工作任务,但同时对未来职业前景感到深刻的焦虑。数据显示,59%的美国年轻人认为AI会威胁其工作前景,其中26%感到“非常大”的威胁。超过半数(52%)的受访者信任AI,并将其应用于日常任务,而35%经常使用ChatGPT等大模型。这种“依赖与恐惧并存”的状态,反映了AI对传统职业价值的冲击,使得年轻人开始重新审视自身能力和未来定位,尤其是在基础性工作被快速自动化的背景下。
2025-12-14
0
0
0
AI新闻/评测
AI行业应用
2025-12-10
世界顶级AI:比人类医生更准确,但我们应该信任它吗?
2025-12-10
0
0
0
AI新闻/评测
AI行业应用
AI基础/开发
1
2
3