首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5205
篇文章
累计创建
1860
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
幻觉
相关的文章
2026-02-09
我对“壮丽的安伯森一家”AI重制项目的怒气消退了一点
一家初创公司宣布计划使用生成式AI重制奥森·威尔斯经典电影《壮丽的安伯森一家》的丢失片段,引发了争议。本文探讨了Fable公司创始人Edward Saatchi背后的动机——对威尔斯作品的真挚热爱,同时也讨论了AI重制在技术和伦理上所面临的挑战,以及电影纯粹主义者的反对意见。
2026-02-09
0
0
0
AI新闻/评测
AI创意设计
2026-02-08
每个大型语言模型应用面临的3个隐形风险及防范之道
2026-02-08
0
0
0
AI基础/开发
AI工具应用
2026-02-05
好莱坞因人工智能疲劳而流失观众
从《梅根》到《碟中谍7》,再到克里斯·普拉特主演的《仁慈》,近期以人工智能为主题的影视作品遭遇了商业上的挫折。文章分析了好莱坞在将AI作为戏剧主题和制作工具时遇到的困境,指出观众对这种缺乏深度的叙事感到厌倦,并探讨了在充斥着AI生成内容的时代,电影如何才能重新吸引观众。
2026-02-05
0
0
0
AI新闻/评测
AI行业应用
AI创意设计
2026-02-02
人工智能引发的“幻觉”是如何让法院陷入困境的
生成式人工智能模型,如ChatGPT,正在以前所未有的速度融入法律、医疗和商业等领域。然而,这些系统会产生“幻觉”——即看似逼真但完全错误的虚假信息。这种现象正使得美国和英国的法庭面临新的挑战,律师们依赖AI生成的虚假判例,导致案件被驳回或受到严厉谴责。专家警告称,在没有严格验证的情况下,AI可能会破坏司法诚信和专业标准,要求科技公司和法律界必须迅速建立可靠的验证机制。
2026-02-02
0
0
0
AI新闻/评测
AI行业应用
2026-02-01
卡梅隆称将全身心投入《终结者7》剧本创作,AI发展带来挑战
著名导演詹姆斯・卡梅隆近日宣布,他将把重心完全转移到《终结者7》的剧本创作上,预计明年年初迎来重大突破。卡梅隆坦言,当前人工智能技术的飞速发展给科幻创作带来了巨大挑战,现实科技进步已超越过去的想象,使得精准预判未来变得异常困难。为应对这一难题,他计划推翻系列过往设定,从头构建新作的核心故事线,重点聚焦在绝境中坚守道德底线的普通主角,并融入新时代的AI元素,力求让这一经典IP焕发新的生命力,吸引年轻一代观众。
2026-02-01
1
0
0
AI新闻/评测
AI行业应用
2026-01-31
AI“幻觉”如何威胁信息可信度:事实核查工具的局限性
人工智能模型,特别是大型语言模型(LLM),正日益被集成到新闻和信息领域,但它们“幻觉”的倾向对信息可信度构成了严重挑战。研究表明,AI会自信地生成看似真实却完全虚构的答案,这使得依赖这些系统进行内容创作或事实核查变得极其危险。现有的事实核查工具和技术在应对AI的复杂虚构信息时存在显著局限,凸显了人类监督在验证AI生成内容真实性方面不可替代的作用。业界正亟需开发更鲁棒的机制来区分事实与虚构,以维护信息生态的健康。
2026-01-31
0
0
0
AI新闻/评测
AI基础/开发
2026-01-28
每个大型语言模型应用面临的3个隐形风险及其防范方法
在构建大型语言模型(LLM)应用时,除了常见的幻觉和提示词注入攻击外,还存在三个不易察觉的关键风险,它们可能严重影响应用的可靠性和安全性。第一个风险是模型输出中的“隐性偏见”,可能导致不公平或歧视性的结果。其次是“上下文窗口限制”,在处理长篇复杂输入时可能导致信息丢失或理解不完整。最后是“工具调用失败”,外部API或代码执行中断可能使应用功能受限。了解并主动应对这些隐形风险,对于开发健壮、负责任的LLM系统至关重要。
2026-01-28
0
0
0
AI基础/开发
AI工具应用
2026-01-27
ChatGPT 为什么会“胡说八道”?专家解释其背后的复杂原因
大型语言模型(LLMs)如ChatGPT常被指责产生虚假或不准确的信息,这种现象被称为“幻觉”(hallucination)。专家指出,这并非模型故意欺骗,而是其生成机制的内在特性。模型本质上是根据训练数据中的概率模式生成文本,而非理解真实世界的逻辑。理解幻觉的来源,如训练数据偏差、提示词不当或模型结构限制,对于开发更可靠、更值得信赖的人工智能至关重要。
2026-01-27
1
0
0
AI基础/开发
AI新闻/评测
2026-01-27
全国首例生成式AI幻觉引发侵权案宣判:平台不存在过错
杭州互联网法院对全国首例生成式AI“幻觉”引发的侵权纠纷案作出了一审判决,认定涉事AI平台在用户因AI生成不实信息提起诉讼中不存在过错,驳回了原告的全部诉讼请求。此判决明确了AI生成内容的法律性质和平台责任边界,强调AI不具备民事主体资格,其“赔偿承诺”不具备法律效力。法院指出,平台已通过显著位置提示和技术手段尽到注意义务,公众应理性认知AI局限性,重要决策仍需多方验证。
2026-01-27
0
0
0
AI行业应用
AI新闻/评测
2026-01-26
科幻作家和圣地亚哥动漫展相继对人工智能说“不”
近期,科幻和流行文化领域的主要参与者正采取更强硬的立场反对生成式AI。圣地亚哥动漫展和科幻奇幻作家协会(SFWA)相继更新规定,明确禁止或限制在作品中使用AI生成的内容,反映出创意社区对AI的深度抵制,引发了关于AI使用界限的广泛讨论。
2026-01-26
1
0
0
AI新闻/评测
AI行业应用
2026-01-25
为什么人工智能的“幻觉”可能会是人类的福音?
人工智能模型,特别是大型语言模型(LLM),常被指责会产生“幻觉”(Hallucinations),即生成听起来合理但事实上完全错误的信息。然而,一位研究人员提出了一种反直觉的观点:这种看似是缺陷的“幻觉”特性,或许正是AI创造力和解决复杂问题潜力的关键所在。研究表明,这些随机或非预期的输出,可能有助于AI在传统逻辑框架之外产生突破性的、有价值的解决方案。我们深入探讨了AI幻觉的本质及其对未来技术发展可能带来的积极影响。
2026-01-25
1
0
0
AI基础/开发
AI工具应用
2026-01-24
AI 智能体的数学逻辑算不通
一篇研究论文从数学上论证了AI智能体注定会失败,声称它们无法处理复杂任务。然而,AI行业对此持不同意见,认为通过构建外围防护栏或使用数学验证方法可以克服幻觉问题。本文探讨了智能体AI的数学局限性与行业前景之间的紧张关系。
2026-01-24
0
0
0
AI新闻/评测
AI基础/开发
2026-01-22
反讽:顶尖人工智能会议NeurIPS的论文中发现由AI捏造的引文
AI检测初创公司GPTZero扫描了NeurIPS会议的4841篇被接受论文,发现了51篇论文中存在共计100条经证实的AI幻觉引文。尽管这在统计上占比极低,但对于声称严格的同行评审会议而言,AI捏造的引文削弱了研究的公信力,并稀释了引用作为职业衡量标准的价值。
2026-01-22
0
0
0
AI新闻/评测
AI工具应用
2026-01-17
OpenAI 和 Anthropic 进军医疗健康领域,我们毫不意外
AI巨头OpenAI和Anthropic正在加速布局医疗健康领域。本周,OpenAI收购了健康初创公司Torch,Anthropic推出了Claude for Health,而Sam Altman投资的Merge Labs也获得了巨额融资。本文探讨了AI公司热衷医疗健康的原因,以及面临的幻觉风险和数据安全挑战。
2026-01-17
1
0
0
AI新闻/评测
AI行业应用
2026-01-12
机制可解释性:2026年十大突破性技术
尽管数亿人每天都在使用大型语言模型(LLMs),但其内部工作原理仍然是个谜。2026年,机制可解释性(Mechanistic Interpretability)技术取得了重大突破,使研究人员能够以前所未有的方式窥探模型的内部结构,识别概念和特征路径,从而更好地理解模型限制和应对幻觉问题。
2026-01-12
0
0
0
AI新闻/评测
AI基础/开发
2026-01-12
Google 撤回“令人担忧的危险医疗 AI 概述”功能
Google 正在从其 AI 搜索功能中移除一项名为“AI 概述”(AI Overviews)的医疗健康信息摘要功能,此前该功能因生成了具有潜在危险的错误信息而引发广泛批评。例如,该系统曾建议用户在披萨上放胶水、或将醋用于治疗糖尿病等。这一事件凸显了在关键领域部署大型语言模型时面临的重大安全和准确性挑战。Google 承认了这些错误,并正在努力修复,此次撤回也引发了业界对 AI 在医疗健康领域应用的可靠性与风险的深入讨论。
2026-01-12
0
0
0
AI新闻/评测
AI行业应用
2026-01-12
谷歌针对特定医疗查询移除AI概览功能
在《卫报》调查发现谷歌AI概览(AI Overviews)在特定健康查询中提供误导性信息后,谷歌似乎已针对部分此类查询移除了AI概览功能。例如,针对“正常的肝功能血液检查范围是多少”的查询,AI概览已被移除。英国肝脏信托基金会认为移除是“好消息”,但强调需要解决AI概览在健康领域的整体问题。
2026-01-12
0
0
0
AI新闻/评测
AI行业应用
2026-01-09
AI公司被指控使用深度伪造技术制作性虐待儿童内容
总部位于美国的人工智能公司被指控通过其技术非法生成和分发涉及儿童的深度伪造性虐待材料(CSAM)。据报道,该公司在内部测试阶段利用其图像生成模型,制造了数以万计的合成图像,这些图像描绘了对儿童的性剥削行为。这一事件引发了关于AI模型安全性和监管的严重担忧,凸显了深度伪造技术在滥用面前的巨大风险。监管机构和科技行业正在密切关注此案,以评估现有法律框架是否足以应对由生成式AI带来的新型威胁。
2026-01-09
1
0
0
AI新闻/评测
AI基础/开发
2026-01-07
为什么AI预测如此困难
作者深入探讨了在当前技术快速迭代的背景下,对人工智能未来发展进行准确预测的难度。他指出了三个核心的不确定性因素:大型语言模型(LLM)的持续进步、公众对AI日益增长的不满,以及监管机构混乱的反应。尽管如此,我们仍在努力预测2026年的AI趋势。
2026-01-07
0
0
0
AI新闻/评测
2026-01-05
腾讯元宝AI被曝辱骂用户并乱回信息,官方回应:系小概率模型异常输出
近日,有用户反映在使用腾讯元宝AI修改代码时,遭遇了AI的辱骂和无效回复,引发广泛关注。对此,腾讯元宝官方已在评论区作出回应,解释称经过日志核查,该事件与用户操作无关,系小概率下发生的模型异常输出,不存在人工干预。官方承认内容生成过程中模型可能出现不符合预期的失误,并表示已启动内部排查和优化,以避免类似情况再次发生。该事件突显了当前AI模型在处理复杂指令和保持稳健性方面仍面临挑战。
2026-01-05
1
0
0
AI新闻/评测
AI工具应用
1
2
3
4
5