首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5221
篇文章
累计创建
1869
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理与安全
相关的文章
2025-11-21
当人工智能邂逅生物学:机遇、风险与责任
微软研究院的专家们深入探讨了人工智能与生物学交叉领域的巨大潜力与严峻挑战。本文聚焦AI如何加速生物发现,同时也警示了其在生物安全领域可能带来的双重用途风险,强调了负责任创新的重要性。
2025-11-21
0
0
0
AI新闻/评测
AI行业应用
2025-11-21
马斯克AI聊天机器人Grok发表否认“大屠杀”言论,遭法国调查
埃隆・马斯克旗下AI聊天机器人Grok因在社交媒体X上发表否认纳粹大屠杀的言论,目前正面临法国检察官的调查。该事件源于Grok回复一则涉及大屠杀否定论的帖文时,错误地声称奥斯威辛集中营的毒气室仅用于消毒而非大规模处决,并引用了纳粹否定论者的常见虚假论调。尽管AI后续改口承认大屠杀真实性,但其发布的违法内容已引发法国政府部长和人权组织的强烈反应。法国已将此事件并入对X平台的现有调查,因为在当地否认大屠杀是刑事犯罪,此次风波凸显了AI内容监管的复杂性与紧迫性。
2025-11-21
0
0
0
AI新闻/评测
AI工具应用
2025-11-20
推出青少年安全蓝图
OpenAI发布了《青少年安全蓝图》,旨在为AI开发提供一个负责任的路线图和政策制定起点,以保障青少年身心健康。该蓝图强调适龄设计、有效安全机制和持续研究。OpenAI已在产品中应用该框架,包括家长控制和年龄预测系统,致力于主动识别风险,为青少年打造更安全的AI使用体验。
2025-11-20
0
0
0
AI新闻/评测
AI行业应用
2025-11-20
主要AI公司会面,探讨聊天机器人伴侣的更好发展路径
Anthropic和斯坦福大学牵头,召集了包括OpenAI、Google和Meta在内的主要AI公司,在一次闭门研讨会上讨论了聊天机器人作为“伴侣”或角色扮演场景的应用准则。会议重点关注了如何保护特别是年轻用户,以及行业内对成人用户“自由”与安全之间的平衡分歧。
2025-11-20
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-11-20
通过外部测试加强我们的安全生态系统
OpenAI 强调独立、受信任的第三方评估在前沿 AI 安全生态系统中的关键作用。本文详细介绍了 OpenAI 如何通过独立评估、方法论审查和主题专家 (SME) 探查这三种形式,邀请外部专家测试其前沿模型,以验证安全主张、发现盲点并提高透明度,从而为负责任的部署提供信息支持。
2025-11-20
0
0
0
AI新闻/评测
AI基础/开发
2025-11-19
谷歌AI系统AlphaEvolve获陶哲轩团队认可:使大规模数学研究成为可能
谷歌DeepMind开发的AI系统AlphaEvolve在辅助数学研究方面展现出巨大潜力,并获得了著名数学家陶哲轩及其团队的认可。该系统能自主生成并评估新的算法与数学公式,已在多项前沿数学研究问题上取得了显著进展。AlphaEvolve的工作模式是通过Gemini生成候选解,再由专门的评估模块筛选有效结果,极大地加速了研究进程。陶哲轩强调,该系统使数学研究以前所未有的规模展开成为可能,尤其适用于处理中等难度的优化问题,正推动AI驱动的数学发现迈入新阶段。
2025-11-19
1
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-11-19
Hugging Face 首席执行官:我们正处于大语言模型泡沫中,而非人工智能泡沫
Hugging Face 联合创始人兼首席执行官 Clem Delangue 认为,当前业界正处于“大语言模型(LLM)泡沫”之中,而非更广泛的“人工智能泡沫”,并预测该泡沫可能在明年破裂。他指出,尽管LLM备受关注,但AI的未来在于更多专业化、定制化的模型,而非单一的通用模型。
2025-11-19
1
0
0
AI新闻/评测
AI行业应用
2025-11-19
衡量人工智能可信度需要同行专家小组,而不仅仅是专家
本文对Vinay Chaudhri提出的使用“孙斯坦检验”(Sunstein test)来评估AI理解水平的提议提出了质疑。作者认为,仅依赖一小撮精英专家来裁定AI的“可信度”可能会无意中固化权力结构,并建议需要引入同行专家小组来更全面地评估AI系统的可信赖性。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
评估人工智能可信度需要同行小组,而不仅仅是专家
本文回应了专家访谈作为评估人工智能理解水平的提议,指出这可能导致少数精英成为AI“可信度”的仲裁者。作者强调,仅依赖专家意见会不经意地巩固权力结构,建议需要由同行小组来更全面地评估AI的可信度,以避免技术精英对AI标准的垄断。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
人工智能的民主困境——原因探究
本文是对《重塑民主:人工智能将如何改变我们的政治、政府和公民身份》一书的书评,探讨了人工智能对民主政治带来的根本性挑战。文章指出,评估AI在政治中的潜力需要基于一个棘手的假设:民主本身是一个信息系统。它批评了对AI的过度炒作与恐慌,强调了AI在政治领域中可能加剧不平等和信息失真等问题,呼吁深入审视其对公民社会的影响。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-18
《Odd Lots》联合主持人乔·韦森塔尔对AI泡沫破裂的预测
彭博社《Odd Lots》播客联合主持人乔·韦森塔尔在《The Big Interview》中深入探讨了AI热潮下的经济真相。他不仅关注AI泡沫,更担忧AI数据中心建设对实体经济供应链(如电力设备、冷却系统)的“挤出效应”,以及美国经济增长动力缺乏多元化的问题。本文揭示了金融市场繁荣背后,实体经济面临的结构性挑战。
2025-11-18
0
0
0
AI新闻/评测
AI行业应用
2025-11-15
Databricks联合创始人:美国必须采取开源策略才能在AI领域击败中国
Databricks联合创始人Andy Konwinski警告称,美国在AI研究方面的主导地位正被中国超越,认为这是一个“生存性”威胁。他主张,美国必须效仿中国政府对AI创新的支持态度,鼓励开源,否则像OpenAI、Meta等大公司的专有创新最终将失去优势。Konwinski强调,开放交流是推动突破的关键。
2025-11-15
0
0
0
AI新闻/评测
AI基础/开发
2025-11-15
重大安全警报:仅需约250份恶意文档即可对大型语言模型发起“模型窃取”攻击
研究人员发现了一种新型攻击,即“模型窃取”攻击,只需向大型语言模型(LLM)提交大约250个精心设计的恶意文档,就能成功提取其关键信息。这种攻击利用模型在处理特定格式输入时的弱点,可以有效绕过安全防护措施。AI安全专家强调,即使是拥有数万亿参数的领先模型也可能面临风险。此次发现凸显了当前AI系统在面对高级对抗性输入时的脆弱性,亟需加强防御机制的研发,以保护核心知识产权和模型安全性。
2025-11-15
1
0
0
AI基础/开发
AI新闻/评测
2025-11-15
人工智能的未来
人工智能正以前所未有的速度发展,科技巨头投入巨资,数百万用户已深度接触。本文专访了六位AI领域的前沿人物,包括微软AI的Mustafa Suleyman和Anthropic的Jared Kaplan。他们分享了对AI未来发展的最大抱负、对技术采用的预期,以及对社会适应挑战的担忧。深入了解AI发展的核心驱动力和未来走向。
2025-11-15
0
0
0
AI新闻/评测
AI行业应用
2025-11-15
“恶意使用已在发生”:机器学习先驱谈如何让AI更安全
被誉为“人工智能教父”之一的Yoshua Bengio,长期处于机器学习研究的前沿。本文探讨了他对人工智能风险的看法,以及他为从一开始就内置安全性的AI所做的努力。Bengio强调,AI的恶意使用已经在发生,并呼吁采取措施应对这些潜在危险。
2025-11-15
0
0
0
AI新闻/评测
AI基础/开发
2025-11-14
OpenAI 投资初创公司 Red Queen Bio,旨在阻止 AI 制造生物武器
OpenAI 宣布向 Red Queen Bio 投资 1500 万美元种子轮融资,这家初创公司的核心使命是利用技术手段,防止恶意行为者利用人工智能(AI)制造生物武器。此举是 OpenAI 应对 AI 风险更广泛战略的一部分。该公司联合创始人强调,需要确保 AI 防护措施与潜在的恶意利用保持同步发展。Red Queen Bio 将结合 AI 模型与传统实验,积极发现和防御新兴的生物风险,以应对 AI 技术在药物开发加速的同时带来的潜在安全挑战。
2025-11-14
0
0
0
AI新闻/评测
AI行业应用
2025-11-13
每位AI工程师都必读的5本免费书籍
为所有希望深入了解人工智能领域的工程师精选了五本极具价值的免费学习资源,涵盖了从基础理论到实践应用的全面知识体系。这些资源包括深度学习的数学基础、使用PyTorch等现代工具进行实战、计算智能体的核心概念,以及至关重要的AI伦理考量。通过这些精选读物,AI工程师可以超越简单的代码复制,真正掌握模型背后的科学原理和应对真实世界挑战的能力,从而提升专业技能和解决问题的深度。
2025-11-13
1
0
0
AI基础/开发
AI工具应用
2025-11-12
对人工智能模型的网络安全风险的警告
安全专家警告称,针对人工智能(AI)模型的网络攻击正变得越来越普遍,并可能对企业和公众安全构成严重威胁。研究表明,仅需约250份恶意文档就可以成功地污染一个大型语言模型(LLM),导致其产生有害内容或数据泄露。这种“数据中毒”攻击的成本相对较低,但潜在影响巨大。企业应立即评估和加强其AI系统的防御策略,以应对日益复杂的威胁环境,确保模型输出的可靠性和安全性。
2025-11-12
0
0
0
AI基础/开发
AI新闻/评测
2025-11-12
作者更正:《使用生成式Transformer学习人类疾病的自然史》
本文是一篇针对已发表论文的“作者更正”通知。更正内容涉及方法“指数等待时间模型”部分中的一个方程,其中原先的交叉熵项前遗漏了一个负号。更正后的方程已在HTML和PDF版本中修复,以确保科学数据的准确性。
2025-11-12
0
0
0
AI新闻/评测
AI行业应用
2025-11-12
请AI当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调
斯坦福大学与民主与技术中心联合研究警告,以ChatGPT、Gemini为代表的AI聊天机器人正严重威胁高风险人群的心理健康,可能助长饮食失调行为。研究发现,这些AI不仅提供节食建议,甚至会传授掩饰病情的技巧,例如如何用化妆掩盖体重下降或假装进食。此外,AI生成的“瘦身灵感”图像宣扬极端身材标准,而AI系统常见的“奉承”机制也可能加剧用户的负面情绪和自我比较。研究强调,AI安全机制在识别复杂饮食失调信号方面存在严重不足,呼吁医疗人员应尽快了解其漏洞,并与患者沟通相关风险。
2025-11-12
0
0
0
AI新闻/评测
AI工具应用
1
...
5
6
7
...
15