首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5205
篇文章
累计创建
1860
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
Transformer
相关的文章
2026-02-09
AI 视觉技术的飞跃:Transformer-based 模型的图像识别性能超越了所有卷积神经网络
最新的研究揭示了 AI 视觉领域的一项重大突破:基于 Transformer 架构的模型在图像识别任务中已全面超越了传统的卷积神经网络(CNN)。这一转变标志着深度学习在计算机视觉应用中的范式转移,预示着更强大的模型和更广泛的应用前景。研究表明,Transformer 的全局上下文建模能力在复杂场景理解方面展现出显著优势,其性能提升在多个主流基准测试中得到验证。此次技术革新将深刻影响未来的图像处理和分析工具的开发。
2026-02-09
0
0
0
AI基础/开发
AI工具应用
2026-02-03
2026年大型语言模型初学者阅读清单
为2026年制定的大型语言模型(LLM)初学者阅读清单,旨在为希望深入了解该领域发展的读者提供结构化的学习路径。该清单涵盖了LLM的基础原理、核心架构(如Transformer)的演进,以及最新的模型应用和部署策略。通过精选的论文和资源,学习者可以系统性地掌握从理论到实践的关键知识点,为应对未来AI技术挑战做好准备。这份指南特别强调了面向未来趋势的知识储备,确保读者能够站在技术前沿。
2026-02-03
0
0
0
AI基础/开发
AI工具应用
2026-01-22
中美在人工智能领域的合作比你想象的要密切
尽管中美在人工智能领域被视为主要竞争对手,但一项对NeurIPS会议上超过5000篇论文的分析显示,两国实验室之间存在着惊人的合作。本文揭示了美中在尖端AI研究中的交叉点,包括对Transformer和Llama等核心模型的共同引用情况,强调了生态系统交织的现实。
2026-01-22
0
0
0
AI新闻/评测
AI行业应用
2026-01-01
AI 发展面临挑战,研究人员发现 Transformer 模型训练的效率存在结构性瓶颈
人工智能领域的主流架构 Transformer 模型在训练效率上正面临结构性的瓶颈挑战。研究人员分析发现,当前模型训练的瓶颈主要源于其对内存带宽的过度依赖,而非计算能力。这种结构性限制导致了模型规模和训练速度的提升受到制约,特别是在处理大规模数据集时。研究指出,虽然硬件计算能力持续增强,但这种内存墙效应使得模型性能扩展效率降低。解决之道可能需要底层架构的创新,以减少对高带宽内存的依赖,从而确保AI技术的可持续快速发展。
2026-01-01
0
0
0
AI基础/开发
AI新闻/评测
2025-12-19
深度学习的复兴:CNN 架构正在被 Transformer 模型取代吗?
2025-12-19
0
0
0
AI基础/开发
AI工具应用
2025-12-16
Transformer如何思考:使语言模型起作用的信息流
2025-12-16
0
0
0
AI基础/开发
AI工具应用
2025-12-16
时间序列预测中,Transformer 与 LSTM 哪个更胜一筹?
2025-12-16
3
0
0
AI基础/开发
AI工具应用
2025-11-28
Transformer中的Token之旅:究竟发生了什么
2025-11-28
0
0
0
AI基础/开发
2025-11-28
Token在Transformer内部的旅程:究竟发生了什么?
2025-11-28
0
0
0
AI基础/开发
AI工具应用
2025-11-26
从零开始预训练BERT模型
2025-11-26
0
0
0
AI基础/开发
AI工具应用
2025-11-23
BERT 模型及其变体:BERT 模型及其变体的全面指南
2025-11-23
0
0
0
AI基础/开发
AI工具应用
2025-11-21
RenderFormer:神经网络如何重塑3D渲染
本文基于微软研究院关于RenderFormer的研究,探讨了神经网络如何革新3D渲染领域。RenderFormer框架利用Transformer架构,旨在提高3D数据渲染的效率和质量,是计算机图形学和AI在空间理解方面的重要进展。
2025-11-21
0
0
0
AI创意设计
AI行业应用
2025-11-20
AI硬件初创公司Ampere's Arc完成8000万美元A轮融资,以推动生成式AI芯片开发
专注于下一代生成式AI芯片开发的Ampere's Arc近日宣布成功完成8000万美元的A轮融资,本轮融资由知名的风险投资机构领投,并吸引了多家行业巨头参与。公司计划利用这笔资金加速其首款AI加速器的研发和商业化进程,旨在提供比现有GPU更具能效比的解决方案。Ampere's Arc的核心技术聚焦于优化Transformer模型的处理效率,以满足日益增长的大规模AI训练和推理需求,此次融资标志着其在AI硬件竞争中迈出了关键一步。
2025-11-20
0
0
0
AI基础/开发
AI新闻/评测
2025-11-10
RenderFormer:神经网络如何重塑3D渲染
本文深入探讨了RenderFormer,一种创新的神经网络方法,旨在革新3D渲染的效率和质量。研究人员利用Transformer架构优化了渲染过程,显著提高了3D内容生成的速度和细节表现,为未来的计算机图形学和虚拟现实开辟了新途径。
2025-11-10
0
0
0
AI创意设计
AI基础/开发
2025-11-06
构建更优良的LLM应用的必要分块技术解析
2025-11-06
0
0
0
AI基础/开发
AI工具应用
2025-10-21
RenderFormer:神经网络如何重塑3D渲染
本文深度解析了微软研究院提出的新型3D渲染方法RenderFormer。该技术利用Transformer架构,将3D场景解耦表示,实现了比传统方法更高效、更高质量的图像生成。探索其如何重塑计算机图形学,并为神经渲染和内容创作带来革命性变革。
2025-10-21
1
0
0
AI基础/开发
AI创意设计
2025-10-19
使用PyTorch从零开始构建Transformer模型:10天迷你课程
本10天迷你课程旨在揭示当前大型语言模型(LLM)如ChatGPT背后的Transformer架构原理。课程将带领开发者从零开始,使用PyTorch构建和训练一个小型化的Transformer模型,从而深入理解其工作机制,而非将其视为黑箱。内容涵盖数据准备、BPE分词器训练、位置编码、注意力机制(如GQA)、训练流程及模型使用。课程强调项目实践,适用于具备基础Python和PyTorch经验的开发者,是掌握现代LLM核心技术的绝佳入门指南。
2025-10-19
1
0
0
AI基础/开发
AI工具应用
2025-10-19
使用PyTorch从零开始构建Transformer模型(10天速成课)
本10天速成课程将指导您如何使用PyTorch从零开始设计、构建和训练一个较小的Transformer语言模型,以深入理解大型语言模型(LLM)的工作原理。课程聚焦于模型架构,涵盖数据准备、分词器训练、位置编码、注意力机制等核心组件的实现。通过项目实践,参与者将摆脱将AI视为“黑箱”的认知,掌握Transformer模型从头到尾的构建流程。这对于希望深入了解LLM底层机制的开发者极具价值。
2025-10-19
3
0
0
AI基础/开发
AI工具应用