📢 转载信息
原文链接:https://www.technologyreview.com/2026/01/06/1130707/why-ai-predictions-are-so-hard/
原文作者:James O'Donnell
本文最初发表于我们的每周AI通讯《The Algorithm》。如需第一时间在收件箱中收到此类文章,请点击此处订阅。
有时候人工智能似乎只是一个非常小众的话题,但一到假期,我就会听到各个年龄段的亲戚们谈论因聊天机器人引发的癔症案例、指责数据中心推高电价,以及询问孩子们是否应该拥有不受限制地使用AI的权利。总之,AI无处不在。而且人们感到恐慌。
这些对话不可避免地会转向:AI正在现在产生所有这些连锁反应,但如果技术变得更先进,接下来会发生什么呢?这时,他们通常会看着我,期待着一个关于厄运或希望的预言。
我可能会让他们失望,仅仅因为对AI的预测正变得越来越困难。
尽管如此,我必须说,《麻省理工科技评论》在解读AI的发展方向方面有着非常出色的记录。我们刚刚发布了一份关于2026年AI展望的精彩预测清单(其中包含了我对AI相关法律战的看法),去年的预测清单也全部实现了。但每到假期,要弄清AI将产生何种影响就变得越来越难。这主要是由于三个重大的未解问题。
首先,我们不知道大型语言模型(LLM)在短期内是否会继续实现渐进式的智能提升。由于这项技术支撑着当前AI领域几乎所有的兴奋和焦虑,驱动着从AI伴侣到客户服务代理的一切,它的发展放缓将是一个巨大的事件。这件事的重要性如此之大,以至于我们在12月专门用一系列文章讨论了新的“后AI炒作时代”可能是什么样子。
其次,公众对AI的接受度非常低。这里只有一个例子:将近一年前,OpenAI的Sam Altman与特朗普总统站在一起,兴奋地宣布了一项耗资5000亿美元的计划,旨在全美各地建造数据中心,以训练更大、更强大的AI模型。他们要么没有预料到,要么就是不在乎许多美国人会坚决反对在他们的社区建造这样的数据中心。一年过去了,大型科技公司正在进行一场艰苦的斗争来赢得公众舆论并继续建设。他们能赢吗?
立法者对所有这些不满的反应非常混乱。特朗普通过主张将AI监管权从州一级转为联邦一级,取悦了大型科技公司的首席执行官,科技公司现在希望将此写入法律。但要求保护儿童免受聊天机器人侵害的群体,其成员包括加州的进步派立法者和日益倾向于特朗普的联邦贸易委员会(FTC),他们各自有着不同的动机和方法。他们能否放下分歧来约束AI公司呢?
如果那些令人沮丧的节日餐桌对话进展到这一步,会有人说:嘿,AI难道没有被用于客观上的好事吗?比如让人更健康、挖掘科学发现、更好地理解气候变化?
嗯,可以说有。机器学习,一种更早期的AI形式,长期以来一直被用于各种科学研究。其中一个分支,称为深度学习,是AlphaFold的一部分,这是一个诺贝尔奖级别的蛋白质预测工具,彻底改变了生物学。图像识别模型在识别癌细胞方面越来越好。
但是,基于更新的LLM构建的聊天机器人的实际表现则要平淡得多。像ChatGPT这样的技术非常擅长分析大量研究文献来总结已经发现的东西。但一些关于这类AI模型取得了真正的突破,比如解决了以前未解决的数学问题的高调报道,后来被证明是虚假的。它们可以协助医生进行诊断,但它们也可能鼓励人们在不咨询医生的情况下自行诊断健康问题,有时还会带来灾难性的后果。
到明年这个时候,我们可能会对我的家人提出的问题有了更好的答案,同时也会有许多全新的问题出现。在此期间,请务必阅读我们关于今年预测的完整文章,其中包含了整个AI团队的见解。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区