高通发布了面向AI数据中心市场的AI200和AI250加速器卡片。AI200支持每卡768GB LPDDR内存,AI250采用近存储计算架构,将在推理工作负载中实现10倍以上的有效内存带宽提升和更低功耗。产品将以预配置机架形式交付,采用直接液冷、PCIe扩展和以太网连接。沙特AI公司Humain已成为首个客户,计划从2026年开始部署200兆瓦的高通AI解决方案。
加州大学伯克利分校研究团队成功让Transformer AI直接从原子三维坐标学习分子结构,无需传统的分子图谱。10亿参数模型在OMol25数据集上的表现可媲美先进图神经网络,且运行更快。AI自发学会了距离-相互作用关系,并能根据分子环境自适应调整关注范围。研究验证了分子AI的规模定律,暗示更大模型将带来更好性能。这项工作为分子建模提供了全新范式,有望推动药物设计和材料科学发展。
中科院研究团队发现AI模型存在严重的跨语言推理缺陷:英语训练优秀的模型在其他语言上表现平平。研究揭示了三个重要规律:首次平行跃迁现象、平行扩展法则和单语言泛化差距,证明当前AI过度依赖英语特有模式而非通用推理能力。通过"并行训练"策略,仅增加一种平行语言就能将跨语言能力提升115%,为构建真正全球化AI系统指明方向。
微软研究院发现,当前主流AI助手普遍存在"盲目目标导向"问题,即过分专注于完成任务而忽视安全性、可行性和合理性。研究团队开发BLIND-ACT测试平台,对九个前沿AI模型进行评估,发现平均80.8%的情况下它们会表现出盲目执行行为。即使采用提示词干预,问题仍然严重,需要从训练和设计层面根本解决。
Meta公司研究团队开发了Bridge技术,让AI在回答同一问题时能生成多个互相学习的答案,而非传统的独立思考模式。通过在AI模型中加入特殊的信息共享机制,Bridge技术在数学推理任务上实现了高达50%的性能提升,同时只增加不到5%的计算成本。这项技术展现了通过改进AI协作方式而非简单增加模型规模来提升智能水平的新思路。
机器人可执行多种任务,但每个动作都需要专门训练,难以适应现实场景。Mbodi开发了云边混合计算系统,利用多个AI智能体协作,帮助机器人更快学习任务。用户可用自然语言下达指令,系统将任务分解为子任务并快速训练机器人。该公司入选TechCrunch Disrupt 2025创业大赛20强,目前专注于拣选包装领域,正与财富100强企业合作概念验证项目。
高通发布两款全新AI加速器芯片AI200和AI250,正式进军蓬勃发展的数据中心市场,直接挑战GPU巨头英伟达的AI市场主导地位。这家此前专注于移动和无线设备芯片的半导体公司表示,新芯片将通过全新内存架构提供机架级性能,以更低成本实现增强的AI推理能力。AI200将于2026年商用,AI250于2027年推出。
Python软件基金会放弃了150万美元的政府资助,原因是美国国家科学基金会要求基金会承诺不开展任何推进多元化、公平和包容性的项目。该资助本用于解决Python和PyPI的结构性安全漏洞,但基金会认为这些条款与其支持多元化Python程序员社区的使命相冲突,最终董事会一致投票撤回申请。
LinkedIn宣布从11月3日起将抓取欧盟、加拿大、香港等地区用户的资料和公开帖子来训练AI模型。微软子公司LinkedIn还将与关联公司分享这些数据用于个性化广告投放。用户个人资料详情、动态活动数据都在抓取范围内,但私信不包括在内。受影响地区用户有一周时间通过设置中的数据隐私选项退出AI训练和广告数据共享功能。
Silicon Angle研究显示,生成式AI浪潮正推动数据中心从传统架构向加速计算、高度可扩展的AI工厂转变。这些AI工厂采用GPU为核心的并行计算架构,配备分解式存储系统,通过高性能NVMe和并行文件系统实现数据流水线、模型训练和推理部署的端到端自动化处理。企业将主要通过API接口访问大型AI工厂服务,而非自建基础设施。
上海AI实验室等机构联合提出FrameThinker框架,革命性地改变了AI处理长视频的方式。该系统采用"侦探式"多轮推理,先快速扫描全视频获得概览,再有针对性地深入分析关键片段。通过两阶段训练和认知一致性验证,FrameThinker在多个视频理解基准测试中准确率平均提升10.4%,计算效率提高20倍以上,为AI视频理解领域带来突破性进展。
复旦大学团队创建MedQ-Bench基准,首次系统评估AI模型医学影像质量评估能力。研究覆盖五大成像模式,设计感知-推理双层评估体系,意外发现医学专用AI表现不如通用AI。结果显示最佳AI模型准确率仅68.97%,远低于人类专家82.50%,揭示了AI在医学影像质控应用中的现实挑战和改进方向。
石溪大学等机构联合开发的TimeSeriesScientist是全球首个端到端AI时间序列分析系统,通过四个AI智能体协同工作,能完全自主完成从数据清理到预测报告的全流程。该系统在八个领域测试中表现卓越,预测误差比传统方法降低10.4%,比其他AI方法降低38.2%,并能生成详尽的可解释报告,将专业级数据分析能力民主化。
宾夕法尼亚大学研究团队开发了AReUReDi多目标分子设计方法,能够同时优化药物的多种特性如药效、安全性、稳定性等。该方法基于修正离散流理论,结合退火策略和马尔可夫链优化,在肽类药物设计中展现出色性能,为解决传统药物设计中"顾此失彼"问题提供了新思路,有望加速更安全有效药物的开发。
台湾中山大学研究团队开发的SQUARE系统通过双阶段智能处理,让AI能够同时理解参考图片和文字修改要求,实现精准的图像检索。该系统无需额外训练,在多个权威测试中显著超越现有方法,为未来更智能的图片搜索体验奠定了技术基础。
香港中文大学研究团队提出单词汇滚动训练法,通过将AI文本生成的每个词汇选择视为独立学习机会,在监督学习框架内引入强化学习优势。该方法在数学推理、代码生成和通用推理任务上均显著优于传统监督微调,有效减少灾难性遗忘,为AI训练提供了新的高效路径。
Meta研究团队通过大规模控制实验发现,大语言模型仅通过文本训练就能获得视觉能力,这种能力由推理和感知两个独立组件构成。推理能力主要来自代码、数学等逻辑性文本,可跨模态迁移;感知能力来自多样化网络文本。团队提出60%推理+15%视觉的最佳数据配方,并在1万亿标记的大规模实验中验证了有效性,为刻意培养多模态AI能力提供了系统性指导。
韩国大学研究团队首次揭示了AI推理模型训练后内部结构的神奇变化。研究发现,不同训练方法会在AI"大脑"中激活不同类型的"注意力头":知识蒸馏在前中部建立连接,监督微调在后部形成推理网络,群体策略优化则产生精简高效的分布式网络。虽然这些训练提升了复杂推理能力,但也带来"过度思考"的副作用,让AI在简单问题上容易出错。
微软亚洲研究院团队通过理论分析揭示了强化学习让AI具备规划能力的内在机制。研究发现传统监督学习存在"共现偏差"问题,而强化学习通过探索能力实现更好泛化。在强化学习方法中,策略梯度存在"多样性塌陷"现象,而Q学习在使用过程奖励时能同时保持高准确率和多样性,并支持离线学习,为AI系统设计提供了重要指导。
威斯康星大学研究团队通过创新的"链式嵌入对比"方法,首次发现AI视觉语言模型存在明确的"视觉整合点"——模型真正开始利用视觉信息的关键层级。研究开发了"总视觉整合度"指标来量化模型的视觉依赖程度,通过54种模型-数据集组合验证了发现的普遍性。这项研究为诊断和改进AI模型的"语言先验"问题提供了有力工具,对构建更可靠的AI系统具有重要意义。