来自上海交通大学和浙江大学等机构的研究团队开发出首个AI"记忆操作系统"MemOS,解决了AI系统无法实现人类般持久记忆和学习的根本限制。该系统将记忆视为核心计算资源进行调度、共享和演化,在时间推理任务中相比OpenAI记忆系统性能提升159%。MemOS采用三层架构设计,通过标准化记忆单元实现跨平台记忆迁移,有望改变企业AI部署模式。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
IBM今日推出全新Power11系列服务器,基于同名定制处理器。该系列首批包含四款机型,并将通过公有云提供Power11芯片访问。与英特尔同类服务器相比,核心性能提升达55%。Power11设计可实现99.9999%可用性,年停机时间不超过40秒。系统配备Cyber Vault网络安全技术,采用量子安全加密算法,可在一分钟内检测勒索软件。新的节能模式可降低28%的能耗,并首次支持IBM Spyre AI加速器。
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
日本三井商船计划将船舶改造为浮动数据中心,容量可达20-73兆瓦,采用海水或河水直接冷却。该项目预计2027年投入运营,可通过陆地和海底电缆连接互联网交换中心。浮动数据中心的优势在于可根据需求变化移动位置,建设周期仅需一年,无需获取土地。该项目与土耳其Kinetics公司合作,可通过配套电力船供电,解决电网连接问题。
随着AI引发投资热潮,每月都有更多初创企业获得独角兽地位。TechCrunch追踪了今年迄今为止成为独角兽的风投支持初创企业。虽然大多数与AI相关,但令人意外的是许多企业专注于其他行业,如卫星公司Loft Orbital和区块链交易网站Kalshi。这些价值超过10亿美元的初创企业涵盖软件开发、机器人技术、医疗健康等多个领域。
随着AI应用在企业运营中的普及,数据存储成为关键瓶颈。在VentureBeat的Transform 2025会议上,专家们讨论了存储技术创新如何支持企业AI应用。MONAI框架在医学成像领域取得突破,通过高效存储技术能够在单节点存储超过200万个全身CT扫描。边缘AI性能的关键在于将存储缩放到单节点,消除内存瓶颈。未来AI硬件将朝向超高容量、低功耗和接近内存速度的方向发展。
谷歌正在实施一项变更,使其Gemini AI引擎能够与WhatsApp等第三方应用程序交互,即使用户之前配置了阻止此类交互的设置。谷歌发送的邮件表明,人工审核员会读取、注释和处理Gemini访问的数据,但未提供阻止变更生效的有用指导。邮件内容自相矛盾,既称变更会自动推出,又声称已关闭的功能将保持关闭状态。谷歌未明确说明如何完全移除Gemini集成,给用户造成困惑。
随着人工智能向通用人工智能(AGI)和人工超级智能(ASI)发展,盗窃风险日益凸显。竞争对手、政府和恶意行为者都可能觊觎这一技术突破。AGI盗窃难度取决于安全防护措施,包括加密和访问控制。被盗AGI的运行需要大量计算资源和配套软件。全球可能需要制定AGI共享条约,防范盗窃行为。值得注意的是,当恶意方首先获得AGI时,善意方的"盗窃"行为可能成为正当防卫手段。
贝壳找房开发的AM-Thinking-v1是一个32B参数的推理优化语言模型,完全基于开源数据训练。该模型在数学推理和代码生成任务上表现出色,AIME2024得分85.3,超越了671B的DeepSeek-R1,证明了通过精心设计的训练流程,中等规模密集模型也能达到超大模型的推理能力。
复旦大学团队开发了全新的多维约束框架来评估和改进大语言模型的指令跟随能力。研究发现AI在处理复杂约束时表现不佳,成功率从简单约束的77%降至复杂约束的33%。通过强化学习训练,模型性能显著提升30-50个百分点且不影响其他能力。研究揭示改进主要来自注意力机制优化,为AI实用化提供了重要突破。
加州大学伯克利分校研究团队开发了gg-bench系统,让AI自己设计策略游戏来测试其他AI的智能水平。研究发现,即使是最先进的AI模型,在面对自己"同类"设计的游戏时胜率也只有7-36%,揭示了AI在创造和解决问题之间的能力差异。这项研究为避免传统AI测试中的"数据污染"问题提供了创新解决方案。
华盛顿大学研究团队开发出世界首个主动式耳机AI助手LLAMAPIE,能够在用户对话中主动提供简短关键词提醒,无需用户主动询问。该系统采用双模型架构,在真人测试中将问答准确率从37%提升至87%,同时保持对话自然流畅。这项技术为人机交互带来新突破,在教育、商务和辅助医疗等领域具有广阔应用前景。
MIT等顶尖院校研究团队发现AI处理长文本时存在"记忆过载"问题,提出OPRM溢出预防方法,通过"分而治之"策略让AI学会聪明遗忘,性能提升14%-51%。该方法类似智能图书管理员,先快速浏览所有相关内容,再专注分析最相关部分,避免了传统方法的记忆溢出困境,为实现更高效的长文本AI应用开辟新路径。
第二届欧洲健康大会汇聚了全球健康领域领导者、初创企业、投资者和开发者,对当前医疗创新现状及未来发展进行年中评估。在经济不确定性和监管优先级变化的背景下,制药、健康科技和医疗服务领域都在竞相证明价值并扩大创新规模。会议涵盖了GLP-1药物兴起、真正的患者中心化、AI的潜力与陷阱,以及为大胆创新想法提供资金的途径等热点话题。
全球风险投资资金在今年第二季度表现强劲,总资金从去年同期的820亿美元增长至910亿美元。AI公司获得400亿美元投资,占季度全球总额的45%。其中Scale AI单笔融资143亿美元创纪录。美国初创企业获得600亿美元,占全球风投资金的三分之二。2025年上半年全球风投总额达2050亿美元,同比增长32%,显示投资环境日益偏向大规模融资。
中山大学联合深圳气象创新研究院开发出PASSAT模型,这是首个同时融合物理约束和球面拓扑的AI天气预报系统。该模型通过球面图神经网络处理地气相互作用,用物理方程计算大气流动,避免了传统平面投影的几何扭曲问题。测试显示PASSAT在多项指标上超越现有AI模型,甚至优于部分业务化数值预报系统,为AI气象预报开辟了新路径。
MIT开发的NANDA协议为AI智能体提供完整的交互平台,通过加密身份验证、智能体注册和分布式账本技术,实现智能体在分布式环境中的安全、可扩展和自主运行。该协议类似于为AI智能体建立组织架构,赋予它们身份、角色和职责,支持多智能体系统协作。专家认为NANDA将解决信任、文化和编排三大挑战,并可能颠覆传统商业模式。