MemMachine - MemVerge推出的开源AI记忆系统

MemMachine是MemVerge公司开发的开源AI记忆系统,专为AI大模型和智能体设计,能像人脑一样存储和回忆交互数据,解决AI“无状态失忆”问题。采用分层架构(短期记忆、长期记忆、用户画像),支持跨模型调用,准确率达92.34%,在LOCOMO基准测试中以84.87%得分领先行业。其技术已应用于医疗陪护等场景,可拦截83%用药错误,并计划拓展至2030年达284.5亿美元的AI记忆市场。企业版提供安全合规的商用方案,开源项目可通过GitHub获取MemMachine - MemVerge推出的开源AI记忆系统

>>展开阅读

Mistral 3 - Mistral AI发布开源的最新多模态大模型系列

Mistral 3是Mistral AI发布开源的最新多模态大模型系列,包含旗舰模型Mistral Large 3(675B总参数)和轻量版Ministral系列(3B/8B/14B),均支持图像理解与多语言处理,采用Apache 2.0协议开源。其中Mistral Large 3在开源模型中性能排名前列,Ministral系列以高性价比著称,14B推理版本在AIME 2025测试中准确率达85%。特别适配边缘设备部署,兼顾企业级应用需求,如智能客服和数据分析。Mistral 3 - Mistral AI发布开源的最新多模态大模型系列

>>展开阅读

GigaWorld-0 - 极佳视界开源的世界模型框架

GigaWorld-0是国内具身智能创业公司极佳视界(GigaAI)开源的世界模型框架,主要用于解决具身智能(Embodied AI)领域的数据瓶颈问题。高效生成高质量、多样化且物理真实的训练数据,推动具身 AI 的发展。包含两个核心组件:GigaWorld-0-Video 和 GigaWorld-0-3D。前者通过大规模视频生成技术,精细控制环境外观、摄像机视角和动作语义,生成纹理丰富、时间连贯的具身交互视频序列;后者结合 3D 建模、高斯点绘制重建、物理可微系统辨识和运动规划,确保数据的几何一致性和物理真实性。GigaWorld-0 - 极佳视界开源的世界模型框架

>>展开阅读

Vidi2 - 字节跳动开源的多模态视频理解与生成大模型

Vidi2是字节跳动开源的第二代多模态视频理解与生成大模型,专注于视频内容的理解、分析和创作。支持文本、视频、音频三种模态的联合输入,能同时理解画面内容、声音信息以及自然语言指令,实现跨模态的交互与推理。可精准定位视频中特定事件或目标对象的时间范围和空间位置,模型能自动标注出对应的时间段和画面中的目标区域,误差可精确到毫秒级。能处理数小时长的原始视频素材,快速检索出符合特定语义的片段。Vidi2 - 字节跳动开源的多模态视频理解与生成大模型

>>展开阅读

AI for Science,走到哪一步了?

人工智能正以前所未有的速度重塑科学研究版图。众多科研领域中,生命科学、生物医药等生物学领域凭借数据丰富、应用场景明确、社会需求迫切等因素,成为AI+科学研究(以下简称 科学智 能)最活跃、最具引领性的前沿阵地。AI模型和工具不仅在预测蛋白质结构等基础研究上取得突破,更在推动全新药物管线进入临床试验,甚至开始自主发现新的生物学通路 。

>>展开阅读

Alpamayo-R1 - 英伟达开源的带推理能力的视觉-语言-行动模型

Alpamayo-R1是英伟达研发的具有推理能力的视觉-语言-行动(VLA)模型,专为提升自动驾驶在复杂场景中的决策能力设计。通过引入因果链推理机制,让车辆能像人类驾驶员一样分析场景因果关系(如“因前方有行人需减速”),而非单纯执行预设指令。模型采用多摄像头输入和轻量级编码技术降低计算成本,并通过强化学习优化轨迹规划,实测在长尾场景中使事故风险降低35%。创新点包括结构化因果标注数据集和模块化设计,支持实时推理延迟低于100毫秒。Alpamayo-R1 - 英伟达开源的带推理能力的视觉-语言-行动模型

>>展开阅读

Ovis-Image - 阿里AIDC-AI团队开源的文生图模型

Ovis-Image 是阿里巴巴国际数字商务集团 AIDC-AI 团队开源的 70 亿参数文生图模型,专注于高质量文本渲染。基于 Ovis-U1 架构,继承了先进的视觉解码器和双向 Token 精炼器,能处理复杂的文本布局需求,如海报、横幅、LOGO 等。Ovis-Image 在文本渲染方面表现出色,支持多种字体、尺寸和长宽比,同时保持清晰可辨的文本和语义连贯性。Ovis-Image - 阿里AIDC-AI团队开源的文生图模型

>>展开阅读

悟界·Emu3.5 - 智源研究院开源的多模态世界大模型

悟界·Emu3.5是北京智源人工智能研究院开源的多模态世界大模型,参数量达340亿,具备原生世界建模能力。通过10万亿多模态Token(含790年视频数据)训练,能模拟物理规律,实现图文生成、视觉指导、世界探索等任务。创新的"离散扩散自适应"技术使其图像生成速度提升20倍,性能超越Nano Banana模型。模型已开源,适用于具身智能、虚拟场景构建等领域。悟界·Emu3.5 - 智源研究院开源的多模态世界大模型

>>展开阅读