2月11日 AI 速报 · 第 21 期
## 🔍 核心洞察
**Qwen-Image-2.0** 以**2K分辨率**、**1K token长指令支持**和突破性的**中文文本渲染能力**重塑多模态生成基准;**ElevenLabs** 全面升级 **Expressive Mode**,覆盖**70+语言**并深度赋能**ElevenAgents**;**达摩院 RynnBrain** 成为全球首个支持**移动操作的具身大脑基础模型**;**Runway** 获**3.15亿美元E轮融资**,全力冲刺**世界模型**实用化。
## 🚀 重点动态
- **Qwen-Image-2.0 正式发布**:阿里通义千问推出次世代图像模型,支持2K高清输出、1K长文本指令及多图协同编辑,中文生图“不拧巴”成为现实。
- **ElevenLabs Expressive Mode 全面商用**:赋予AI语音智能体类人情感智能与品牌调性适配能力,并已集成至 **ElevenAgents** 平台。
- **Expressive Mode 扩展至70+语言**:显著提升印地语等低资源语言的情感细腻度,推动全球化情感语音交互落地。
- **达摩院开源 RynnBrain**:首个支持真实移动操作的具身基础模型,融合时空记忆与文本-空间交错推理,大幅提升机器人物理环境泛化与规划能力。
- **Runway 完成3.15亿美元E轮融资**:资金将聚焦于具有因果推断与物理常识的**世界模型**研发,加速AIGC向“可预测、可干预”演进。
- **理想汽车开源 RubricHub**:首创开放式生成任务的**精细化评分细则框架**,助力中小模型在医疗等垂直领域实现对GPT-5级模型的精准逆袭。
- **Thesys Agent Builder 上线**:基于**意图驱动**与**生成式UI**的无代码Agent构建新范式,彻底摆脱预定义路径依赖。
- **a16z 提出AI视频新胜负手**:竞争重心从“生成”转向“隐形后期团队”——AI Agent正通过叙事理解、工具调度与审美优化,重构专业视频工作流。