<?xml version="1.0" encoding="utf-8"?>
<feed xmlns="http://www.w3.org/2005/Atom">
  <author>
    <name>Cocoloop</name>
  </author>
  <generator uri="https://hexo.io/">Hexo</generator>
  <id>https://news.cocoloop.cn/</id>
  <link href="https://news.cocoloop.cn/" rel="alternate"/>
  <link href="https://news.cocoloop.cn/atom.xml" rel="self"/>
  <rights>All rights reserved 2026, Cocoloop</rights>
  <subtitle>AI前沿资讯与深度分析</subtitle>
  <title>News - Cocoloop</title>
  <updated>2026-04-07T14:03:23.475Z</updated>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="Perplexity" scheme="https://news.cocoloop.cn/tags/Perplexity/"/>
    <category term="AI搜索" scheme="https://news.cocoloop.cn/tags/AI%E6%90%9C%E7%B4%A2/"/>
    <category term="产品" scheme="https://news.cocoloop.cn/tags/%E4%BA%A7%E5%93%81/"/>
    <content>
      <![CDATA[<p>Perplexity最近两年的增长有点猛。在Google几乎垄断搜索市场二十多年后，居然有人从AI角度撕开了一个口子。</p><h2 id="和传统搜索的区别"><a href="#和传统搜索的区别" class="headerlink" title="和传统搜索的区别"></a>和传统搜索的区别</h2><p>Google给你的是<strong>链接列表</strong>——你需要自己点进去、阅读、判断、综合。</p><p>Perplexity给你的是<strong>直接回答</strong>——它帮你读了相关网页，提取信息，组织成结构化的回答，并附上来源引用。</p><p>这个差别在简单问题上不明显。但在需要综合多个信息源的复杂问题上，<strong>Perplexity能帮你省掉大量的阅读和筛选时间</strong>。</p><h2 id="技术路线"><a href="#技术路线" class="headerlink" title="技术路线"></a>技术路线</h2><p>Perplexity的底层不是自研大模型，而是<strong>调用外部模型</strong>（包括GPT和Claude）+ 自己的搜索和RAG系统。</p><p>核心能力在于：</p><ul><li>实时搜索和信息抓取</li><li>对搜索结果的理解和摘要</li><li>多源信息的整合和对比</li><li>来源追溯（每个观点都能找到出处）</li></ul><h2 id="使用场景"><a href="#使用场景" class="headerlink" title="使用场景"></a>使用场景</h2><p>最适合：</p><ul><li>学术和技术调研（快速了解一个领域）</li><li>事实性查询（数据、日期、定义）</li><li>多视角比较（不同方案的优劣对比）</li></ul><p>不太适合：</p><ul><li>发现式浏览（随便逛逛看看有什么新鲜事）</li><li>非常新的突发消息（搜索索引有延迟）</li></ul><h2 id="竞争格局"><a href="#竞争格局" class="headerlink" title="竞争格局"></a>竞争格局</h2><p>Google推出了AI Overview来应对，Bing整合了Copilot。但Perplexity的优势在于<strong>它从第一天就是为AI回答设计的</strong>，没有”从传统搜索改造”的包袱。</p><p>不过Perplexity面对的一个根本挑战是：<strong>如果所有人都用AI回答引擎而不点击原始网页，内容创作者的流量来源就断了</strong>。这和当年Google被内容行业质疑是一样的逻辑，只是影响可能更深。</p><p class="source-ref">参考来源：Perplexity官方产品、科技媒体分析</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/perplexity-ai-search/</id>
    <link href="https://news.cocoloop.cn/2026/04/perplexity-ai-search/"/>
    <published>2026-04-07T15:45:00.000Z</published>
    <summary>
      <![CDATA[<p>Perplexity最近两年的增长有点猛。在Google几乎垄断搜索市场二十多年后，居然有人从AI角度撕开了一个口子。</p>
<h2 id="和传统搜索的区别"><a href="#和传统搜索的区别" class="headerlink"]]>
    </summary>
    <title>Perplexity做的不是搜索引擎，是&quot;回答引擎&quot;</title>
    <updated>2026-04-07T14:03:23.475Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="行业趋势" scheme="https://news.cocoloop.cn/tags/%E8%A1%8C%E4%B8%9A%E8%B6%8B%E5%8A%BF/"/>
    <category term="开源" scheme="https://news.cocoloop.cn/tags/%E5%BC%80%E6%BA%90/"/>
    <category term="闭源" scheme="https://news.cocoloop.cn/tags/%E9%97%AD%E6%BA%90/"/>
    <content>
      <![CDATA[<p>两年前”开源能追上闭源吗”还是个有争议的问题，现在答案已经很清楚了：<strong>在大部分常规任务上，开源已经追平甚至超过了。</strong></p><h2 id="当前格局"><a href="#当前格局" class="headerlink" title="当前格局"></a>当前格局</h2><p><strong>开源阵营</strong>：</p><ul><li>DeepSeek V3&#x2F;R1——顶级性能，极低成本</li><li>Llama 4 Scout&#x2F;Maverick——原生多模态</li><li>Qwen3——Apache 2.0全线开源</li><li>Kimi K2——万亿参数开放权重</li></ul><p><strong>闭源阵营</strong>：</p><ul><li>GPT-5.x系列</li><li>Claude Opus 4.x系列</li><li>Gemini 2.5 Pro</li></ul><h2 id="闭源还剩什么优势？"><a href="#闭源还剩什么优势？" class="headerlink" title="闭源还剩什么优势？"></a>闭源还剩什么优势？</h2><ol><li><strong>极端能力上限</strong>：SWE-bench顶部的几个百分点还是闭源占优</li><li><strong>产品化体验</strong>：ChatGPT、Claude的用户体验显著优于开源模型的部署</li><li><strong>安全与合规</strong>：企业客户需要的SLA、审计、合规支持</li><li><strong>持续迭代速度</strong>：头部闭源公司的迭代频率和投入规模</li></ol><h2 id="开源正在蚕食什么？"><a href="#开源正在蚕食什么？" class="headerlink" title="开源正在蚕食什么？"></a>开源正在蚕食什么？</h2><ul><li><strong>中低端应用场景</strong>：开源模型已经完全够用</li><li><strong>私有化部署</strong>：数据敏感行业只能用开源</li><li><strong>定价基准</strong>：开源模型的成本倒逼闭源降价</li><li><strong>创新扩散</strong>：MoE、混合推理等技术通过开源快速传播</li></ul><h2 id="2026年的欧盟AI法案"><a href="#2026年的欧盟AI法案" class="headerlink" title="2026年的欧盟AI法案"></a>2026年的欧盟AI法案</h2><p>EU AI Act对开源有专门的豁免条款，但”高风险”应用除外。这个法规框架对开源社区总体偏友好，但具体执行中仍有很多灰色地带。</p><p><strong>预判</strong>：未来的格局可能不是”开源取代闭源”，而是分层——底层基础模型开源化，上层应用和服务闭源化。闭源的价值从”模型本身”转向”围绕模型的服务和体验”。</p><p class="source-ref">参考来源：各公司发布、EU AI Act文本</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/open-vs-closed-source-ai/</id>
    <link href="https://news.cocoloop.cn/2026/04/open-vs-closed-source-ai/"/>
    <published>2026-04-07T15:00:00.000Z</published>
    <summary>
      <![CDATA[<p>两年前”开源能追上闭源吗”还是个有争议的问题，现在答案已经很清楚了：<strong>在大部分常规任务上，开源已经追平甚至超过了。</strong></p>
<h2 id="当前格局"><a href="#当前格局" class="headerlink" title="当前格局"></a>当前格局</h2><p><strong>开源阵营</strong>：</p>
<ul>
<li>DeepSeek V3&#x2F;R1——顶级性能，极低成本</li>
<li>Llama 4 Scout&#x2F;Maverick——原生多模态</li>
<li>Qwen3——Apache]]>
    </summary>
    <title>开源 vs 闭源大模型：2026年的攻防格局</title>
    <updated>2026-04-07T14:03:23.475Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="API定价" scheme="https://news.cocoloop.cn/tags/API%E5%AE%9A%E4%BB%B7/"/>
    <category term="AI行业" scheme="https://news.cocoloop.cn/tags/AI%E8%A1%8C%E4%B8%9A/"/>
    <category term="商业化" scheme="https://news.cocoloop.cn/tags/%E5%95%86%E4%B8%9A%E5%8C%96/"/>
    <content>
      <![CDATA[<p>2025到2026年，AI API的定价经历了一场堪比电商大战的价格厮杀。</p><h2 id="降价潮"><a href="#降价潮" class="headerlink" title="降价潮"></a>降价潮</h2><p>DeepSeek的低成本策略给整个行业施加了巨大的降价压力。当R1的运行成本只有OpenAI同级模型的<strong>1&#x2F;20到1&#x2F;50</strong>时，闭源厂商的定价逻辑直接被动摇了。</p><p>OpenAI的应对是不断推出<strong>更小更便宜的版本</strong>（Mini、Nano），同时在高端市场维持溢价。GPT-5.4的五个版本覆盖了从几美元到几十美元的完整价位区间。</p><p>Anthropic走的是<strong>分层策略</strong>——Haiku便宜快速、Sonnet均衡、Opus贵但强。Claude Code的$20&#x2F;月起步价在同类产品里属于中等。</p><h2 id="隐性涨价"><a href="#隐性涨价" class="headerlink" title="隐性涨价"></a>隐性涨价</h2><p>有些厂商在明面上没涨价，但通过<strong>限流、缩减免费额度、调整token计费方式</strong>实现了变相涨价。不少开发者反映API的实际使用成本比一年前高了。</p><p>Claude Code用户反馈的限流问题就是一个典型——$100&#x2F;月的Max方案有时候一个prompt就把配额用光了。表面上月费没变，但实际可用量在收紧。</p><h2 id="定价趋势"><a href="#定价趋势" class="headerlink" title="定价趋势"></a>定价趋势</h2><p>几个判断：</p><ol><li><strong>基础对话能力</strong>会持续降价，趋向commodity</li><li><strong>推理能力和agent能力</strong>是新的定价锚点</li><li><strong>按任务计费</strong>（而不是按token计费）可能成为新趋势</li><li>开源模型会继续压低闭源模型的定价空间</li></ol><p>最终可能的格局是：基础模型能力接近免费，高级能力（深度推理、agent、长上下文）按需付费。有点像当年云计算的演变——基础计算变便宜，高级服务溢价。</p><p class="source-ref">参考来源：各公司API定价页面、行业分析</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/ai-token-pricing-war/</id>
    <link href="https://news.cocoloop.cn/2026/04/ai-token-pricing-war/"/>
    <published>2026-04-07T14:30:00.000Z</published>
    <summary>
      <![CDATA[<p>2025到2026年，AI API的定价经历了一场堪比电商大战的价格厮杀。</p>
<h2 id="降价潮"><a href="#降价潮" class="headerlink"]]>
    </summary>
    <title>AI API定价战争：谁在降价，谁在偷偷涨价</title>
    <updated>2026-04-07T14:03:23.475Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI能耗" scheme="https://news.cocoloop.cn/tags/AI%E8%83%BD%E8%80%97/"/>
    <category term="环境" scheme="https://news.cocoloop.cn/tags/%E7%8E%AF%E5%A2%83/"/>
    <category term="数据中心" scheme="https://news.cocoloop.cn/tags/%E6%95%B0%E6%8D%AE%E4%B8%AD%E5%BF%83/"/>
    <content>
      <![CDATA[<p>AI大模型的能源消耗正在成为一个不可忽视的问题。</p><h2 id="训练成本"><a href="#训练成本" class="headerlink" title="训练成本"></a>训练成本</h2><p>大模型训练的电力消耗极其惊人。以GPT-4级别的模型为参考：</p><ul><li>单次训练消耗的电量相当于<strong>几百个美国家庭一年的用电量</strong></li><li>微软、Google、Meta的AI数据中心建设正在推高全球数据中心的能耗占比</li></ul><p>更可怕的是推理端。训练是一次性的，但推理是持续的。全球每天数以亿计的AI调用，累积的推理能耗可能已经超过了训练。</p><h2 id="各公司的应对"><a href="#各公司的应对" class="headerlink" title="各公司的应对"></a>各公司的应对</h2><p><strong>微软</strong>签了大量的可再生能源购买协议，甚至在探索小型核反应堆为数据中心供电。</p><p><strong>Google</strong>承诺AI相关运营100%使用无碳能源，但实际执行中”碳中和”和”真正无碳”有很大差距。</p><p><strong>DeepSeek的路线</strong>倒是提供了另一种视角——与其用更多GPU暴力训练，不如用更聪明的方法（MoE、FP8、更高效的架构）把计算量本身降下来。<strong>$550万训一个顶级模型</strong>的做法，从能源角度来看也是最环保的。</p><h2 id="矛盾"><a href="#矛盾" class="headerlink" title="矛盾"></a>矛盾</h2><p>AI的能耗问题和AI的发展速度之间存在根本矛盾：</p><ul><li>模型越大、能力越强，能耗越高</li><li>用户对AI的依赖越深，推理请求越多</li><li>数据中心的建设速度追不上AI算力的需求增速</li></ul><p>一些研究者预测，到2030年AI相关的电力消耗可能占到全球总用电量的<strong>3-5%</strong>。这个数字看起来不大，但绝对量非常可观。</p><p>效率优化（量化、蒸馏、MoE等）是目前最现实的解决方案。靠可再生能源完全覆盖AI能耗在中短期内不太现实。</p><p class="source-ref">参考来源：IEA数据中心能耗报告、各公司可持续发展报告</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/ai-energy-consumption/</id>
    <link href="https://news.cocoloop.cn/2026/04/ai-energy-consumption/"/>
    <published>2026-04-07T14:00:00.000Z</published>
    <summary>
      <![CDATA[<p>AI大模型的能源消耗正在成为一个不可忽视的问题。</p>
<h2 id="训练成本"><a href="#训练成本" class="headerlink"]]>
    </summary>
    <title>训练一个大模型到底要烧多少电</title>
    <updated>2026-04-07T14:03:23.475Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI影响" scheme="https://news.cocoloop.cn/tags/AI%E5%BD%B1%E5%93%8D/"/>
    <category term="程序员" scheme="https://news.cocoloop.cn/tags/%E7%A8%8B%E5%BA%8F%E5%91%98/"/>
    <category term="就业" scheme="https://news.cocoloop.cn/tags/%E5%B0%B1%E4%B8%9A/"/>
    <content>
      <![CDATA[<p>每次AI编程工具有大更新，社交媒体上就会炸一波”程序员要失业了”的讨论。那实际情况怎样？</p><h2 id="METR的研究很打脸"><a href="#METR的研究很打脸" class="headerlink" title="METR的研究很打脸"></a>METR的研究很打脸</h2><p>AI安全研究组织METR做了一个严格的实验：让有经验的开发者分别在有和没有AI辅助的情况下完成编程任务。</p><p>结果：<strong>用了AI工具的开发者反而慢了19%。</strong></p><p>是的，你没看错。有经验的开发者使用AI辅助后效率<strong>下降</strong>了，而不是提升。原因主要是花在审查和修正AI输出上的时间超过了AI节省的时间。</p><p>不过这个研究有一些限制条件——实验设计、任务类型、使用的具体工具都会影响结论。它不代表”AI编程工具没用”，而是说明<strong>在某些场景下，AI工具的投入产出比不像想象中那么高</strong>。</p><h2 id="更多数据点"><a href="#更多数据点" class="headerlink" title="更多数据点"></a>更多数据点</h2><p>GitHub自己的数据显示，使用Copilot的开发者在代码补全场景下效率确实有提升，尤其是写<strong>样板代码和重复性工作</strong>时。</p><p>但在需要<strong>架构设计、需求理解、bug调试</strong>这些”真正费脑子”的环节，AI目前还帮不了太多——甚至可能因为给出错误建议而帮倒忙。</p><h2 id="实际影响"><a href="#实际影响" class="headerlink" title="实际影响"></a>实际影响</h2><p>目前更准确的判断是：</p><ul><li>AI不会”替代”程序员，但会<strong>改变程序员的工作内容</strong></li><li>写代码的时间会减少，review和验证的时间会增加</li><li>对初级开发者的需求可能减少，对能驾驭AI工具的高级开发者需求可能增加</li><li>“会用AI工具”正在变成和”会Git”一样的基本技能</li></ul><p>恐慌和盲目乐观都没必要。这个领域变化太快，最靠谱的策略就是<strong>持续学习，把AI工具当成工具而不是替代品</strong>。</p><p class="source-ref">参考来源：METR研究报告、GitHub年度调查</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/ai-developer-jobs-impact/</id>
    <link href="https://news.cocoloop.cn/2026/04/ai-developer-jobs-impact/"/>
    <published>2026-04-07T13:30:00.000Z</published>
    <summary>
      <![CDATA[<p>每次AI编程工具有大更新，社交媒体上就会炸一波”程序员要失业了”的讨论。那实际情况怎样？</p>
<h2 id="METR的研究很打脸"><a href="#METR的研究很打脸" class="headerlink"]]>
    </summary>
    <title>AI会抢走程序员的饭碗吗？数据说话可能和你想的不一样</title>
    <updated>2026-04-07T14:03:23.475Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI Agent" scheme="https://news.cocoloop.cn/tags/AI-Agent/"/>
    <category term="行业趋势" scheme="https://news.cocoloop.cn/tags/%E8%A1%8C%E4%B8%9A%E8%B6%8B%E5%8A%BF/"/>
    <content>
      <![CDATA[<p>“AI Agent”在2025年还是个有点模糊的概念，到了2026年已经变成了具体的产品和工具链。</p><h2 id="几个明确的信号"><a href="#几个明确的信号" class="headerlink" title="几个明确的信号"></a>几个明确的信号</h2><p><strong>微软</strong>把Copilot改造成了agent架构（Copilot Cowork），5月上线Agent 365统一管理平面。<strong>GitHub</strong>的Copilot可以接受issue作为输入自主完成开发。<strong>Anthropic</strong>的Claude Code本身就是一个终端里的编程agent。<strong>OpenAI</strong>的GPT-5.4支持Computer Use——可以操控电脑完成任务。</p><p>从”聊天机器人”到”能干活的agent”，这个转变在2026年Q1集中爆发了。</p><h2 id="当前的能力边界"><a href="#当前的能力边界" class="headerlink" title="当前的能力边界"></a>当前的能力边界</h2><p>坦率讲，现在的AI Agent还处于**”能干一些结构化任务，干不了真正复杂的工作”**这个阶段。</p><p>擅长的：</p><ul><li>在定义明确的范围内完成编程任务</li><li>基于规则的流程自动化</li><li>信息检索和汇总</li></ul><p>不擅长的：</p><ul><li>需要大量领域知识和判断力的决策</li><li>跨系统、跨团队的协调</li><li>处理模糊的、不断变化的需求</li></ul><h2 id="MCP协议的作用"><a href="#MCP协议的作用" class="headerlink" title="MCP协议的作用"></a>MCP协议的作用</h2><p>Agent需要和外部工具对接，MCP协议解决了”怎么连”的问题。有了统一的工具接入标准之后，agent的能力扩展变得标准化了——不需要为每个工具单独写连接器。</p><h2 id="竞争焦点"><a href="#竞争焦点" class="headerlink" title="竞争焦点"></a>竞争焦点</h2><p>国内外AI公司在agent方向上的布局高度趋同：</p><ul><li><strong>阿里</strong>（Qwen3.6-Plus强化agent能力）</li><li><strong>月之暗面</strong>（Kimi K2.5的Agent Swarm）</li><li><strong>字节</strong>（内部多个agent产品线）</li><li><strong>智谱</strong>（GLM系列+AutoGLM）</li></ul><p>大家都在从”模型能力”竞争转向”agent生态”竞争。模型本身开始变成commodity，围绕模型的工具链、工作流和生态才是下一阶段的护城河。</p><p class="source-ref">参考来源：各公司官方发布、行业分析</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/ai-agent-landscape-2026/</id>
    <link href="https://news.cocoloop.cn/2026/04/ai-agent-landscape-2026/"/>
    <published>2026-04-07T12:55:00.000Z</published>
    <summary>
      <![CDATA[<p>“AI Agent”在2025年还是个有点模糊的概念，到了2026年已经变成了具体的产品和工具链。</p>
<h2 id="几个明确的信号"><a href="#几个明确的信号" class="headerlink" title="几个明确的信号"></a>几个明确的信号</h2><p><strong>微软</strong>把Copilot改造成了agent架构（Copilot Cowork），5月上线Agent]]>
    </summary>
    <title>2026年的AI Agent生态长什么样</title>
    <updated>2026-04-07T14:03:23.475Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI开发" scheme="https://news.cocoloop.cn/tags/AI%E5%BC%80%E5%8F%91/"/>
    <category term="RAG" scheme="https://news.cocoloop.cn/tags/RAG/"/>
    <category term="检索增强" scheme="https://news.cocoloop.cn/tags/%E6%A3%80%E7%B4%A2%E5%A2%9E%E5%BC%BA/"/>
    <content>
      <![CDATA[<p>去年年初一度有人预言”RAG已死，长上下文模型会取代一切”。结果呢？RAG不但没死，反而进化了。</p><h2 id="从RAG到Context-Engine"><a href="#从RAG到Context-Engine" class="headerlink" title="从RAG到Context Engine"></a>从RAG到Context Engine</h2><p>RAG最初的定义是”检索增强生成”——从外部数据库捞信息，塞给模型一起用。但到2025年底，这个概念已经<strong>膨胀成了更广义的”上下文工程”</strong>。</p><p>核心逻辑没变：帮模型<strong>动态获取它需要的上下文信息</strong>。但做法从”简单的向量检索+拼接”进化成了一整套智能上下文装配系统。</p><h2 id="为什么长上下文没有替代RAG？"><a href="#为什么长上下文没有替代RAG？" class="headerlink" title="为什么长上下文没有替代RAG？"></a>为什么长上下文没有替代RAG？</h2><p>理论上100万token的上下文窗口可以塞进去很多东西。但现实是：</p><ol><li><strong>成本</strong>：每次调用都塞100万token，API费用扛不住</li><li><strong>精度</strong>：上下文越长，检索准确率越低（Opus 4.6在100万token时也只有76%）</li><li><strong>延迟</strong>：塞满上下文意味着更长的处理时间</li></ol><p>RAG的核心优势是<strong>按需检索</strong>——只拿最相关的信息，不塞废话。这个优势并不会因为上下文窗口变大而消失。</p><h2 id="2025年的技术进展"><a href="#2025年的技术进展" class="headerlink" title="2025年的技术进展"></a>2025年的技术进展</h2><p><strong>混合检索</strong>：语义搜索+关键词搜索+知识图谱组合使用，效果稳定优于任何单一方法。</p><p><strong>GraphRAG</strong>：把知识抽取成图谱结构，层次化组织，提升推理能力。</p><p><strong>多模态RAG</strong>：把图片、音频、表格、视频的embedding也纳入检索范围。</p><h2 id="企业采用加深"><a href="#企业采用加深" class="headerlink" title="企业采用加深"></a>企业采用加深</h2><p>2025年中大型企业已经在系统性地建设RAG基础设施。”RAG即基础设施”这个概念落地了——不是某个应用的组件，而是所有AI应用共用的底层能力。</p><p>对于AI Agent来说，RAG更是刚需。Agent需要从私有数据中精准获取信息来执行任务，这恰好是RAG最擅长的。</p><p>**”易上手难精通”**是RAG最大的挑战。搭一个demo版RAG系统很快，但要做到生产级的精度和稳定性，需要大量的调优工作。</p><p class="source-ref">参考来源：RAGFlow年度回顾</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/rag-retrieval-2026/</id>
    <link href="https://news.cocoloop.cn/2026/04/rag-retrieval-2026/"/>
    <published>2026-04-07T12:25:00.000Z</published>
    <summary>
      <![CDATA[<p>去年年初一度有人预言”RAG已死，长上下文模型会取代一切”。结果呢？RAG不但没死，反而进化了。</p>
<h2 id="从RAG到Context-Engine"><a href="#从RAG到Context-Engine" class="headerlink" title="从RAG到Context Engine"></a>从RAG到Context]]>
    </summary>
    <title>RAG没死，它正在变成AI应用的&quot;上下文引擎&quot;</title>
    <updated>2026-04-07T14:01:07.890Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="技术" scheme="https://news.cocoloop.cn/tags/%E6%8A%80%E6%9C%AF/"/>
    <category term="量化" scheme="https://news.cocoloop.cn/tags/%E9%87%8F%E5%8C%96/"/>
    <category term="蒸馏" scheme="https://news.cocoloop.cn/tags/%E8%92%B8%E9%A6%8F/"/>
    <category term="模型优化" scheme="https://news.cocoloop.cn/tags/%E6%A8%A1%E5%9E%8B%E4%BC%98%E5%8C%96/"/>
    <content>
      <![CDATA[<p>大模型能力越来越强，但部署成本也越来越高。<strong>量化和蒸馏</strong>是目前最主流的两种”把模型变小变快”的技术路线。</p><h2 id="量化：降精度"><a href="#量化：降精度" class="headerlink" title="量化：降精度"></a>量化：降精度</h2><p>核心思路：把模型权重从高精度格式（FP32&#x2F;FP16）压缩到低精度格式（INT8&#x2F;INT4甚至更低）。</p><p><strong>训练后量化（PTQ）</strong><br>最简单直接——模型训完之后直接降精度。通常能把模型大小压缩<strong>75-80%</strong>，精度损失在可接受范围内。适合快速部署。</p><p><strong>量化感知训练（QAT）</strong><br>在训练过程中就让模型适应低精度环境。效果比PTQ好，但需要重新训练。</p><p><strong>量化感知蒸馏（QAD）</strong><br>NVIDIA最近搞的新方法——学生模型同时学习两件事：适应量化误差 + 对齐全精度教师模型。他们的NVFP4-QAD研究证明了FP4精度下也能恢复精度。</p><h2 id="蒸馏：知识转移"><a href="#蒸馏：知识转移" class="headerlink" title="蒸馏：知识转移"></a>蒸馏：知识转移</h2><p>让小模型（学生）模仿大模型（教师）的行为。学生模型通常能达到教师模型**90-95%**的性能，但体积小得多。</p><p>DeepSeek R1的蒸馏版就是典型案例——32B的蒸馏模型打平了o1-mini。</p><h2 id="剪枝：直接砍参数"><a href="#剪枝：直接砍参数" class="headerlink" title="剪枝：直接砍参数"></a>剪枝：直接砍参数</h2><p>识别并移除不重要的参数（权重、神经元或整个层）。通常可以干掉**30-50%**的参数而性能几乎不变。</p><h2 id="推测解码：并行验证"><a href="#推测解码：并行验证" class="headerlink" title="推测解码：并行验证"></a>推测解码：并行验证</h2><p>用一个小的”草稿模型”快速生成多个候选token，再让大模型并行验证。原理类似于”先粗画再精修”，大幅降低了延迟。</p><h2 id="趋势"><a href="#趋势" class="headerlink" title="趋势"></a>趋势</h2><p>NVIDIA的判断是2026年将是**”前沿模型 vs 高效模型”两条路线分化的一年**。混合使用多种优化技术正在成为主流——不是选一种，而是量化+蒸馏+剪枝组合起来用。</p><p>硬件方面，ASIC加速器、chiplet设计和模拟推理芯片都在成熟，GPU不再是唯一的推理选项。</p><p class="source-ref">参考来源：NVIDIA技术博客</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/quantization-distillation-trends/</id>
    <link href="https://news.cocoloop.cn/2026/04/quantization-distillation-trends/"/>
    <published>2026-04-07T11:50:00.000Z</published>
    <summary>
      <![CDATA[<p>大模型能力越来越强，但部署成本也越来越高。<strong>量化和蒸馏</strong>是目前最主流的两种”把模型变小变快”的技术路线。</p>
<h2 id="量化：降精度"><a href="#量化：降精度" class="headerlink"]]>
    </summary>
    <title>量化和蒸馏：把大模型塞进小设备的两大核心技术</title>
    <updated>2026-04-07T14:01:07.890Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="开源" scheme="https://news.cocoloop.cn/tags/%E5%BC%80%E6%BA%90/"/>
    <category term="中国AI" scheme="https://news.cocoloop.cn/tags/%E4%B8%AD%E5%9B%BDAI/"/>
    <category term="Hugging Face" scheme="https://news.cocoloop.cn/tags/Hugging-Face/"/>
    <content>
      <![CDATA[<p>Hugging Face刚出了2026年春季的开源生态报告，几组数据很有冲击力：</p><h2 id="平台规模"><a href="#平台规模" class="headerlink" title="平台规模"></a>平台规模</h2><ul><li>用户：<strong>1300万</strong></li><li>公开模型：<strong>200万+</strong></li><li>公开数据集：<strong>50万+</strong></li></ul><p>三项数据同比都接近翻倍。</p><h2 id="最大的变化：中国模型下载量占41"><a href="#最大的变化：中国模型下载量占41" class="headerlink" title="最大的变化：中国模型下载量占41%"></a>最大的变化：中国模型下载量占41%</h2><p>中国模型在Hugging Face上的下载占比达到了<strong>41%</strong>，<strong>首次超过美国</strong>。</p><p>百度从2024年零发布到2025年发了100多个模型。字节和腾讯各自增长了8到9倍。这个爆发速度说明中国AI公司已经把Hugging Face当成了<strong>全球分发渠道</strong>在经营。</p><h2 id="长尾分布极端"><a href="#长尾分布极端" class="headerlink" title="长尾分布极端"></a>长尾分布极端</h2><p>大约一半的模型总下载量不到200次。而下载量前200的模型（占总数的0.01%）贡献了<strong>49.6%的下载量</strong>。</p><p>头部集中度高到这个程度，意味着绝大多数上传的模型基本没人用。”200万模型”的繁荣数字背后，真正有实际价值的可能只有几千个。</p><h2 id="其他趋势"><a href="#其他趋势" class="headerlink" title="其他趋势"></a>其他趋势</h2><p><strong>独立开发者崛起</strong>：2025年独立开发者贡献的模型下载量占比达到<strong>39%</strong>，而工业界从70%降到了37%。个人和小团队的力量越来越不可忽视。</p><p><strong>机器人领域爆发</strong>：机器人相关数据集从1145个暴涨到<strong>26991个</strong>，成为最大的单一数据集类别。</p><p><strong>韩国主权AI计划</strong>：LG、SK电信、Naver等巨头加入，今年2月三个韩国模型同时登上HF热门。</p><p><strong>开源的全球化格局</strong>正在从”美国主导”转向”中美双驱动+全球参与”。Hugging Face作为中立平台的角色越来越重要。</p><p class="source-ref">参考来源：Hugging Face官方博客</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/huggingface-open-source-hub/</id>
    <link href="https://news.cocoloop.cn/2026/04/huggingface-open-source-hub/"/>
    <published>2026-04-07T11:15:00.000Z</published>
    <summary>
      <![CDATA[<p>Hugging Face刚出了2026年春季的开源生态报告，几组数据很有冲击力：</p>
<h2 id="平台规模"><a href="#平台规模" class="headerlink" title="平台规模"></a>平台规模</h2><ul>
<li>用户：<strong>1300万</strong></li>
<li>公开模型：<strong>200万+</strong></li>
<li>公开数据集：<strong>50万+</strong></li>
</ul>
<p>三项数据同比都接近翻倍。</p>
<h2 id="最大的变化：中国模型下载量占41"><a]]>
    </summary>
    <title>Hugging Face 2026春季报告：中国模型下载量首次超过美国</title>
    <updated>2026-04-07T14:01:07.890Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="中国" scheme="https://news.cocoloop.cn/tags/%E4%B8%AD%E5%9B%BD/"/>
    <category term="AI监管" scheme="https://news.cocoloop.cn/tags/AI%E7%9B%91%E7%AE%A1/"/>
    <category term="政策" scheme="https://news.cocoloop.cn/tags/%E6%94%BF%E7%AD%96/"/>
    <content>
      <![CDATA[<p>Nature的一篇分析指出：<strong>中国2025年上半年发布的AI国家级法规数量，等于之前三年的总和。</strong></p><h2 id="监管框架"><a href="#监管框架" class="headerlink" title="监管框架"></a>监管框架</h2><p>从2022年开始，中国已经建立了一套相当完整的AI监管体系：</p><ul><li>生成式AI模型上线前必须<strong>提交监管审查</strong></li><li>AI生成的内容必须带<strong>可见的、不可去除的水印</strong></li><li>开发企业对模型输出承担责任</li></ul><p>2025年8月，国务院发布了<strong>AI Plus行动计划</strong>，目标是：</p><ul><li>2027年关键行业AI渗透率达到<strong>70%</strong></li><li>2030年达到<strong>90%</strong></li></ul><p>覆盖六大领域：科技研发、工业应用、消费服务、公共福利、安全治理、国际合作。</p><h2 id="标准落地"><a href="#标准落地" class="headerlink" title="标准落地"></a>标准落地</h2><p>9月1号起生效的**《人工智能生成内容标注办法》**和配套的强制性国标GB45438-2025，是全球最早落地的AI内容标注法规之一。</p><h2 id="全球对比"><a href="#全球对比" class="headerlink" title="全球对比"></a>全球对比</h2><p>目前三种主要监管路线：</p><ul><li><strong>欧盟</strong>：基于权利和风险的分级监管（AI Act）</li><li><strong>美国</strong>：偏向自愿标准和行业自律</li><li><strong>中国</strong>：包容性合作 + 国家对数据和AI部署的主权控制</li></ul><h2 id="竞争格局变化"><a href="#竞争格局变化" class="headerlink" title="竞争格局变化"></a>竞争格局变化</h2><p>一个有意思的数据：中国LLM在全球市场的份额在两个月内从3%飙到了<strong>13%</strong>，主要靠DeepSeek带动。</p><p>中国AI企业走的路线逐渐清晰——<strong>在监管框架内快速迭代</strong>。监管不是绊脚石，反而成了一种筛选机制：能在合规框架内跑通商业模式的公司，出海时反而有合规优势。</p><p>Nature的建议是其他国家需要”积极参与”而不是”回避”中国的AI治理进程。不管立场如何，中国在AI监管领域的速度和执行力确实跑在了前面。</p><p class="source-ref">参考来源：Nature分析文章</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/china-ai-regulation-landscape/</id>
    <link href="https://news.cocoloop.cn/2026/04/china-ai-regulation-landscape/"/>
    <published>2026-04-07T10:40:00.000Z</published>
    <summary>
      <![CDATA[<p>Nature的一篇分析指出：<strong>中国2025年上半年发布的AI国家级法规数量，等于之前三年的总和。</strong></p>
<h2 id="监管框架"><a href="#监管框架" class="headerlink"]]>
    </summary>
    <title>中国的AI监管速度比你想的快得多</title>
    <updated>2026-04-07T14:01:07.890Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI推理" scheme="https://news.cocoloop.cn/tags/AI%E6%8E%A8%E7%90%86/"/>
    <category term="MiniMax" scheme="https://news.cocoloop.cn/tags/MiniMax/"/>
    <category term="M1" scheme="https://news.cocoloop.cn/tags/M1/"/>
    <content>
      <![CDATA[<p>MiniMax在推理模型赛道上的存在感不算高，但M1的成绩单说明他们是<strong>认真在做事</strong>的。</p><h2 id="M1的定位"><a href="#M1的定位" class="headerlink" title="M1的定位"></a>M1的定位</h2><p>M1是MiniMax的推理模型系列，对标的是OpenAI的o系列和DeepSeek的R1。核心能力集中在数学推理、代码生成和逻辑分析。</p><p>在SWE-bench Verified上，<strong>MiniMax M2.5（M1的迭代版）拿到了80.2%</strong>——排在Claude Opus 4.5和Gemini 3.1 Pro之后，比GPT-5.2还高0.2个百分点。这个成绩放在全球范围内属于第一梯队。</p><h2 id="MoE架构"><a href="#MoE架构" class="headerlink" title="MoE架构"></a>MoE架构</h2><p>M1系列用的也是<strong>MoE（混合专家）架构</strong>，和DeepSeek、Qwen的路线一致。在保持高参数量（大容量）的同时，控制实际推理时的计算开销。</p><p>配合Lightning Attention技术，MiniMax在<strong>长上下文推理场景</strong>下的性价比比较突出——同样的任务，消耗的算力和时间更少。</p><h2 id="低调策略"><a href="#低调策略" class="headerlink" title="低调策略"></a>低调策略</h2><p>和其他国产大模型公司相比，MiniMax的PR做得很克制。不太热衷于发benchmark战报和营销稿，产品更新也不怎么搞发布会。</p><p>这种风格有利有弊：好处是不会给人”吹牛”的印象，坏处是市场认知度不高。很多开发者甚至不知道MiniMax的模型已经能和头部选手正面竞争了。</p><h2 id="商业化路径"><a href="#商业化路径" class="headerlink" title="商业化路径"></a>商业化路径</h2><p>MiniMax的商业化走了<strong>To C + API</strong>双路线：</p><ul><li>To C端：海螺AI面向普通用户</li><li>API端：提供开发者调用接口</li></ul><p>这个策略和Anthropic（纯API起家后加To C）、OpenAI（ChatGPT先行再推API）都不同。MiniMax一开始就两条腿走路，可能是因为作为相对小的玩家，需要多个收入来源来支撑研发。</p><p class="source-ref">参考来源：SWE-bench排行榜、MiniMax官方API文档</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/minimax-m1-reasoning-model/</id>
    <link href="https://news.cocoloop.cn/2026/04/minimax-m1-reasoning-model/"/>
    <published>2026-04-07T10:05:00.000Z</published>
    <summary>
      <![CDATA[<p>MiniMax在推理模型赛道上的存在感不算高，但M1的成绩单说明他们是<strong>认真在做事</strong>的。</p>
<h2 id="M1的定位"><a href="#M1的定位" class="headerlink" title="M1的定位"></a>M1的定位</h2><p>M1是MiniMax的推理模型系列，对标的是OpenAI的o系列和DeepSeek的R1。核心能力集中在数学推理、代码生成和逻辑分析。</p>
<p>在SWE-bench Verified上，<strong>MiniMax]]>
    </summary>
    <title>MiniMax M1推理模型：闷声干活的实力派</title>
    <updated>2026-04-07T13:49:23.177Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="MiniMax" scheme="https://news.cocoloop.cn/tags/MiniMax/"/>
    <category term="海螺AI" scheme="https://news.cocoloop.cn/tags/%E6%B5%B7%E8%9E%BAAI/"/>
    <category term="视频生成" scheme="https://news.cocoloop.cn/tags/%E8%A7%86%E9%A2%91%E7%94%9F%E6%88%90/"/>
    <content>
      <![CDATA[<p>MiniMax这家公司在国内AI圈一直比较低调，但<strong>海螺AI</strong>的视频生成能力在圈内已经有了不小的口碑。</p><h2 id="产品形态"><a href="#产品形态" class="headerlink" title="产品形态"></a>产品形态</h2><p>海螺AI是MiniMax面向C端的产品，涵盖文本对话、语音合成和视频生成。其中视频生成是最拿得出手的。</p><p>用户可以通过文字描述生成短视频，风格覆盖写实、动画、艺术等多种类型。生成质量在国产工具里处于第一梯队，一些场景下可以和Sora早期版本掰手腕。</p><h2 id="技术底座"><a href="#技术底座" class="headerlink" title="技术底座"></a>技术底座</h2><p>视频生成背后是MiniMax自研的多模态基础模型。和Sora类似，走的是<strong>扩散模型（Diffusion）+ 时序建模</strong>的路线。</p><p>MiniMax的特色在于：</p><ul><li>对中文场景的理解更精准（中文提示词不需要翻成英文再生成）</li><li>角色一致性做得不错（同一个角色在视频中的外貌不会乱变）</li><li>生成速度在同类产品中偏快</li></ul><h2 id="视频生成赛道格局"><a href="#视频生成赛道格局" class="headerlink" title="视频生成赛道格局"></a>视频生成赛道格局</h2><p>这个领域目前还没有绝对的赢家：</p><ul><li><strong>Sora</strong>（OpenAI）：知名度最高，但商业化路径坎坷</li><li><strong>Kling</strong>（快手）：国内使用量可能最大</li><li><strong>Runway</strong>：海外创作者用得多</li><li><strong>海螺AI</strong>：在质量和体验上追赶很快</li></ul><p>视频生成和文本生成不同，用户对”差不多”的容忍度更低。一个手指多了一截、一个物体突然消失，整个视频就废了。这对模型的<strong>物理世界理解能力</strong>和<strong>时序一致性</strong>要求极高。</p><p>MiniMax的策略是<strong>多模态并进</strong>——文本、语音、视频用统一的底层架构，不同模态之间的理解可以互相加强。这个思路在长期来看可能比单独做视频模型更有优势。</p><p class="source-ref">参考来源：MiniMax官方产品页、36氪报道</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/minimax-hailuo-video/</id>
    <link href="https://news.cocoloop.cn/2026/04/minimax-hailuo-video/"/>
    <published>2026-04-07T09:30:00.000Z</published>
    <summary>
      <![CDATA[<p>MiniMax这家公司在国内AI圈一直比较低调，但<strong>海螺AI</strong>的视频生成能力在圈内已经有了不小的口碑。</p>
<h2 id="产品形态"><a href="#产品形态" class="headerlink" title="产品形态"></a>产品形态</h2><p>海螺AI是MiniMax面向C端的产品，涵盖文本对话、语音合成和视频生成。其中视频生成是最拿得出手的。</p>
<p>用户可以通过文字描述生成短视频，风格覆盖写实、动画、艺术等多种类型。生成质量在国产工具里处于第一梯队，一些场景下可以和Sora早期版本掰手腕。</p>
<h2]]>
    </summary>
    <title>MiniMax海螺AI：视频生成领域杀出来的国产黑马</title>
    <updated>2026-04-07T13:49:23.177Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="安全" scheme="https://news.cocoloop.cn/tags/%E5%AE%89%E5%85%A8/"/>
    <category term="OpenClaw" scheme="https://news.cocoloop.cn/tags/OpenClaw/"/>
    <category term="开源供应链" scheme="https://news.cocoloop.cn/tags/%E5%BC%80%E6%BA%90%E4%BE%9B%E5%BA%94%E9%93%BE/"/>
    <content>
      <![CDATA[<p>OpenClaw爆火之后没多久就遇到了一个棘手的问题——<strong>有人在npm上发布了名称相似的恶意包</strong>，试图冒充OpenClaw的官方依赖。</p><h2 id="事件经过"><a href="#事件经过" class="headerlink" title="事件经过"></a>事件经过</h2><p>攻击者注册了几个和OpenClaw官方包名称非常接近的npm包（典型的typosquatting攻击），里面嵌入了恶意代码。部分不仔细看包名的开发者误安装了假包。</p><p>好在恶意代码被社区成员发现得比较快，npm也在接到举报后几小时内下架了这些包。但已经有少量开发者受到了影响。</p><h2 id="暴露的问题"><a href="#暴露的问题" class="headerlink" title="暴露的问题"></a>暴露的问题</h2><p>这个事件暴露了<strong>开源AI框架的供应链安全</strong>问题。AI agent框架通常有大量的第三方依赖，每一个依赖都是潜在的攻击面。</p><p>更深层的风险是：<strong>AI agent框架自带执行代码的能力</strong>。如果框架本身被植入恶意代码，它可以利用agent的执行权限做更多破坏——比如窃取环境变量中的API密钥、访问文件系统、发送网络请求。</p><h2 id="应对措施"><a href="#应对措施" class="headerlink" title="应对措施"></a>应对措施</h2><p>OpenClaw团队后续做了几件事：</p><ul><li>在官方文档中明确了包名和验证方式</li><li>加强了发布流程的安全审查</li><li>建立了安全漏洞通报机制</li></ul><h2 id="更大的图景"><a href="#更大的图景" class="headerlink" title="更大的图景"></a>更大的图景</h2><p>这不是OpenClaw独有的问题。整个AI工具链的供应链安全都在快速扩大的攻击面前显得脆弱：</p><ul><li><strong>模型权重</strong>可能被篡改（Hugging Face上偶有发现）</li><li><strong>MCP Server</strong>可能包含恶意功能</li><li><strong>Agent框架</strong>的依赖链可能被污染</li><li><strong>提示模板</strong>可能嵌入注入攻击</li></ul><p>AI应用的”信任链”比传统软件更长也更复杂，安全意识和工具都需要跟上。</p><p class="source-ref">参考来源：GitHub安全公告、开发者社区讨论</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/openclaw-security-crisis/</id>
    <link href="https://news.cocoloop.cn/2026/04/openclaw-security-crisis/"/>
    <published>2026-04-07T09:00:00.000Z</published>
    <summary>
      <![CDATA[<p>OpenClaw爆火之后没多久就遇到了一个棘手的问题——<strong>有人在npm上发布了名称相似的恶意包</strong>，试图冒充OpenClaw的官方依赖。</p>
<h2 id="事件经过"><a href="#事件经过" class="headerlink"]]>
    </summary>
    <title>OpenClaw遭遇安全信任危机：开源AI框架的供应链风险</title>
    <updated>2026-04-07T14:06:13.057Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="DeepSeek" scheme="https://news.cocoloop.cn/tags/DeepSeek/"/>
    <category term="数学" scheme="https://news.cocoloop.cn/tags/%E6%95%B0%E5%AD%A6/"/>
    <category term="AI证明" scheme="https://news.cocoloop.cn/tags/AI%E8%AF%81%E6%98%8E/"/>
    <content>
      <![CDATA[<p>DeepSeek在数学定理证明领域搞了个专用模型<strong>Prover-V2</strong>，目标是用AI在Lean 4形式化验证系统里自动证明数学定理。</p><h2 id="这个方向为什么重要？"><a href="#这个方向为什么重要？" class="headerlink" title="这个方向为什么重要？"></a>这个方向为什么重要？</h2><p>数学定理证明是AI能力的一个极端测试场。因为数学不接受”差不多对”——证明要么完全正确，要么就是错的。不存在”95%正确的证明”这种东西。</p><p>形式化验证系统（比如Lean 4）会像编译器检查语法一样检查每一步推理逻辑。一步不对，整个证明就报错。这对AI的逻辑推理能力是最严格的考验。</p><h2 id="Prover-V2的表现"><a href="#Prover-V2的表现" class="headerlink" title="Prover-V2的表现"></a>Prover-V2的表现</h2><p>在miniF2F benchmark上，Prover-V2拿到了接近或达到当期最优的成绩。它用的方法是<strong>子目标分解</strong>——把复杂证明拆成一系列更小的子目标，逐个攻破。</p><p>这和人类数学家的思路很像：面对一个难题，先想”要证明A成立，我需要先证明B和C，而证明B又需要先确认D……”</p><h2 id="和通用推理模型的区别"><a href="#和通用推理模型的区别" class="headerlink" title="和通用推理模型的区别"></a>和通用推理模型的区别</h2><p>通用模型（GPT、Claude、Gemini）做数学推理靠的是Chain-of-Thought——本质上是”用自然语言一步步推”。这种方式对简单问题效果不错，但复杂证明很容易在某一步出现逻辑漏洞。</p><p>Prover-V2走的是<strong>形式化路线</strong>，每一步都有Lean 4验证。好处是不存在”幻觉”，坏处是适用范围很窄——只能在形式化系统里工作。</p><h2 id="意义"><a href="#意义" class="headerlink" title="意义"></a>意义</h2><p>数学定理证明是一个看起来很小众但影响深远的方向。如果AI真的能在形式化系统里可靠地证明复杂定理，那它可以被应用到<strong>软件验证、硬件验证、密码学证明</strong>等一系列关键领域。</p><p>DeepSeek在这个方向上的投入说明他们不只是在卷通用大模型的benchmark——也在认真布局基础科学工具。</p><p class="source-ref">参考来源：DeepSeek Prover-V2论文</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/deepseek-prover-v2-math/</id>
    <link href="https://news.cocoloop.cn/2026/04/deepseek-prover-v2-math/"/>
    <published>2026-04-07T08:55:00.000Z</published>
    <summary>
      <![CDATA[<p>DeepSeek在数学定理证明领域搞了个专用模型<strong>Prover-V2</strong>，目标是用AI在Lean 4形式化验证系统里自动证明数学定理。</p>
<h2 id="这个方向为什么重要？"><a href="#这个方向为什么重要？" class="headerlink" title="这个方向为什么重要？"></a>这个方向为什么重要？</h2><p>数学定理证明是AI能力的一个极端测试场。因为数学不接受”差不多对”——证明要么完全正确，要么就是错的。不存在”95%正确的证明”这种东西。</p>
<p>形式化验证系统（比如Lean]]>
    </summary>
    <title>DeepSeek-Prover-V2：用AI来做数学定理证明，靠谱吗</title>
    <updated>2026-04-07T13:49:23.177Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI Agent" scheme="https://news.cocoloop.cn/tags/AI-Agent/"/>
    <category term="Copilot" scheme="https://news.cocoloop.cn/tags/Copilot/"/>
    <category term="GitHub" scheme="https://news.cocoloop.cn/tags/GitHub/"/>
    <category term="CLI" scheme="https://news.cocoloop.cn/tags/CLI/"/>
    <content>
      <![CDATA[<p>2026年的GitHub Copilot和两年前已经不是同一个产品了。</p><h2 id="从补全到Agent"><a href="#从补全到Agent" class="headerlink" title="从补全到Agent"></a>从补全到Agent</h2><p>最初Copilot就是个代码补全工具——你写一行，它补下一行。现在它能：</p><ul><li>接收GitHub issue作为输入，<strong>自主完成整个开发流程</strong></li><li>在VS Code和JetBrains里跑<strong>多步骤的agent任务</strong></li><li>执行<strong>代码审查</strong>并自动生成修复PR</li><li>通过MCP协议对接外部工具和数据源</li></ul><h2 id="CLI方向"><a href="#CLI方向" class="headerlink" title="CLI方向"></a>CLI方向</h2><p>GitHub今年在命令行体验上的投入明显加大了。JetBrains IDE里的agent模式今年3月上线，VS Code里更早就有了。</p><p>终端里的Copilot可以：</p><ul><li>解释复杂命令</li><li>生成shell脚本</li><li>帮忙调试报错</li><li>查阅Git历史</li></ul><p>这个方向上它和Claude Code有一定重叠，但Copilot更倾向于<strong>轻量辅助</strong>而不是全面接管。</p><h2 id="生态优势"><a href="#生态优势" class="headerlink" title="生态优势"></a>生态优势</h2><p>Copilot最大的护城河不是技术，而是<strong>GitHub本身</strong>。</p><p>全球几乎所有开源项目和大量企业私有仓库都在GitHub上。Copilot天然就能访问这些数据来理解项目上下文。再加上GitHub Actions作为agent的执行环境、GitHub Issues作为任务输入源——这套闭环生态是其他AI编程工具很难复制的。</p><p>从”代码补全 → IDE agent → 仓库级agent → 自动化开发流水线”这条进化路径来看，GitHub的终极目标是让Copilot成为<strong>开发团队的虚拟成员</strong>，而不仅仅是某个人的编程助手。</p><p class="source-ref">参考来源：GitHub Blog、Microsoft Build发布</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/copilot-cli-agents-2026/</id>
    <link href="https://news.cocoloop.cn/2026/04/copilot-cli-agents-2026/"/>
    <published>2026-04-07T08:15:00.000Z</published>
    <summary>
      <![CDATA[<p>2026年的GitHub Copilot和两年前已经不是同一个产品了。</p>
<h2 id="从补全到Agent"><a href="#从补全到Agent" class="headerlink" title="从补全到Agent"></a>从补全到Agent</h2><p>最初Copilot就是个代码补全工具——你写一行，它补下一行。现在它能：</p>
<ul>
<li>接收GitHub issue作为输入，<strong>自主完成整个开发流程</strong></li>
<li>在VS]]>
    </summary>
    <title>GitHub在CLI和Agent方向的野心：Copilot不只是IDE插件了</title>
    <updated>2026-04-07T13:49:23.177Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="智谱" scheme="https://news.cocoloop.cn/tags/%E6%99%BA%E8%B0%B1/"/>
    <category term="GLM" scheme="https://news.cocoloop.cn/tags/GLM/"/>
    <category term="IPO" scheme="https://news.cocoloop.cn/tags/IPO/"/>
    <content>
      <![CDATA[<p>智谱AI最近有两件大事：发布了新一代的<strong>GLM-5</strong>模型，同时传出了<strong>赴港交所上市</strong>的消息。</p><h2 id="GLM-5的升级"><a href="#GLM-5的升级" class="headerlink" title="GLM-5的升级"></a>GLM-5的升级</h2><p>GLM-5相比4.7系列的提升主要在：</p><ul><li>推理能力进一步加强，数学和代码benchmark有明显提升</li><li>多模态能力扩展，支持图文理解和生成</li><li>Agent能力集成度更高</li></ul><p>具体的benchmark数字智谱还没有完全公开，但从已有的信息来看，GLM-5在国产模型中的定位应该是正面硬刚DeepSeek最新版和Qwen最新版。</p><h2 id="赴港上市"><a href="#赴港上市" class="headerlink" title="赴港上市"></a>赴港上市</h2><p>如果成功IPO，智谱将成为<strong>国内第一批上市的大模型公司</strong>。</p><p>这个节奏很有意思——Anthropic在今年2月拿到了380亿美元估值的G轮融资，OpenAI去年也完成了超大轮次。全球AI公司都在疯狂吸纳资本。智谱选择上市而不是继续私募融资，可能有几方面考虑：</p><ol><li><strong>二级市场融资</strong>可以获得更广泛的投资者基础</li><li>上市后的<strong>品牌效应</strong>对拿政府和国企订单有帮助</li><li>早期投资者需要<strong>退出渠道</strong></li></ol><h2 id="竞争定位"><a href="#竞争定位" class="headerlink" title="竞争定位"></a>竞争定位</h2><p>在国产大模型公司中，智谱的差异化一直是<strong>学术基因+企业服务</strong>。脱胎于清华大学，和学界关系紧密，这让它在技术可信度和人才招募上有优势。</p><p>但在模型能力上，DeepSeek和Qwen在2025年的表现太猛了，智谱在公众认知中的”技术领先”形象有所松动。GLM-5发布+IPO双管齐下，看起来是在<strong>重新夺回话语权</strong>。</p><p class="source-ref">参考来源：智谱AI官方发布、科技媒体报道</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/glm5-zhipu-ipo/</id>
    <link href="https://news.cocoloop.cn/2026/04/glm5-zhipu-ipo/"/>
    <published>2026-04-07T07:50:00.000Z</published>
    <summary>
      <![CDATA[<p>智谱AI最近有两件大事：发布了新一代的<strong>GLM-5</strong>模型，同时传出了<strong>赴港交所上市</strong>的消息。</p>
<h2 id="GLM-5的升级"><a href="#GLM-5的升级" class="headerlink"]]>
    </summary>
    <title>智谱发布GLM-5同时传出赴港上市消息</title>
    <updated>2026-04-07T14:06:13.053Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="METR" scheme="https://news.cocoloop.cn/tags/METR/"/>
    <category term="AI编程" scheme="https://news.cocoloop.cn/tags/AI%E7%BC%96%E7%A8%8B/"/>
    <category term="效率研究" scheme="https://news.cocoloop.cn/tags/%E6%95%88%E7%8E%87%E7%A0%94%E7%A9%B6/"/>
    <content>
      <![CDATA[<p>AI安全研究组织METR做了一个实验，结论让不少人大跌眼镜：<strong>有经验的开发者使用AI编程工具后，完成任务的速度反而下降了19%。</strong></p><h2 id="实验设计"><a href="#实验设计" class="headerlink" title="实验设计"></a>实验设计</h2><p>METR找了一批有经验的软件开发者，让他们在两种条件下完成相同的编程任务：</p><ul><li><strong>实验组</strong>：可以自由使用AI编程工具</li><li><strong>对照组</strong>：不使用AI工具</li></ul><p>任务涵盖了bug修复、功能开发、代码重构等常见开发场景。</p><h2 id="为什么会更慢"><a href="#为什么会更慢" class="headerlink" title="为什么会更慢"></a>为什么会更慢</h2><p>研究发现主要有几个原因：</p><p><strong>1. 审查成本</strong><br>AI生成的代码不能盲目接受，需要逐行审查。有经验的开发者对代码质量要求高，花在审查和验证上的时间<strong>超过了AI节省的编写时间</strong>。</p><p><strong>2. 上下文切换</strong><br>在自己思考和审查AI输出之间频繁切换，打断了开发者的思考流（flow state）。</p><p><strong>3. 过度依赖倾向</strong><br>一些开发者发现自己在AI给出建议后，会花时间”调教”AI而不是自己直接写——而直接写往往更快。</p><h2 id="关键限制条件"><a href="#关键限制条件" class="headerlink" title="关键限制条件"></a>关键限制条件</h2><p>这个研究有几个重要的限制：</p><ul><li>样本量不大</li><li>任务类型有限</li><li>使用的AI工具可能不是最新最强的版本</li><li>“有经验”的开发者本身就很快，提升空间小</li></ul><p>对于<strong>初级开发者</strong>，AI工具的效率提升可能完全不同。METR的研究针对的是”有经验”这个群体，不能直接推广到所有开发者。</p><h2 id="怎么理解"><a href="#怎么理解" class="headerlink" title="怎么理解"></a>怎么理解</h2><p>这个研究不是说AI编程工具没用，而是说<strong>效率提升不是自动的</strong>。需要学习正确的使用方式、在合适的场景下使用、建立有效的人机协作流程。</p><p>最好的开发者不是”使用AI最多”的人，而是<strong>知道什么时候该用、什么时候不该用</strong>的人。</p><p class="source-ref">参考来源：METR研究报告</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/ai-code-quality-metr-study/</id>
    <link href="https://news.cocoloop.cn/2026/04/ai-code-quality-metr-study/"/>
    <published>2026-04-07T07:35:00.000Z</published>
    <summary>
      <![CDATA[<p>AI安全研究组织METR做了一个实验，结论让不少人大跌眼镜：<strong>有经验的开发者使用AI编程工具后，完成任务的速度反而下降了19%。</strong></p>
<h2 id="实验设计"><a href="#实验设计" class="headerlink"]]>
    </summary>
    <title>METR研究：用了AI工具的老程序员反而慢了19%</title>
    <updated>2026-04-07T14:09:34.372Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI编程" scheme="https://news.cocoloop.cn/tags/AI%E7%BC%96%E7%A8%8B/"/>
    <category term="OpenAI" scheme="https://news.cocoloop.cn/tags/OpenAI/"/>
    <category term="Codex" scheme="https://news.cocoloop.cn/tags/Codex/"/>
    <content>
      <![CDATA[<p>Codex在OpenAI产品线里的定位一直在变。最早是代码补全工具，后来变成独立的编程模型（GPT-5.3-Codex），现在又并入了GPT-5.4的统一架构。</p><h2 id="Codex-CLI"><a href="#Codex-CLI" class="headerlink" title="Codex CLI"></a>Codex CLI</h2><p>值得一提的是OpenAI后来开源的<strong>Codex CLI</strong>——一个类似Claude Code的终端编程agent。但它的定位和Claude Code不太一样：</p><ul><li>更偏向<strong>轻量化</strong>的本地开发辅助</li><li>集成在终端环境里</li><li>支持多步骤的代码生成和执行</li></ul><h2 id="Spark和Realtime模式"><a href="#Spark和Realtime模式" class="headerlink" title="Spark和Realtime模式"></a>Spark和Realtime模式</h2><p>Spark模式走的是轻量路线，不做深度推理，追求快速响应。适合日常编码中的快问快答。</p><p>Realtime模式则是面向实时协作场景——你在写代码的过程中，模型实时理解你的意图并提供建议。和Cursor的补全体验有点像，但底层是通过API实现的。</p><h2 id="安全教训"><a href="#安全教训" class="headerlink" title="安全教训"></a>安全教训</h2><p>GPT-5.3-Codex发布后拿到了OpenAI内部的”高”网络安全风险评级。这个事件推动了整个行业对AI编程工具安全性的重新审视。</p><p>核心矛盾很清楚：<strong>你希望AI写出的代码越强大，它被滥用写出恶意代码的可能性也越大。</strong> 这不是通过安全训练能完全解决的问题——它是编程能力提升的必然副产品。</p><p>OpenAI的应对方案包括分级访问控制、自动风险检测、以及在检测到高风险请求时降级到旧版模型。这套防护体系是不是足够？目前没有人能给出确定答案。</p><p class="source-ref">参考来源：OpenAI官方文档、Fortune报道</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/gpt53-codex-spark-realtime/</id>
    <link href="https://news.cocoloop.cn/2026/04/gpt53-codex-spark-realtime/"/>
    <published>2026-04-07T07:30:00.000Z</published>
    <summary>
      <![CDATA[<p>Codex在OpenAI产品线里的定位一直在变。最早是代码补全工具，后来变成独立的编程模型（GPT-5.3-Codex），现在又并入了GPT-5.4的统一架构。</p>
<h2 id="Codex-CLI"><a href="#Codex-CLI" class="headerlink" title="Codex CLI"></a>Codex CLI</h2><p>值得一提的是OpenAI后来开源的<strong>Codex CLI</strong>——一个类似Claude Code的终端编程agent。但它的定位和Claude]]>
    </summary>
    <title>Codex从代码补全走向实时协作，这一步跨得够大</title>
    <updated>2026-04-07T13:49:23.177Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="xAI" scheme="https://news.cocoloop.cn/tags/xAI/"/>
    <category term="Grok" scheme="https://news.cocoloop.cn/tags/Grok/"/>
    <category term="SpaceX" scheme="https://news.cocoloop.cn/tags/SpaceX/"/>
    <category term="Elon Musk" scheme="https://news.cocoloop.cn/tags/Elon-Musk/"/>
    <content>
      <![CDATA[<p>马斯克旗下的xAI最近两件事叠在一起引发了大量讨论：<strong>Grok 4发布</strong> + <strong>SpaceX可能以2500亿美元收购xAI的传闻</strong>。</p><h2 id="Grok-4的表现"><a href="#Grok-4的表现" class="headerlink" title="Grok 4的表现"></a>Grok 4的表现</h2><p>Grok 4在多项benchmark上的成绩确实不错：</p><ul><li>编程和推理任务上逼近GPT-5.x和Claude Opus级别</li><li>实时信息获取依然是差异化优势（得益于X&#x2F;Twitter的数据）</li><li>多模态理解能力有明显提升</li></ul><p>但和竞品相比，Grok 4还没有在任何单一维度上做到”碾压”。它更像是<strong>追上了第一梯队，但没有领跑</strong>。</p><h2 id="2500亿美元收购？"><a href="#2500亿美元收购？" class="headerlink" title="2500亿美元收购？"></a>2500亿美元收购？</h2><p>传闻SpaceX正在洽谈以约2500亿美元收购xAI。如果成真，这将是：</p><ul><li>有史以来金额最大的科技公司收购之一</li><li>马斯克帝国内部的一次重大整合</li><li>xAI获得SpaceX庞大工程团队和基础设施支持</li></ul><p>不过这个消息截至目前还没有得到双方正式确认。</p><h2 id="马斯克的AI布局"><a href="#马斯克的AI布局" class="headerlink" title="马斯克的AI布局"></a>马斯克的AI布局</h2><p>马斯克在AI领域的操作一直很”马斯克”：</p><ul><li>早期投资OpenAI然后翻脸</li><li>创立xAI直接和OpenAI竞争</li><li>用X（Twitter）的数据训练Grok</li><li>现在可能通过SpaceX来整合xAI</li></ul><p>如果收购成真，SpaceX的计算基础设施和xAI的模型团队合并，理论上可以大幅降低xAI的算力成本。SpaceX在全球有大量的地面站和数据中心基础设施，这些都能被xAI利用。</p><h2 id="市场影响"><a href="#市场影响" class="headerlink" title="市场影响"></a>市场影响</h2><p>xAI目前在AI市场的份额很小。Grok主要通过X平台分发，付费用户基数有限。即使Grok 4技术上追平了第一梯队，<strong>分发渠道和开发者生态的差距</strong>是更大的挑战。</p><p>和OpenAI、Anthropic、Google相比，xAI缺少的不是模型能力，而是<strong>围绕模型的产品和生态</strong>。</p><p class="source-ref">参考来源：科技媒体报道</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/grok4-xai-spacex-acquisition/</id>
    <link href="https://news.cocoloop.cn/2026/04/grok4-xai-spacex-acquisition/"/>
    <published>2026-04-07T07:15:00.000Z</published>
    <summary>
      <![CDATA[<p>马斯克旗下的xAI最近两件事叠在一起引发了大量讨论：<strong>Grok 4发布</strong> + <strong>SpaceX可能以2500亿美元收购xAI的传闻</strong>。</p>
<h2 id="Grok-4的表现"><a href="#Grok-4的表现" class="headerlink" title="Grok 4的表现"></a>Grok 4的表现</h2><p>Grok 4在多项benchmark上的成绩确实不错：</p>
<ul>
<li>编程和推理任务上逼近GPT-5.x和Claude]]>
    </summary>
    <title>SpaceX收购xAI传闻和Grok 4的benchmark表现</title>
    <updated>2026-04-07T14:09:34.372Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="OpenAI" scheme="https://news.cocoloop.cn/tags/OpenAI/"/>
    <category term="视频生成" scheme="https://news.cocoloop.cn/tags/%E8%A7%86%E9%A2%91%E7%94%9F%E6%88%90/"/>
    <category term="Sora" scheme="https://news.cocoloop.cn/tags/Sora/"/>
    <content>
      <![CDATA[<p>OpenAI宣布关停Sora视频生成服务的消息在圈内引发了不小的震动——毕竟这是当初发布时最轰动的产品之一。</p><h2 id="为什么关了"><a href="#为什么关了" class="headerlink" title="为什么关了"></a>为什么关了</h2><p>核心原因很现实：<strong>每天亏损约100万美元</strong>。</p><p>视频生成的计算成本远高于文本生成。每次生成一段视频需要的GPU算力是文本对话的几十到上百倍。在用户量不足以摊薄成本、商业模式也没有跑通的情况下，继续烧钱没有意义。</p><h2 id="Disney合作破裂"><a href="#Disney合作破裂" class="headerlink" title="Disney合作破裂"></a>Disney合作破裂</h2><p>据报道，OpenAI和迪士尼曾经谈过深度合作——用Sora为迪士尼的内容制作提供AI视频生成支持。但合作最终崩了，具体原因没有公开披露，猜测可能涉及版权控制、质量标准和商业条款分歧。</p><p>失去这个潜在的大客户，对Sora的商业化前景是致命打击。</p><h2 id="视频生成的困境"><a href="#视频生成的困境" class="headerlink" title="视频生成的困境"></a>视频生成的困境</h2><p>Sora的遭遇不是个例。整个AI视频生成赛道都面临同样的问题：</p><ol><li><strong>成本太高</strong>：计算量是文本生成的量级差距</li><li><strong>质量不稳定</strong>：偶尔惊艳，经常翻车</li><li><strong>商业场景不明确</strong>：谁愿意为AI生成的视频付费？</li><li><strong>版权风险</strong>：训练数据的版权问题悬而未决</li></ol><h2 id="对行业的信号"><a href="#对行业的信号" class="headerlink" title="对行业的信号"></a>对行业的信号</h2><p>Sora关停说明一件事：<strong>技术上能做和商业上能成是两回事。</strong></p><p>OpenAI在视频生成技术上的积累并没有消失，这些能力可能会以其他形式（比如GPT-5.4的多模态功能）重新出现。但作为一个独立的视频生成产品，Sora已经证明了在当前阶段跑不通。</p><p>这对快手Kling、Runway、MiniMax海螺AI等竞品来说是一个警示——<strong>光做出好看的demo不够，找到可持续的商业模式才是关键</strong>。</p><p class="source-ref">参考来源：科技媒体报道</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/sora-shutdown-openai/</id>
    <link href="https://news.cocoloop.cn/2026/04/sora-shutdown-openai/"/>
    <published>2026-04-07T07:00:00.000Z</published>
    <summary>
      <![CDATA[<p>OpenAI宣布关停Sora视频生成服务的消息在圈内引发了不小的震动——毕竟这是当初发布时最轰动的产品之一。</p>
<h2 id="为什么关了"><a href="#为什么关了" class="headerlink" title="为什么关了"></a>为什么关了</h2><p>核心原因很现实：<strong>每天亏损约100万美元</strong>。</p>
<p>视频生成的计算成本远高于文本生成。每次生成一段视频需要的GPU算力是文本对话的几十到上百倍。在用户量不足以摊薄成本、商业模式也没有跑通的情况下，继续烧钱没有意义。</p>
<h2 id="Disney合作破裂"><a]]>
    </summary>
    <title>OpenAI关停Sora：日亏百万美元的视频生成业务撑不住了</title>
    <updated>2026-04-07T14:09:34.372Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI编程" scheme="https://news.cocoloop.cn/tags/AI%E7%BC%96%E7%A8%8B/"/>
    <category term="Copilot" scheme="https://news.cocoloop.cn/tags/Copilot/"/>
    <category term="GitHub" scheme="https://news.cocoloop.cn/tags/GitHub/"/>
    <content>
      <![CDATA[<p>在AI编程工具普遍涨价的2026年，GitHub Copilot的**$10&#x2F;月**定价显得格外亲民。但便宜归便宜，它到底能提供多少价值？</p><h2 id="核心能力"><a href="#核心能力" class="headerlink" title="核心能力"></a>核心能力</h2><p>Copilot目前提供三层能力：</p><p><strong>第一层：代码补全</strong><br>最基础也是最成熟的功能。在你写代码的过程中实时提供建议，接受率在不同IDE和场景下差异很大，但总体上”有用的时候很有用”。</p><p><strong>第二层：Agent模式</strong><br>给它一个GitHub issue，它能自己建分支、改代码、提PR。中低复杂度任务处理得不错，前提是项目的测试覆盖够好。</p><p><strong>第三层：Agent代码审查</strong><br>自动review PR，不只是看diff，会主动探索仓库理解上下文。71%的审查能给出有价值的反馈。</p><h2 id="和竞品比"><a href="#和竞品比" class="headerlink" title="和竞品比"></a>和竞品比</h2><ul><li><strong>vs Claude Code（$20&#x2F;月起）</strong>：能力天花板差距明显，但价格也差一倍。对日常编码来说Copilot够用。</li><li><strong>vs Cursor（$20&#x2F;月）</strong>：Cursor的IDE体验更好，补全接受率更高。但Copilot胜在生态——VS Code、JetBrains、Vim&#x2F;Neovim全覆盖。</li></ul><h2 id="适合谁？"><a href="#适合谁？" class="headerlink" title="适合谁？"></a>适合谁？</h2><ul><li>刚开始接触AI编程的开发者</li><li>团队统一采购（Business&#x2F;Enterprise版有额外管理功能）</li><li>不想换编辑器的人</li><li>对AI编程辅助”够用就好”的实用主义者</li></ul><h2 id="不适合谁？"><a href="#不适合谁？" class="headerlink" title="不适合谁？"></a>不适合谁？</h2><ul><li>需要大规模重构、跨文件改动的场景</li><li>对代码理解深度要求极高的任务</li><li>追求最强能力上限的硬核用户</li></ul><p>$10&#x2F;月作为”AI编程的入门票价”来说，性价比是到位的。如果后续觉得不够用，再升级到Cursor或Claude Code也不迟。</p><p class="source-ref">参考来源：GitHub官方定价、NxCode对比评测</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/copilot-10-dollar-value/</id>
    <link href="https://news.cocoloop.cn/2026/04/copilot-10-dollar-value/"/>
    <published>2026-04-07T06:45:00.000Z</published>
    <summary>
      <![CDATA[<p>在AI编程工具普遍涨价的2026年，GitHub Copilot的**$10&#x2F;月**定价显得格外亲民。但便宜归便宜，它到底能提供多少价值？</p>
<h2 id="核心能力"><a href="#核心能力" class="headerlink"]]>
    </summary>
    <title>Copilot每个月10美元，到底值不值这个价</title>
    <updated>2026-04-07T13:49:23.177Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI行业" scheme="https://news.cocoloop.cn/tags/AI%E8%A1%8C%E4%B8%9A/"/>
    <category term="大模型竞争" scheme="https://news.cocoloop.cn/tags/%E5%A4%A7%E6%A8%A1%E5%9E%8B%E7%AB%9E%E4%BA%89/"/>
    <category term="GPT-5" scheme="https://news.cocoloop.cn/tags/GPT-5/"/>
    <category term="Gemini" scheme="https://news.cocoloop.cn/tags/Gemini/"/>
    <category term="Llama" scheme="https://news.cocoloop.cn/tags/Llama/"/>
    <content>
      <![CDATA[<p>一般来说，AI行业会有几个月的爆发期，然后是相对平静的消化期。但2026年4月，感觉几条爆发线全叠在一起了。</p><p>Anthropic、OpenAI、Google、Meta、xAI——这几家公司不约而同地把重磅产品都堆在了这个月前后。有研究者调侃说这是AI史上竞争最激烈的单月，这话可能不夸张。</p><h2 id="场上现在有哪些牌"><a href="#场上现在有哪些牌" class="headerlink" title="场上现在有哪些牌"></a>场上现在有哪些牌</h2><h3 id="Claude-Mythos（Anthropic）"><a href="#Claude-Mythos（Anthropic）" class="headerlink" title="Claude Mythos（Anthropic）"></a>Claude Mythos（Anthropic）</h3><p>Anthropic最近的一次源代码意外泄露事故，顺带暴露了一个代号叫Mythos的模型。公司随后确认，它是我们开发过的最强大的AI模型，定位在Opus之上。</p><p>目前早期访问权限只开放给了网络安全领域的合作伙伴，公开发布时间没有官方确认，但业内估计4月内有约25%的概率对外上线。</p><h3 id="GPT-5-5（代号Spud，OpenAI）"><a href="#GPT-5-5（代号Spud，OpenAI）" class="headerlink" title="GPT-5.5（代号Spud，OpenAI）"></a>GPT-5.5（代号Spud，OpenAI）</h3><p>OpenAI刚发布了GPT-5.4，这是第一个把顶级编程能力（来自GPT-5.3-codex）整合进通用推理架构的主线模型，在agentic任务上表现明显提升。</p><p>而内部代号Spud的下一代——大概是GPT-5.5——已经完成预训练，预计Q2公告，具体日期未定。</p><h3 id="Gemini-3-1-Pro（Google）"><a href="#Gemini-3-1-Pro（Google）" class="headerlink" title="Gemini 3.1 Pro（Google）"></a>Gemini 3.1 Pro（Google）</h3><p>基准分数上，这是目前公开测评里分最高的模型之一：</p><ul><li><strong>ARC-AGI-2</strong>：77.1%</li><li><strong>GPQA Diamond</strong>：94.3%</li></ul><p>定价和上一代持平，在高难度科学推理任务上比其他主流模型明显领先。</p><h3 id="Grok-4-20（xAI）"><a href="#Grok-4-20（xAI）" class="headerlink" title="Grok 4.20（xAI）"></a>Grok 4.20（xAI）</h3><p>xAI的Grok走了条不一样的路——<strong>多智能体并行架构</strong>。简单说，是四个专门化的Agent先在内部辩论，然后再输出答案。</p><p>这个结构设计在对抗性问题分析和多角度推理上可能有独特优势。实测数据目前还比较少，但架构本身是个有意思的方向。</p><h3 id="Llama-4（Meta）"><a href="#Llama-4（Meta）" class="headerlink" title="Llama 4（Meta）"></a>Llama 4（Meta）</h3><p>Meta的开源旗舰系列，两个版本：</p><ul><li><strong>Scout</strong>：109B参数</li><li><strong>Maverick</strong>：400B参数</li></ul><p>两者都支持<strong>1000万token的上下文窗口</strong>，而且是开源许可证。对于不想被闭源模型绑架但又需要大上下文处理能力的开发者，Llama 4是个很实在的选项。</p><h2 id="成本这一轮真的变了"><a href="#成本这一轮真的变了" class="headerlink" title="成本这一轮真的变了"></a>成本这一轮真的变了</h2><table><thead><tr><th>模型</th><th>输入token定价（$&#x2F;百万）</th></tr></thead><tbody><tr><td>DeepSeek V4</td><td>~&#x2F;usr&#x2F;bin&#x2F;bash.14</td></tr><tr><td>DeepSeek V3.2</td><td>~&#x2F;usr&#x2F;bin&#x2F;bash.27</td></tr><tr><td>Qwen 3.5</td><td>开源可自部署</td></tr><tr><td>Claude Opus 4.6</td><td>~.00</td></tr><tr><td>GPT-5 系列</td><td>.00+</td></tr></tbody></table><p>Claude Opus 4.6的定价大概是DeepSeek V4的<strong>36倍</strong>。在高调用量场景里，这不是可以忽略的差距。</p><h2 id="这轮竞争的本质变了吗"><a href="#这轮竞争的本质变了吗" class="headerlink" title="这轮竞争的本质变了吗"></a>这轮竞争的本质变了吗</h2><p>以前，AI能力领先就等于市场领先。现在这个逻辑开始松动了。</p><p>闭源模型在最难的那几类任务上确实还有优势，比如复杂的多步推理、最前沿的编程挑战。但日常开发者碰到这类任务的频率有多高？答案是：不多。</p><p>大多数日常工程需求，DeepSeek V4或Qwen 3.5已经够用，而且价格差了一个量级。</p><p>这就是为什么这一轮的竞争让人感觉有点不一样——不只是哪家赢了基准测试，而是够用的门槛已经被便宜十几倍的开源&#x2F;中国模型给拉低了。</p><p>闭源模型厂商接下来要证明的，不只是我最强，而是我比便宜三十倍的竞争对手强得足够多，值得你为这个差价买单。</p><p>这个问题，4月之后可能会有个更清晰的答案。</p><p class=source-ref>参考来源：AI Models in April 2026: Every Major Release, Leak, and What Comes Next（RenovateQR.com）；ChatGPT vs Claude vs Gemini vs DeepSeek April 2026 Benchmarks（Tech-Insider.org）</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/april-2026-ai-model-race/</id>
    <link href="https://news.cocoloop.cn/2026/04/april-2026-ai-model-race/"/>
    <published>2026-04-07T06:31:00.000Z</published>
    <summary>
      <![CDATA[<p>一般来说，AI行业会有几个月的爆发期，然后是相对平静的消化期。但2026年4月，感觉几条爆发线全叠在一起了。</p>
<p>Anthropic、OpenAI、Google、Meta、xAI——这几家公司不约而同地把重磅产品都堆在了这个月前后。有研究者调侃说这是AI史上竞争最激烈的单月，这话可能不夸张。</p>
<h2 id="场上现在有哪些牌"><a href="#场上现在有哪些牌" class="headerlink" title="场上现在有哪些牌"></a>场上现在有哪些牌</h2><h3 id="Claude-Mythos（Anthropic）"><a]]>
    </summary>
    <title>2026年4月，AI行业迎来了它的决战月：五个重磅模型同台角力</title>
    <updated>2026-04-07T15:22:56.271Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI编程" scheme="https://news.cocoloop.cn/tags/AI%E7%BC%96%E7%A8%8B/"/>
    <category term="开发工具" scheme="https://news.cocoloop.cn/tags/%E5%BC%80%E5%8F%91%E5%B7%A5%E5%85%B7/"/>
    <category term="OpenAI" scheme="https://news.cocoloop.cn/tags/OpenAI/"/>
    <category term="Codex" scheme="https://news.cocoloop.cn/tags/Codex/"/>
    <content>
      <![CDATA[<p>OpenAI最近悄悄改了Codex的定价逻辑，幅度不大，但方向挺有意思。</p><p>以前在ChatGPT Business和Enterprise里用Codex，基本是按座位包月。现在多了一个选项：<strong>Codex专属席位按量计费</strong>，团队可以按实际用量付钱，不用提前锁定固定月费。同时，普通ChatGPT Business订阅费从每席位$25降到了$20（年付）。</p><p>单独看这几条新闻，都不算爆炸性。但放在一起，有个挺清晰的信号：<strong>AI编程工具正在从”体验期”进入正经的商业化运营阶段</strong>。</p><h2 id="Codex本身更新了什么"><a href="#Codex本身更新了什么" class="headerlink" title="Codex本身更新了什么"></a>Codex本身更新了什么</h2><p>这次除了定价，产品层面也有不少实质性改进。</p><p><strong>插件系统升级为一等公民</strong></p><p>以前Codex的插件支持比较零散，现在统一了——启动时自动同步工作区插件，<code>/plugins</code>命令直接浏览，安装卸载流程也规范了很多。</p><p>对开发者来说，这个变化意味着可以把Codex真正嵌入到公司内部工具链里，不再是个孤立的编程助手。</p><p><strong>多Agent工作流的地址系统</strong></p><p>这个改动有点技术范儿：之前多个Agent之间互相调用，用的是不透明的ID，现在改成了可读的路径格式——比如<code>/root/agent_a</code>、<code>/root/agent_b</code>这样的形式。</p><p>听起来是个小优化，但实际影响不小。路径格式的地址让Agent之间的关系更容易追踪和调试，出了问题知道去哪找，多Agent协同的工程复杂度降低了一截。</p><p><strong>企业版Plugin目录</strong></p><p>Business和Enterprise版本现在有了统一的Plugin目录，管理员可以控制哪些插件对员工开放。这个功能对大公司很重要——安全审计、合规管控，现在有正式入口了。</p><h2 id="按量计费对谁更划算"><a href="#按量计费对谁更划算" class="headerlink" title="按量计费对谁更划算"></a>按量计费对谁更划算</h2><p>粗算一下：</p><ul><li><strong>轻度使用的小团队</strong>：人均每月跑不了多少代码任务，包月可能反而便宜，新方案性价比一般</li><li><strong>重度使用的工程师</strong>：如果每天深度用Codex，包月反而更可预测，但新方案有每人$100的免费额度（最高$500&#x2F;团队），头几个月能省不少</li><li><strong>用量波动大的项目制团队</strong>：按量付费明显更适合，项目高峰期多付，低谷期少付</li></ul><p>OpenAI同时还给了个促销：符合资格的工作区，每新增一个用户可以获得最高$100的Codex积分，总上限$500。</p><h2 id="AI编程工具竞争的下半场"><a href="#AI编程工具竞争的下半场" class="headerlink" title="AI编程工具竞争的下半场"></a>AI编程工具竞争的下半场</h2><p>过去一年，AI编程工具这条赛道越来越卷：</p><ul><li>GitHub Copilot不断迭代，今年加了Agent模式</li><li>Cursor&#x2F;Windsurf在独立IDE方向有大量忠实用户</li><li>Claude Code（Anthropic）上周刚因为第三方工具限制搞得开发者怨声载道</li><li>开源方向，本地跑的替代品也在快速成熟</li></ul><p>在这个背景下，Codex这次调整的重心其实不是在性能上大做文章，而是在<strong>企业部署的合规性和可管理性</strong>上下功夫——Plugin目录的管理员控制、多Agent的可追踪路径，都是针对大客户的诉求。</p><p>性价比决策里，纯技术能力只是一部分，企业愿不愿意信任、能不能管得住，越来越重要。</p><p>从这个角度看，OpenAI的这次更新是个务实的商业决策，不是技术突破——但务实的商业决策有时候比技术突破更能决定市场份额。</p><p class="source-ref">参考来源：OpenAI Release Notes - April 2026 Latest Updates（Releasebot）、Introducing Codex（OpenAI）</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/openai-codex-new-features/</id>
    <link href="https://news.cocoloop.cn/2026/04/openai-codex-new-features/"/>
    <published>2026-04-07T06:31:00.000Z</published>
    <summary>
      <![CDATA[<p>OpenAI最近悄悄改了Codex的定价逻辑，幅度不大，但方向挺有意思。</p>
<p>以前在ChatGPT Business和Enterprise里用Codex，基本是按座位包月。现在多了一个选项：<strong>Codex专属席位按量计费</strong>，团队可以按实际用量付钱，不用提前锁定固定月费。同时，普通ChatGPT Business订阅费从每席位$25降到了$20（年付）。</p>
<p>单独看这几条新闻，都不算爆炸性。但放在一起，有个挺清晰的信号：<strong>AI编程工具正在从”体验期”进入正经的商业化运营阶段</strong>。</p>
<h2]]>
    </summary>
    <title>OpenAI把Codex卖法改了：按座位按用量，AI编程工具的商业化进入新阶段</title>
    <updated>2026-04-07T15:20:26.326Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="开源" scheme="https://news.cocoloop.cn/tags/%E5%BC%80%E6%BA%90/"/>
    <category term="EU AI Act" scheme="https://news.cocoloop.cn/tags/EU-AI-Act/"/>
    <category term="监管" scheme="https://news.cocoloop.cn/tags/%E7%9B%91%E7%AE%A1/"/>
    <content>
      <![CDATA[<p>欧盟的AI法案（AI Act）在2025年开始分阶段实施，到2026年大部分条款已经生效。对开源AI社区来说，影响没有之前担心的那么严重。</p><h2 id="开源豁免"><a href="#开源豁免" class="headerlink" title="开源豁免"></a>开源豁免</h2><p>AI Act对开源模型有专门的<strong>豁免条款</strong>——如果你发布的是研究性质的开源模型，很多合规要求不适用。</p><p>但有个重要例外：如果你的开源模型被用在了**”高风险”应用场景**（医疗诊断、信用评估、执法等），那该遵守的规则一样要遵守。</p><h2 id="实际影响"><a href="#实际影响" class="headerlink" title="实际影响"></a>实际影响</h2><p>对大部分开源开发者来说，日常工作几乎没有变化。Meta继续开放Llama的权重，Hugging Face继续运营Hub平台，中小型的开源项目也不需要做额外的合规工作。</p><p>受影响最大的是<strong>部署端</strong>——如果企业把开源模型用在了高风险场景中，企业需要承担合规责任。这等于把合规压力从模型开发者转移到了模型使用者身上。</p><h2 id="和中美对比"><a href="#和中美对比" class="headerlink" title="和中美对比"></a>和中美对比</h2><table><thead><tr><th>维度</th><th>欧盟</th><th>美国</th><th>中国</th></tr></thead><tbody><tr><td>核心逻辑</td><td>基于风险分级</td><td>行业自律</td><td>国家主导</td></tr><tr><td>对开源态度</td><td>豁免+例外</td><td>基本不管</td><td>需要审批</td></tr><tr><td>执行力度</td><td>法律强制</td><td>自愿标准</td><td>行政命令</td></tr></tbody></table><h2 id="对中国出海的影响"><a href="#对中国出海的影响" class="headerlink" title="对中国出海的影响"></a>对中国出海的影响</h2><p>国内AI公司想进入欧洲市场，需要按AI Act的要求来。这对大公司来说不是大问题（有法务团队处理），但对中小企业是个门槛。</p><p>反过来，中国自己的AI监管框架在某些方面比EU AI Act更严格（比如内容审查要求），所以能在国内合规环境下跑通的产品，适配欧盟要求的难度反而不大。</p><p><strong>总体来看</strong>：AI Act是全球第一部系统性的AI监管法律，它的示范效应可能比具体条款更重要。其他国家和地区在制定AI法规时都会参考这个框架。</p><p class="source-ref">参考来源：EU AI Act文本、Hugging Face政策分析</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/eu-ai-act-2026-opensource/</id>
    <link href="https://news.cocoloop.cn/2026/04/eu-ai-act-2026-opensource/"/>
    <published>2026-04-07T06:30:00.000Z</published>
    <summary>
      <![CDATA[<p>欧盟的AI法案（AI Act）在2025年开始分阶段实施，到2026年大部分条款已经生效。对开源AI社区来说，影响没有之前担心的那么严重。</p>
<h2 id="开源豁免"><a href="#开源豁免" class="headerlink" title="开源豁免"></a>开源豁免</h2><p>AI Act对开源模型有专门的<strong>豁免条款</strong>——如果你发布的是研究性质的开源模型，很多合规要求不适用。</p>
<p>但有个重要例外：如果你的开源模型被用在了**”高风险”应用场景**（医疗诊断、信用评估、执法等），那该遵守的规则一样要遵守。</p>
<h2]]>
    </summary>
    <title>欧盟AI法案正式实施，开源社区受到的影响没想象中大</title>
    <updated>2026-04-07T14:06:13.053Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="Google" scheme="https://news.cocoloop.cn/tags/Google/"/>
    <category term="DeepSeek" scheme="https://news.cocoloop.cn/tags/DeepSeek/"/>
    <category term="AI推理" scheme="https://news.cocoloop.cn/tags/AI%E6%8E%A8%E7%90%86/"/>
    <category term="OpenAI" scheme="https://news.cocoloop.cn/tags/OpenAI/"/>
    <content>
      <![CDATA[<p>“Thinking model”在2025年彻底成了主流概念。几乎每家头部AI公司都推出了自己的推理模型，核心卖点都一样：<strong>模型在回答之前先在内部”想一想”</strong>。</p><h2 id="各家路线"><a href="#各家路线" class="headerlink" title="各家路线"></a>各家路线</h2><p><strong>OpenAI o系列</strong>：最早把”思考”概念产品化的。o1到o3一路迭代，走的是”显式推理链+隐藏思考过程”路线。用户看到的是最终答案，中间的思考过程不对外暴露。</p><p><strong>DeepSeek R1</strong>：开源路线的推理模型代表。强化学习驱动，思考过程是透明的（可以看到完整的Chain-of-Thought）。32B蒸馏版在多项benchmark上就能和o1-mini打平，成本优势巨大。</p><p><strong>Gemini 2.5 Pro</strong>：Google的thinking model，内部推理后响应。在数学和科学推理上表现突出（AIME 2024: 92%），多模态推理是差异化优势。</p><p><strong>Claude Opus 4.6</strong>：自适应推理，模型自动判断需要多深度的思考。四档可调，不浪费算力。</p><h2 id="核心trade-off"><a href="#核心trade-off" class="headerlink" title="核心trade-off"></a>核心trade-off</h2><p>所有推理模型都面对同一个问题：<strong>推理深度 vs 响应速度</strong>。</p><p>想得越深、答案越准，但等待时间越长、成本越高。对于简单的日常对话，开启深度推理纯粹是在浪费钱和时间。</p><p>各家的解法略有不同：</p><ul><li>OpenAI：提供不同等级的模型（o1-mini到o3-pro）</li><li>DeepSeek V3.1：同一模型内think&#x2F;non-think双模式</li><li>Anthropic：自适应思考，模型自己决定想多深</li><li>Qwen3：也是mixing模式，thinking和non-thinking一个模型搞定</li></ul><h2 id="开源-vs-闭源"><a href="#开源-vs-闭源" class="headerlink" title="开源 vs 闭源"></a>开源 vs 闭源</h2><p>推理能力原本被认为是闭源模型的护城河。R1的出现打破了这个格局——<strong>开源推理模型已经追平了闭源模型的主力产品</strong>。这意味着纯粹的推理能力越来越难作为付费壁垒。</p><p>下一步的竞争已经从”谁更能想”转向”谁想得又快又省”。</p><p class="source-ref">参考来源：各模型官方发布、The Decoder对比分析</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/reasoning-models-comparison/</id>
    <link href="https://news.cocoloop.cn/2026/04/reasoning-models-comparison/"/>
    <published>2026-04-07T06:10:00.000Z</published>
    <summary>
      <![CDATA[<p>“Thinking model”在2025年彻底成了主流概念。几乎每家头部AI公司都推出了自己的推理模型，核心卖点都一样：<strong>模型在回答之前先在内部”想一想”</strong>。</p>
<h2 id="各家路线"><a href="#各家路线" class="headerlink" title="各家路线"></a>各家路线</h2><p><strong>OpenAI]]>
    </summary>
    <title>推理模型大横评：o系列、R1、Gemini Thinking谁更能&quot;想&quot;</title>
    <updated>2026-04-07T13:46:48.952Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="Apple" scheme="https://news.cocoloop.cn/tags/Apple/"/>
    <category term="端侧AI" scheme="https://news.cocoloop.cn/tags/%E7%AB%AF%E4%BE%A7AI/"/>
    <category term="隐私" scheme="https://news.cocoloop.cn/tags/%E9%9A%90%E7%A7%81/"/>
    <content>
      <![CDATA[<p>苹果的AI策略和其他家很不一样——不卷最强通用模型，<strong>主打端侧部署和隐私保护</strong>。</p><h2 id="端侧模型：3B参数"><a href="#端侧模型：3B参数" class="headerlink" title="端侧模型：3B参数"></a>端侧模型：3B参数</h2><p>2025年WWDC上苹果公布了Apple Foundation Models（AFM），端侧版本大约<strong>30亿参数</strong>，专门为Apple Silicon优化。</p><p>几个关键技术：</p><ul><li><strong>KV-cache共享</strong>：模型分成两个block（深度比5:3），后面的block直接复用前面的KV cache，显存占用减少37.5%</li><li><strong>2-bit量化感知训练</strong>：权重压到2bit，embedding层4bit，KV cache 8bit</li><li><strong>低秩适配器</strong>：补偿量化带来的精度损失</li></ul><p>最终效果：一个3B参数的模型压缩到可以在iPhone上流畅运行，同时保持足够的能力水平。</p><h2 id="服务端模型：PT-MoE"><a href="#服务端模型：PT-MoE" class="headerlink" title="服务端模型：PT-MoE"></a>服务端模型：PT-MoE</h2><p>处理不了的复杂任务交给服务端，但用的是苹果自己的<strong>Private Cloud Compute</strong>——在苹果自研芯片的云服务器上跑，数据不离开苹果的安全飞地。</p><p>服务端架构叫<strong>Parallel-Track MoE</strong>，由多个较小的Transformer”轨道”并行处理token，只在输入和输出边界做同步。同步开销减少了<strong>87.5%</strong>。</p><h2 id="隐私优先级"><a href="#隐私优先级" class="headerlink" title="隐私优先级"></a>隐私优先级</h2><p>苹果这套设计的优先级排序很清楚：</p><ol><li>能在端侧跑的就不上云</li><li>必须上云的用Private Cloud Compute</li><li>支持15种语言、理解图文输入</li></ol><p>这和OpenAI、Anthropic、Google那种”一切上云”的路线形成鲜明对比。<strong>苹果赌的是：用户愿意为隐私牺牲一些能力上限。</strong></p><p>开发者也有福利——苹果开放了Foundation Models框架，第三方app可以直接调用端侧模型。不过能力上和GPT-4级别的云端模型还有差距，更适合做轻量级的文本处理和理解任务。</p><p class="source-ref">参考来源：Apple Machine Learning Research</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/apple-on-device-ai/</id>
    <link href="https://news.cocoloop.cn/2026/04/apple-on-device-ai/"/>
    <published>2026-04-07T05:40:00.000Z</published>
    <summary>
      <![CDATA[<p>苹果的AI策略和其他家很不一样——不卷最强通用模型，<strong>主打端侧部署和隐私保护</strong>。</p>
<h2 id="端侧模型：3B参数"><a href="#端侧模型：3B参数" class="headerlink" title="端侧模型：3B参数"></a>端侧模型：3B参数</h2><p>2025年WWDC上苹果公布了Apple Foundation Models（AFM），端侧版本大约<strong>30亿参数</strong>，专门为Apple]]>
    </summary>
    <title>苹果的端侧AI路线：3B参数模型塞进iPhone还要保隐私</title>
    <updated>2026-04-07T14:01:07.890Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI Agent" scheme="https://news.cocoloop.cn/tags/AI-Agent/"/>
    <category term="开源" scheme="https://news.cocoloop.cn/tags/%E5%BC%80%E6%BA%90/"/>
    <category term="OpenClaw" scheme="https://news.cocoloop.cn/tags/OpenClaw/"/>
    <content>
      <![CDATA[<p>OpenClaw在开发者社区的走红速度有点出乎意料——从一个小众的开源项目到GitHub trending榜首，只用了不到两周。</p><h2 id="OpenClaw是什么"><a href="#OpenClaw是什么" class="headerlink" title="OpenClaw是什么"></a>OpenClaw是什么</h2><p>一个<strong>开源的AI agent开发框架</strong>，核心定位是让开发者能够快速搭建和部署自定义的AI agent。</p><p>和LangChain、AutoGen这些已有框架的区别在于：</p><ul><li><strong>更轻量</strong>：核心代码量小，不像LangChain那样”什么都想做”</li><li><strong>MCP原生支持</strong>：从第一天就围绕MCP协议设计</li><li><strong>工具链更灵活</strong>：可以轻松对接各种外部工具</li></ul><h2 id="为什么突然火了"><a href="#为什么突然火了" class="headerlink" title="为什么突然火了"></a>为什么突然火了</h2><p>几个因素叠加：</p><ol><li>MCP协议在2025年成为行业标准后，围绕MCP的工具需求爆发</li><li>有几个知名开发者在社交媒体上分享了用OpenClaw做的实际项目</li><li>文档做得好——新手半小时内能跑起来一个基础agent</li></ol><h2 id="社区反馈"><a href="#社区反馈" class="headerlink" title="社区反馈"></a>社区反馈</h2><p>正面评价集中在：</p><ul><li>上手门槛低</li><li>代码结构清晰，容易二次开发</li><li>和主流大模型（Claude、GPT、开源模型）兼容良好</li></ul><p>吐槽集中在：</p><ul><li>复杂场景下的性能和稳定性还需要打磨</li><li>文档更新速度跟不上代码迭代</li><li>安全方面的考虑不够充分</li></ul><h2 id="agent框架赛道"><a href="#agent框架赛道" class="headerlink" title="agent框架赛道"></a>agent框架赛道</h2><p>这个领域现在选手很多：LangChain、AutoGen、CrewAI、OpenClaw、Semantic Kernel……没有哪一个能说”我是标准”。</p><p>但MCP协议的标准化正在简化这个局面——如果工具接入层统一了，agent框架层面的差异主要在<strong>编排逻辑和开发体验</strong>上。OpenClaw选择了”小而美”的路线，能否长期维持需要看社区运营。</p><p class="source-ref">参考来源：GitHub项目页面、开发者社区讨论</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/openclaw-viral-ai-agent/</id>
    <link href="https://news.cocoloop.cn/2026/04/openclaw-viral-ai-agent/"/>
    <published>2026-04-07T05:20:00.000Z</published>
    <summary>
      <![CDATA[<p>OpenClaw在开发者社区的走红速度有点出乎意料——从一个小众的开源项目到GitHub trending榜首，只用了不到两周。</p>
<h2 id="OpenClaw是什么"><a href="#OpenClaw是什么" class="headerlink" title="OpenClaw是什么"></a>OpenClaw是什么</h2><p>一个<strong>开源的AI agent开发框架</strong>，核心定位是让开发者能够快速搭建和部署自定义的AI]]>
    </summary>
    <title>OpenClaw的爆火出圈：一个开源AI agent框架引发的连锁反应</title>
    <updated>2026-04-07T14:06:13.053Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="Qwen" scheme="https://news.cocoloop.cn/tags/Qwen/"/>
    <category term="多模态" scheme="https://news.cocoloop.cn/tags/%E5%A4%9A%E6%A8%A1%E6%80%81/"/>
    <category term="阿里" scheme="https://news.cocoloop.cn/tags/%E9%98%BF%E9%87%8C/"/>
    <category term="多语言" scheme="https://news.cocoloop.cn/tags/%E5%A4%9A%E8%AF%AD%E8%A8%80/"/>
    <content>
      <![CDATA[<p>今年2月17号，阿里在农历新年前夕放出了Qwen3.5——<strong>397B参数的开放权重模型</strong>，语言支持从82种直接拉到了<strong>201种</strong>。</p><h2 id="主要升级"><a href="#主要升级" class="headerlink" title="主要升级"></a>主要升级</h2><p><strong>原生多模态</strong>：文本、图片、视频在同一个模型里处理，不是外挂的adapter方案。这和Llama 4的early fusion思路类似，原生融合在实际使用中比后置拼接的效果明显好一截。</p><p><strong>201种语言和方言</strong>：这个覆盖面在开源模型里应该是最广的了。对于做国际化产品的团队来说，一个模型搞定全球市场的多语言需求，不用为每个语种单独部署。</p><h2 id="跑分表现"><a href="#跑分表现" class="headerlink" title="跑分表现"></a>跑分表现</h2><p>阿里自己给出的benchmark对比显示和OpenAI、Anthropic、Google DeepMind的当期模型打平。但CNBC特意注明了这些对比是”自报数据，未经独立验证”——这种声明在国产模型发布中还挺少见的，说明海外媒体对待国产模型的benchmark数据在变得更审慎。</p><h2 id="后续迭代"><a href="#后续迭代" class="headerlink" title="后续迭代"></a>后续迭代</h2><ul><li><strong>Qwen3.5-Omni</strong>：支持36种语言的语音生成。但这个版本<strong>没有开源</strong>，打破了阿里之前的开源传统。</li><li><strong>Qwen 3.6-Plus</strong>（4月2号发布）：进一步强化了自动编程和AI agent能力。</li></ul><p>有个信号值得关注：CNBC报道里提到，阿里、字节、智谱在同一时期密集发布升级，而且<strong>共同方向都是从聊天机器人转向AI Agent</strong>。这不是某一家的策略调整，而是整个国内AI行业在集体转向。</p><p>Agent能力正在取代纯粹的对话质量，成为模型竞争的新主战场。</p><p class="source-ref">参考来源：CNBC报道</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/qwen35-201-languages/</id>
    <link href="https://news.cocoloop.cn/2026/04/qwen35-201-languages/"/>
    <published>2026-04-07T05:00:00.000Z</published>
    <summary>
      <![CDATA[<p>今年2月17号，阿里在农历新年前夕放出了Qwen3.5——<strong>397B参数的开放权重模型</strong>，语言支持从82种直接拉到了<strong>201种</strong>。</p>
<h2 id="主要升级"><a href="#主要升级" class="headerlink" title="主要升级"></a>主要升级</h2><p><strong>原生多模态</strong>：文本、图片、视频在同一个模型里处理，不是外挂的adapter方案。这和Llama 4的early]]>
    </summary>
    <title>Qwen3.5支持201种语言了，阿里的全球化野心藏不住了</title>
    <updated>2026-04-07T13:46:48.952Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="Qwen" scheme="https://news.cocoloop.cn/tags/Qwen/"/>
    <category term="阿里" scheme="https://news.cocoloop.cn/tags/%E9%98%BF%E9%87%8C/"/>
    <category term="混合推理" scheme="https://news.cocoloop.cn/tags/%E6%B7%B7%E5%90%88%E6%8E%A8%E7%90%86/"/>
    <content>
      <![CDATA[<p>Qwen3系列里最有技术含量的设计之一是<strong>混合推理模式</strong>——同一个模型内置了thinking和non-thinking两种工作状态。</p><h2 id="怎么工作的"><a href="#怎么工作的" class="headerlink" title="怎么工作的"></a>怎么工作的</h2><ul><li><strong>Thinking mode</strong>：模型会先生成一段内部推理过程（类似Chain-of-Thought），然后基于推理结果给出回答。适合数学、逻辑、代码分析等需要深度思考的任务。</li><li><strong>Non-thinking mode</strong>：跳过推理步骤，直接响应。适合日常对话、简单问答。</li></ul><p>开发者可以通过API参数控制使用哪种模式，也可以设为自动——让模型自己判断当前任务需不需要深度思考。</p><h2 id="为什么要做成一个模型"><a href="#为什么要做成一个模型" class="headerlink" title="为什么要做成一个模型"></a>为什么要做成一个模型</h2><p>之前的做法通常是<strong>分开部署两个模型</strong>——一个负责快速响应，一个负责深度推理。这意味着两份部署成本、两套运维。</p><p>混合模式的好处是<strong>一套部署搞定两种需求</strong>。对于中小企业和预算有限的团队来说，这个成本差异很实际。</p><h2 id="技术上怎么实现"><a href="#技术上怎么实现" class="headerlink" title="技术上怎么实现"></a>技术上怎么实现</h2><p>Qwen3用的方法是在训练阶段同时优化两种目标：</p><ol><li>在需要推理的数据上训练thinking能力</li><li>在直接对话的数据上训练快速响应能力</li></ol><p>模型学会了根据输入的特征自动判断”这个问题需不需要想一想”。</p><h2 id="和其他家的对比"><a href="#和其他家的对比" class="headerlink" title="和其他家的对比"></a>和其他家的对比</h2><ul><li><strong>DeepSeek V3.1</strong>：也是双模式，think&#x2F;non-think</li><li><strong>Claude Opus 4.6</strong>：自适应思考（四档可调）</li><li><strong>GPT-5.4 Thinking</strong>：独立的thinking版本</li></ul><p>大家殊途同归，都意识到了”一个模型覆盖两种使用场景”是用户真正需要的。</p><p><strong>Qwen3-Max</strong>作为系列的旗舰版，在thinking mode下的数学和代码成绩可以和DeepSeek R1正面竞争。non-thinking mode下的响应速度则快得多。这种灵活性是纯推理模型做不到的。</p><p class="source-ref">参考来源：阿里云官方发布</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/qwen3-max-thinking/</id>
    <link href="https://news.cocoloop.cn/2026/04/qwen3-max-thinking/"/>
    <published>2026-04-07T04:50:00.000Z</published>
    <summary>
      <![CDATA[<p>Qwen3系列里最有技术含量的设计之一是<strong>混合推理模式</strong>——同一个模型内置了thinking和non-thinking两种工作状态。</p>
<h2 id="怎么工作的"><a href="#怎么工作的" class="headerlink" title="怎么工作的"></a>怎么工作的</h2><ul>
<li><strong>Thinking]]>
    </summary>
    <title>Qwen3-Max的混合推理模式：一个模型怎么做到&quot;想不想随便你&quot;</title>
    <updated>2026-04-07T14:06:13.053Z</updated>
  </entry>
  <entry>
    <author>
      <name>Cocoloop</name>
    </author>
    <category term="AI编程" scheme="https://news.cocoloop.cn/tags/AI%E7%BC%96%E7%A8%8B/"/>
    <category term="Claude Code" scheme="https://news.cocoloop.cn/tags/Claude-Code/"/>
    <category term="Cursor" scheme="https://news.cocoloop.cn/tags/Cursor/"/>
    <category term="Copilot" scheme="https://news.cocoloop.cn/tags/Copilot/"/>
    <content>
      <![CDATA[<p>2026年AI编程工具三足鼎立的格局基本定型了。三家走了完全不同的路线：</p><h2 id="定位差异"><a href="#定位差异" class="headerlink" title="定位差异"></a>定位差异</h2><table><thead><tr><th>工具</th><th>本质</th><th>强项</th></tr></thead><tbody><tr><td><strong>Claude Code</strong></td><td>终端agent</td><td>复杂多文件改动、大仓库理解</td></tr><tr><td><strong>Cursor</strong></td><td>独立AI IDE</td><td>日常编辑体验、补全速度</td></tr><tr><td><strong>GitHub Copilot</strong></td><td>多IDE插件</td><td>生态广、价格亲民、团队协作</td></tr></tbody></table><h2 id="能力对比"><a href="#能力对比" class="headerlink" title="能力对比"></a>能力对比</h2><p><strong>Claude Code</strong>在SWE-bench Verified上拿了<strong>80.8%</strong>，上下文窗口100万token，能力天花板最高。但它是终端工具，不习惯命令行的人用起来有门槛。</p><p><strong>Cursor</strong>的Supermaven补全引擎接受率<strong>72%</strong>，Composer多文件可视化编辑体验最好，还有后台agent可以跑自主任务。日常写码体验最丝滑。</p><p><strong>Copilot</strong>胜在$10&#x2F;月的价格和几乎所有IDE都有插件。刚入门AI编程的人从Copilot开始试水成本最低。</p><h2 id="开发者怎么说"><a href="#开发者怎么说" class="headerlink" title="开发者怎么说"></a>开发者怎么说</h2><p>2026年的调查数据：</p><ul><li>Claude Code “最爱”票数：<strong>46%</strong></li><li>Cursor：<strong>19%</strong></li><li>Copilot：<strong>9%</strong></li></ul><p>但另一个有趣的数据是：有经验的开发者平均同时使用<strong>2.3个工具</strong>。最常见的组合是Cursor&#x2F;Copilot负责日常编辑 + Claude Code负责复杂任务。</p><h2 id="定价"><a href="#定价" class="headerlink" title="定价"></a>定价</h2><ul><li>Copilot：<strong>$10&#x2F;月</strong>（性价比之王）</li><li>Cursor：<strong>$20&#x2F;月</strong>（体验最好的IDE）</li><li>Claude Code：<strong>$20~$200&#x2F;月</strong>（天花板最高，但重度用户费用不低）</li></ul><p>实际选择建议：</p><ul><li>团队协作、初学者 → Copilot</li><li>日常IDE开发 → Cursor</li><li>硬核多文件改动、大型重构 → Claude Code</li><li>预算充足 → 两到三个一起用，各取所长</li></ul><p class="source-ref">参考来源：NxCode对比评测</p>]]>
    </content>
    <id>https://news.cocoloop.cn/2026/04/ai-coding-tools-2026/</id>
    <link href="https://news.cocoloop.cn/2026/04/ai-coding-tools-2026/"/>
    <published>2026-04-07T04:20:00.000Z</published>
    <summary>
      <![CDATA[<p>2026年AI编程工具三足鼎立的格局基本定型了。三家走了完全不同的路线：</p>
<h2 id="定位差异"><a href="#定位差异" class="headerlink" title="定位差异"></a>定位差异</h2><table>
<thead>
<tr>
<th>工具</th>
<th>本质</th>
<th>强项</th>
</tr>
</thead>
<tbody><tr>
<td><strong>Claude]]>
    </summary>
    <title>Claude Code vs Cursor vs Copilot：2026年三大AI编程工具到底怎么选</title>
    <updated>2026-04-07T13:46:48.952Z</updated>
  </entry>
</feed>
