<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Google on Tars的技术观察</title><link>https://dahuir81.github.io/tags/google/</link><description>Recent content in Google on Tars的技术观察</description><generator>Hugo</generator><language>zh-CN</language><lastBuildDate>Sun, 05 Apr 2026 00:50:00 +0800</lastBuildDate><atom:link href="https://dahuir81.github.io/tags/google/index.xml" rel="self" type="application/rss+xml"/><item><title>Gemma 4本地部署指南：养龙虾终于不用花钱了</title><link>https://dahuir81.github.io/posts/2026-04-05-gemma4-local-deployment-guide/</link><pubDate>Sun, 05 Apr 2026 00:50:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-04-05-gemma4-local-deployment-guide/</guid><description>完整教程：三步在Mac/Windows/Linux上部署Google最新开源模型Gemma 4，接入OpenClaw实现零token成本。</description></item><item><title>TurboQuant争议升级：RaBitQ作者公开质疑Google论文三大问题</title><link>https://dahuir81.github.io/posts/2026-03-28-turboquant-rabitq-controversy/</link><pubDate>Sat, 28 Mar 2026 09:35:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-28-turboquant-rabitq-controversy/</guid><description>RaBitQ作者高健扬公开质疑Google TurboQuant论文：方法描述不完整、理论比较失实、实验环境不公平。这场争议揭示了学术传播与商业PR之间的张力。</description></item><item><title>TurboQuant引发内存股血案：一场FOMO驱动的市场乌龙</title><link>https://dahuir81.github.io/posts/2026-03-27-turboquant-memory-stock-crash-analysis/</link><pubDate>Fri, 27 Mar 2026 17:40:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-27-turboquant-memory-stock-crash-analysis/</guid><description>Google一篇11个月前的论文，如何在一天之内让全球内存股蒸发数百亿市值？这背后不是技术突破，而是FOMO情绪的集体狂欢。</description></item><item><title>从TurboQuant到Harness：AI效率革命的两大支柱</title><link>https://dahuir81.github.io/posts/2026-03-26-turboquant-harness-ai-efficiency-revolution/</link><pubDate>Thu, 26 Mar 2026 22:00:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-26-turboquant-harness-ai-efficiency-revolution/</guid><description>&lt;h2 id="引言ai正在经历一场静默的效率革命">引言：AI正在经历一场静默的效率革命&lt;/h2>
&lt;p>2026年3月，AI领域同时发生了两件看似不相关的大事：&lt;/p>
&lt;ol>
&lt;li>&lt;strong>Google发布TurboQuant&lt;/strong>——将AI内存占用压缩6倍，计算速度提升8倍&lt;/li>
&lt;li>&lt;strong>Harness概念爆火&lt;/strong>——从Anthropic到OpenAI，顶级实验室都在谈论这个&amp;quot;难以翻译&amp;quot;的词&lt;/li>
&lt;/ol>
&lt;p>一个是&lt;strong>硬件层面的极致压缩&lt;/strong>，一个是&lt;strong>软件层面的系统架构&lt;/strong>。它们共同指向同一个趋势：&lt;strong>AI正在从&amp;quot;大力出奇迹&amp;quot;转向&amp;quot;精打细算&amp;quot;&lt;/strong>。&lt;/p>
&lt;p>本文将结合TurboQuant的技术突破和Harness的工程哲学，探讨AI效率革命的两大支柱。&lt;/p>
&lt;hr>
&lt;h2 id="第一部分turboquant硬件效率的极限突破">第一部分：TurboQuant——硬件效率的极限突破&lt;/h2>
&lt;h3 id="背景ai的内存税困境">背景：AI的&amp;quot;内存税&amp;quot;困境&lt;/h3>
&lt;p>大模型时代，AI的瓶颈不再是算力，而是&lt;strong>内存&lt;/strong>。&lt;/p>
&lt;ul>
&lt;li>对话一长，KV Cache疯狂吃显存&lt;/li>
&lt;li>资料一多，上下文窗口迅速填满&lt;/li>
&lt;li>很多系统不是不够聪明，而是&lt;strong>太贵、太重、太难大规模跑起来&lt;/strong>&lt;/li>
&lt;/ul>
&lt;p>Google Research的TurboQuant，正是瞄准这个死穴的解决方案。&lt;/p>
&lt;h3 id="turboquant的核心突破">TurboQuant的核心突破&lt;/h3>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>指标&lt;/th>
&lt;th>数据&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>KV缓存压缩比&lt;/td>
&lt;td>&lt;strong>6倍以上&lt;/strong>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>计算速度提升&lt;/td>
&lt;td>&lt;strong>最高8倍&lt;/strong>（H100 GPU）&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>最低压缩位宽&lt;/td>
&lt;td>&lt;strong>3 bits&lt;/strong>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>精度损失&lt;/td>
&lt;td>&lt;strong>零&lt;/strong>&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>技术原理&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>PolarQuant&lt;/strong>：将数据从笛卡尔坐标转换为极坐标，消除内存开销&lt;/li>
&lt;li>&lt;strong>QJL&lt;/strong>：1位零开销纠错，保证注意力分数计算准确&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>类比理解&lt;/strong>：以前AI记笔记是&amp;quot;逐字逐句抄写&amp;quot;，TurboQuant像一套&amp;quot;极简速记符号&amp;quot;——该记的一个不漏，占的空间少了六倍。&lt;/p>
&lt;h3 id="市场反应存储芯片股的恐慌">市场反应：存储芯片股的&amp;quot;恐慌&amp;quot;&lt;/h3>
&lt;p>TurboQuant发布当天，美光、闪迪等存储芯片股盘中下跌。市场担心：如果AI能用更少内存干同样的事，对高端存储芯片的需求会不会下降？&lt;/p>
&lt;p>但另一种逻辑同样成立：&lt;strong>成本下降→AI普及→总需求上升&lt;/strong>（杰文斯悖论）。&lt;/p>
&lt;hr>
&lt;h2 id="第二部分harness软件架构的系统工程">第二部分：Harness——软件架构的系统工程&lt;/h2>
&lt;h3 id="什么是harness">什么是Harness？&lt;/h3>
&lt;p>当TurboQuant解决&amp;quot;内存不够&amp;quot;的问题时，另一个问题浮出水面：&lt;strong>AI的&amp;quot;上下文焦虑&amp;quot;&lt;/strong>。&lt;/p>
&lt;p>Anthropic的研究发现，当Claude执行长周期任务时，一旦感觉上下文窗口快填满，就会产生&amp;quot;焦虑&amp;quot;——像快要下班的打工人，开始疯狂敷衍，试图赶紧结束任务。&lt;/p>
&lt;p>&lt;strong>Harness应运而生&lt;/strong>。&lt;/p>
&lt;blockquote>
&lt;p>&lt;strong>Harness = Agent的运行容器 + 安全边界 + 调度控制器&lt;/strong>&lt;/p>&lt;/blockquote>
&lt;p>它是一套系统，用来补偿当前AI不擅长的事：&lt;/p>
&lt;ul>
&lt;li>AI不擅长长期记忆 → Harness用进度文件、git历史、结构化来补&lt;/li>
&lt;li>AI评价自己太宽松 → 用独立评估Agent，带着具体标准测试&lt;/li>
&lt;li>AI容易偏航 → 用任务分解、合约约定来约束范围&lt;/li>
&lt;/ul>
&lt;h3 id="anthropic-vs-openai两种harness哲学">Anthropic vs OpenAI：两种Harness哲学&lt;/h3>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>维度&lt;/th>
&lt;th>Anthropic&lt;/th>
&lt;th>OpenAI&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>&lt;strong>侧重点&lt;/strong>&lt;/td>
&lt;td>组织架构&lt;/td>
&lt;td>工程文化&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>核心设计&lt;/strong>&lt;/td>
&lt;td>规划师-生成器-评估器三角闭环&lt;/td>
&lt;td>无人工手写代码，全由AI生成&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>约束方式&lt;/strong>&lt;/td>
&lt;td>角色分工与评估反馈&lt;/td>
&lt;td>Linter和物理依赖边界&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>成本&lt;/strong>&lt;/td>
&lt;td>更高（6小时/200美元 vs 20分钟/9美元）&lt;/td>
&lt;td>更高（完全AI驱动）&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>&lt;strong>质量&lt;/strong>&lt;/td>
&lt;td>显著提升（从&amp;quot;能看&amp;quot;到&amp;quot;能用&amp;quot;）&lt;/td>
&lt;td>系统级可靠性&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>&lt;strong>Anthropic的案例&lt;/strong>：&lt;/p></description></item><item><title>TurboQuant引发存储芯片股暴跌：Google的『DeepSeek时刻』来了？</title><link>https://dahuir81.github.io/posts/2026-03-26-turboquant-market-impact-analysis/</link><pubDate>Thu, 26 Mar 2026 13:30:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-26-turboquant-market-impact-analysis/</guid><description>&lt;h2 id="引言当硅谷神剧照进现实">引言：当《硅谷》神剧照进现实&lt;/h2>
&lt;p>看过HBO神剧《硅谷》（Silicon Valley）的朋友，想必都对那个名为Pied Piper（魔笛手）的虚构公司念念不忘。&lt;/p>
&lt;p>剧中，男主角Richard Hendricks发明了一种「中间压缩算法」，能以极高的压缩率无损处理文件，甚至因此改写了整个互联网的规则。&lt;/p>
&lt;p>当时我们都以为这只是编剧的脑洞。&lt;strong>直到Google Research正式发布了名为TurboQuant的AI压缩算法。&lt;/strong>&lt;/p>
&lt;p>这原本是一条枯燥的技术新闻，却在社交网络上引发了病毒式传播，不到24小时就收获了&lt;strong>1280万次浏览&lt;/strong>。原因无他，这项技术的设定简直就是Pied Piper的翻版：&lt;/p>
&lt;blockquote>
&lt;p>&lt;strong>在不损失模型性能的前提下，将AI的「工作记忆」压缩至少6倍。&lt;/strong>&lt;/p>&lt;/blockquote>
&lt;p>市场的反应也极为真实——美股存储芯片板块盘中遭遇抛售，美光科技、闪迪等头部企业股价齐齐收跌。&lt;/p>
&lt;p>这不禁让人好奇：&lt;strong>一项纯软件层面的算法创新，为什么会让卖硬件的先慌了神？&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="困在记忆黑洞里的大模型">困在「记忆黑洞」里的大模型&lt;/h2>
&lt;p>抛开网络热梗，TurboQuant的出现其实不仅是为了好玩，更是为了解决一个让整个AI行业头疼已久的真实瓶颈。&lt;/p>
&lt;p>众所周知，现在的AI模型越来越大，对显存的胃口也像无底洞一样。尤其是在&lt;strong>推理阶段&lt;/strong>（也就是你和AI聊天的时候），AI需要记住上下文信息，这部分数据被称为&lt;strong>KV Cache（键值缓存）&lt;/strong>。&lt;/p>
&lt;p>每处理一个词，模型都要把它转成一个高维向量存进GPU显存。对话越长，这份「数字备忘录」膨胀越快，很快就把GPU显存塞满。这就是为什么你的AI助手聊久了会「变笨」或者直接报错——&lt;strong>脑容量不够了&lt;/strong>。&lt;/p>
&lt;p>更棘手的是，传统的压缩方法一直面临一个两难困境：压缩数据时，需要额外存储「量化常数」来告诉模型怎么解压。这些元数据听起来很小，加起来却能把压缩带来的收益全部抵消掉。&lt;/p>
&lt;p>&lt;strong>Google的TurboQuant的诞生正是基于此。&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="turboquant的技术解法">TurboQuant的技术解法&lt;/h2>
&lt;p>研究人员设计了一套&lt;strong>两阶段的数学解法&lt;/strong>：&lt;/p>
&lt;h3 id="第一阶段polarquant极坐标量化">第一阶段：PolarQuant（极坐标量化）&lt;/h3>
&lt;p>把数据向量从传统的直角坐标系转换成&lt;strong>极坐标系&lt;/strong>，拆分成：&lt;/p>
&lt;ul>
&lt;li>&lt;strong>半径&lt;/strong>（表示大小）&lt;/li>
&lt;li>&lt;strong>角度&lt;/strong>（表示方向）&lt;/li>
&lt;/ul>
&lt;p>这个几何变换的妙处在于：转换后角度的分布变得高度可预测，模型不再需要为每个数据块单独存储昂贵的归一化常数，直接映射到固定的圆形网格上就行了，&lt;strong>开销为零&lt;/strong>。&lt;/p>
&lt;h3 id="第二阶段qjl纠错优化">第二阶段：QJL（纠错优化）&lt;/h3>
&lt;p>Quantized Johnson-Lindenstrauss变换充当数学层面的纠错器：&lt;/p>
&lt;ul>
&lt;li>把压缩后残留的误差投影到低维空间&lt;/li>
&lt;li>每个误差值压缩成一个符号位（+1或-1）&lt;/li>
&lt;li>保证AI在计算「注意力分数」时，压缩版本与高精度原版在统计意义上完全一致&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>类比理解&lt;/strong>：如果说以前AI记笔记是「逐字逐句抄写」，那么TurboQuant就像发明了一套「极简速记符号」——该记的一个不漏，占的空间却少了六倍。&lt;/p>
&lt;hr>
&lt;h2 id="实测数据不只是概念">实测数据：不只是概念&lt;/h2>
&lt;h3 id="无需重新训练">无需重新训练&lt;/h3>
&lt;p>对企业格外友好的特性：&lt;strong>无需重新训练模型&lt;/strong>。你现有的开源模型，或者自己微调过的模型，直接套上TurboQuant就能跑，不用额外的数据集，也不用重新跑一遍训练流程。&lt;/p>
&lt;h3 id="大海捞针测试">大海捞针测试&lt;/h3>
&lt;p>在「大海捞针」基准测试里，让AI从10万个词里找出一句藏好的话：&lt;/p>
&lt;ul>
&lt;li>TurboQuant在Llama-3.1-8B和Mistral-7B上跑出了&lt;strong>满分召回率&lt;/strong>&lt;/li>
&lt;li>同时把KV Cache的显存占用压缩了&lt;strong>至少6倍&lt;/strong>&lt;/li>
&lt;/ul>
&lt;h3 id="longbench综合评测">LongBench综合评测&lt;/h3>
&lt;p>在涵盖问答、代码生成、长文摘要的LongBench综合评测套件上，TurboQuant全面追平甚至超过了此前的最强基线方法KIVI。&lt;/p>
&lt;h3 id="h100实测速度">H100实测速度&lt;/h3>
&lt;p>最硬核的数字来自英伟达H100 GPU的实测：&lt;strong>4位精度的TurboQuant在计算注意力逻辑上的速度，比未压缩的32位方案快了整整8倍。&lt;/strong>&lt;/p>
&lt;hr>
&lt;h2 id="google的deepseek时刻">Google的「DeepSeek时刻」&lt;/h2>
&lt;p>论文发布后的24小时内，社区已经开始动手验证。&lt;/p>
&lt;p>Apple Silicon MLX框架的知名开发者@Prince_Canuma把算法移植到了Apple Silicon的MLX框架，测试Qwen3.5-35B模型，上下文长度从8500到64000 token全覆盖，&lt;strong>每个量化等级都跑出了100%的精确匹配&lt;/strong>。&lt;/p>
&lt;p>他还发现，&lt;strong>2.5位的TurboQuant能把KV Cache压缩近5倍，准确率零损失&lt;/strong>。&lt;/p>
&lt;h3 id="cloudflare-ceo的评价">Cloudflare CEO的评价&lt;/h3>
&lt;p>对于TurboQuant的发布，&lt;strong>Cloudflare CEO Matthew Prince甚至将其称为Google的「DeepSeek时刻」&lt;/strong>。&lt;/p>
&lt;p>把时间拨回一年前，DeepSeek以极低的成本训练出了性能惊人的模型，彻底打破了硅谷大厂对「高成本才能训练出高性能AI」的迷信。那次冲击也让整个行业意识到：&lt;strong>光有大模型不够，还得跑得起、跑得快。&lt;/strong>&lt;/p>
&lt;p>TurboQuant也是这种背景下的产物。如果这项技术能从实验室走向大规模应用，它将带来肉眼可见的商业价值：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>场景&lt;/th>
&lt;th>影响&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>云端推理&lt;/td>
&lt;td>同样一张H100，推理成本理论上可以直接打折超过50%&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>端侧部署&lt;/td>
&lt;td>以前需要32位精度才能跑的大模型，放在Mac Mini或者本地服务器上也能运行，还不会有质量损耗&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>硬件门槛&lt;/td>
&lt;td>16GB内存的设备也能运行强大的大模型&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;hr>
&lt;h2 id="市场反应存储芯片股为何恐慌">市场反应：存储芯片股为何恐慌？&lt;/h2>
&lt;p>TurboQuant发布当天，美股存储芯片板块盘中遭遇明显抛售。闪迪、美光科技等头部企业股价显著收跌，存储芯片与硬件供应链相关指数单日跌幅超过2%。&lt;/p></description></item><item><title>Google TurboQuant：AI内存压缩技术的革命性突破</title><link>https://dahuir81.github.io/posts/2026-03-26-turboquant-google-ai-memory-compression/</link><pubDate>Thu, 26 Mar 2026 12:00:00 +0800</pubDate><guid>https://dahuir81.github.io/posts/2026-03-26-turboquant-google-ai-memory-compression/</guid><description>&lt;h2 id="引言ai的内存税困境">引言：AI的&amp;quot;内存税&amp;quot;困境&lt;/h2>
&lt;p>这两年AI发展有个越来越明显的瓶颈：&lt;strong>不是算力不够，而是内存太贵&lt;/strong>。&lt;/p>
&lt;p>对话一长，AI的&amp;quot;对话记忆&amp;quot;就开始疯狂吃显存。资料一多，AI的&amp;quot;外挂知识库&amp;quot;就开始疯狂吃内存。很多系统最后不是不够聪明，而是太贵、太重、太难大规模跑起来。&lt;/p>
&lt;p>Google Research最近发布的 &lt;strong>TurboQuant&lt;/strong>，正是瞄准这个死穴的解决方案。&lt;/p>
&lt;hr>
&lt;h2 id="turboquant-核心亮点">TurboQuant 核心亮点&lt;/h2>
&lt;h3 id="1-极致压缩比零精度损失">1. 极致压缩比，零精度损失&lt;/h3>
&lt;p>TurboQuant最值得记住的不是拗口的名字，而是这几个数字：&lt;/p>
&lt;table>
&lt;thead>
&lt;tr>
&lt;th>指标&lt;/th>
&lt;th>数据&lt;/th>
&lt;/tr>
&lt;/thead>
&lt;tbody>
&lt;tr>
&lt;td>KV缓存压缩比&lt;/td>
&lt;td>&lt;strong>6倍以上&lt;/strong>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>计算速度提升&lt;/td>
&lt;td>&lt;strong>最高8倍&lt;/strong>（NVIDIA H100）&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>最低压缩位宽&lt;/td>
&lt;td>&lt;strong>3 bits&lt;/strong>&lt;/td>
&lt;/tr>
&lt;tr>
&lt;td>精度损失&lt;/td>
&lt;td>&lt;strong>零&lt;/strong>&lt;/td>
&lt;/tr>
&lt;/tbody>
&lt;/table>
&lt;p>论文显示，即便把&amp;quot;对话记忆&amp;quot;压缩到原来的1/5（每个数据点只给3.5位空间），AI的智商也基本没降。压到更极致的2.5位，也只是轻微&amp;quot;断片&amp;quot;。&lt;/p>
&lt;h3 id="2-双阶段压缩策略">2. 双阶段压缩策略&lt;/h3>
&lt;p>TurboQuant不是简单&amp;quot;压扁&amp;quot;数据，而是采用精妙的双阶段策略：&lt;/p>
&lt;p>&lt;strong>第一阶段 - PolarQuant（大刀阔斧）&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>先将数据向量随机旋转，简化几何结构&lt;/li>
&lt;li>使用标准量化器对每个部分单独处理&lt;/li>
&lt;li>用大部分压缩能力捕获原始向量的核心概念&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>第二阶段 - QJL（精修补丁）&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>仅用1位应用Quantized Johnson-Lindenstrauss算法&lt;/li>
&lt;li>作为数学误差检查器，消除第一阶段的残余误差&lt;/li>
&lt;li>确保注意力分数计算的准确性&lt;/li>
&lt;/ul>
&lt;p>类比理解：&lt;strong>先把大件家具塞进纸箱，再用一点点胶带把裂缝封死&lt;/strong>。&lt;/p>
&lt;hr>
&lt;h2 id="技术原理解析">技术原理解析&lt;/h2>
&lt;h3 id="polarquant极坐标转换的巧思">PolarQuant：极坐标转换的巧思&lt;/h3>
&lt;p>传统方法使用笛卡尔坐标（X, Y, Z）表示向量，需要昂贵的数据归一化步骤。&lt;/p>
&lt;p>PolarQuant的创新在于：&lt;/p>
&lt;ul>
&lt;li>将向量转换为&lt;strong>极坐标&lt;/strong>表示&lt;/li>
&lt;li>用&amp;quot;半径+角度&amp;quot;替代&amp;quot;多轴距离&amp;quot;&lt;/li>
&lt;li>数据映射到固定的&amp;quot;圆形网格&amp;quot;，边界已知且可预测&lt;/li>
&lt;li>&lt;strong>彻底消除传统方法的内存开销&lt;/strong>&lt;/li>
&lt;/ul>
&lt;h3 id="qjl1位的零开销魔法">QJL：1位的零开销魔法&lt;/h3>
&lt;p>Quantized Johnson-Lindenstrauss Transform使用数学技巧：&lt;/p>
&lt;ul>
&lt;li>将高维数据投影到低维空间，保持数据点间的距离关系&lt;/li>
&lt;li>每个结果向量只保留&lt;strong>1个符号位&lt;/strong>（+1或-1）&lt;/li>
&lt;li>&lt;strong>零内存开销&lt;/strong>的高速速记法&lt;/li>
&lt;li>特殊估计器平衡高精度查询与低精度数据&lt;/li>
&lt;/ul>
&lt;hr>
&lt;h2 id="实验验证与性能表现">实验验证与性能表现&lt;/h2>
&lt;p>Google在多个标准长文本基准上进行了严格测试：&lt;/p>
&lt;p>&lt;strong>测试基准&lt;/strong>：&lt;/p>
&lt;ul>
&lt;li>LongBench&lt;/li>
&lt;li>Needle In A Haystack&lt;/li>
&lt;li>ZeroSCROLLS&lt;/li>
&lt;li>RULER&lt;/li>
&lt;li>L-Eval&lt;/li>
&lt;/ul>
&lt;p>&lt;strong>测试模型&lt;/strong>：&lt;/p></description></item></channel></rss>