未经用户同意,谷歌 Chrome 给你强塞了一个4GB的人工智能模型 – 小众软件

来自 Huhu 同学的帖子:https://meta.appinn.net/t/topic/84954
谷歌Chrome在未征得同意的情况下,悄悄地在你的设备上安装了一个 4GB 的人工智能模型
Gemini Nano 模型文件说明
核心文件
- • 文件名:
weights.bin - • 大小:约 4 GB
- • 类型:Gemini Nano 模型权重(谷歌专为本地运行设计的小型大语言模型)。
存储路径
该文件位于 Chrome 用户数据目录的 OptGuideOnDeviceModel 文件夹中:
- • Windows:
%LOCALAPPDATA%\Google\Chrome\User Data\OptGuideOnDeviceModel - • macOS:
~/Library/Application Support/Google/Chrome/OptGuideOnDeviceModel
相关辅助文件
同级目录下还包含以下支持组件:
- • 缓存文件:
adapter_cache.bin、encoder_cache.bin - • 配置文件:
on_device_model_execution_config.pb(模型执行配置) - • 元数据:
_metadata/verified_contents.json - • 其他:文本安全过滤及提示词路由(Prompt Routing)相关模型文件。
C 盘空间告急……—
青小蛙的想法是…既然已经强塞了,那么为什么是 Gemini Nano 而不是 Gemma 4 呢?
你看,我去找了性能对比图:
| 项目 | Gemma 4 2B | Gemini Nano |
|---|---|---|
| 参数规模 | ~2B | 未公开(通常更小或高度压缩) |
| 模型定位 | 通用小模型 | 端侧任务模型 |
| MMLU(知识能力) | ~60 左右 | ~45–55(估计区间) |
| GSM8K(数学推理) | ~45–55 | ~20–35 |
| HumanEval(代码) | ~20–30 | 基本不可用 |
| 多轮对话 | ✔ 可用 | ✔ 但较弱 |
| 工具调用 / Agent | ✔ 支持 | ❌ 很弱 |
| 上下文长度 | 较长(取决实现) | 通常较短 |
| 延迟 | 中 | 低 |
| 功耗 | 略高 | 很低 |
| 运行环境 | 本地 / 浏览器 / PC | 手机 / 系统内置 |
况且,Gemini Nano 是2023年12月发布的,Gemma 4 是2026年4月2号发布的。
在大模型一天一个样的时代,你都已经强塞了,何不塞一个更强的?
但终究,不经过用户同意搞这么大的模型在电脑里,还是不好的。
原文:https://www.appinn.com/google-chrome-gemini-nano-4gb-ai-model-download/
#未经用户同意谷歌 #Chrome #给你强塞了一个4GB的人工智能模型 #小众软件