谷歌发布安卓AI 系统,这就是苹果想象中的自己
本文来自微信公众号: 爱范儿 ,作者:发现明日产品的,编辑:肖钦鹏,原文标题:《谷歌发布安卓 AI 系统,这就是苹果想象中的自己》
和去年一样,在正式的Google I/O开发者大会之前,谷歌为Android单独开了一次小型发布会。
本次Android Show上,谷歌几乎是一股脑将未来一年有关Android和整个AI产品生态的「宏愿」抖了出来。
除了作为基底的Android 17之外,我们这次还迎来了一些意料之外的平台更新和几款硬件产品的发布。
重点在于:虽然产品不多、距离Android 17广泛推送还有一段时间,但我们已经足以看到谷歌未来五年甚至十年,对于人工智能生态的计划了。
更要命的是,今晚的谷歌,刚好是苹果梦想里进入AI时代之后的自己。
关联阅读:下个月的苹果WWDC,假如iCloud变成iClaw……?
操作系统到智能系统
活动刚开场,谷歌就宣布了一项意义重大的举措:
Android将不再是一个单纯的操作系统(Operating System),而是一个智能系统(Intelligence System)。
换句话说,曾经以「用户手动操作」为绝对主流的软硬件使用方式,在谷歌看来已经是上一个时代的符号了。
从今天起,Android作为一个智能功能的集群,会更加主动地介入到用户操作流程的更前端,想你所想、做你所做。
这也是为什么在本次活动上,Android 17这个具体的系统版本出现的次数屈指可数,Gemini Intelligence却成为了系统的代名词。
首先,Gemini Intelligence作为谷歌Gemini在手机硬件上的最新形态,极大强化了它多模态、跨环境、高度整合的运行模式。
比如作为系统输入的第一入口,默认键盘Gboard就得到了一次功能强化。
基于Gemini Intelligence的多模态能力,原本在键盘功能中存在感不高的「自动填入」功能极大地拓展了它的信息来源:
除了手动保存的各种密码之外,Gboard还将会支持自动填入图库里面的证照信息、聊天提到的地址信息、邮件撰写的日程信息等等。
更直白地说:Gemini Intelligence已经远超「帮忙记住密码」的水平,而是真正像个助理一样帮你记住和建议各种来源、各种类型的信息。
另一种有效利用这些多模态信息的方式,则是Android的桌面小组件(widget)。
在Android 17中,Gemini Intelligence将会支持一项名为「Create my widget」的功能,但不是第一时间上线、而是目标今年晚些时候。
这个新功能主要做的,就是用类似vide coding的模式,根据你的指令在桌面上创建新的小组件,打破了小组件只能是app预置的那些。
举例来说,相比功能单一的记录卡路里的app,我可以和Gemini说:做一个每周工作日向我推荐两次高蛋白餐的小组件。

图|Google
这样一来,桌面小组件就真正变成了一项复合任务的入口,本质上和人vibe coding一个app的性质是完全相同的。
此外,喜欢语音输入的用户也有福了——新版Gboard将会支持类似Typeless的高智能化语音输入功能,名字叫做Rambler。
相比以前要亲口说「逗号…句号…」,Rambler可以将一整段充满了「嗯嗯啊啊」的口述转译、清洗、整理成一段整洁的文字:
另一方面,Gemini Intelligence的自动执行功能也得到了进一步加强。
去年的Google I/O和发布会上,谷歌演示过给Gemini下命令,让它自动帮你点外卖、叫车、订票之类的操作,正式上线之后反响不错。
而在Android 17中,Gemini升级成Gemini Intelligence,这种「代操作」也支持多步骤任务了。
比如以前只支持简单的「帮我订一张票」,你现在可以在Gemini对话框里直接拍下旅游宣传册,和Gemini说「在携程上帮我找一个类似的双人团行程」:
重点不在于Gemini能够执行什么任务,而是它拥有了更强大的「多做一步」的能力,有时候就是多的这一步,让AI从「能用」变成了「有用」。
当然Android 17的更新也不是Gemini的独角戏,谷歌同样对很多「Android核心体验」进行了优化。
在Android 17中,谷歌和Meta达成了合作,在Facebook、Instagram等等app里支持了调用原生相机功能,比如Ultra HDR、超级防抖、夜景视频等等。
而谷歌使用了好多年的平面风格emoji也迎来了一次更新——从原本的纯2D变成了2.5D,在风格上更接近iOS使用的emoji了:
而我们此前介绍过的QuickShare兼容AirDrop的功能,也将在Android 17上支持更多厂商的设备。
除了三星和Pixel之外,(国际版)OPPO、Vivo、一加和荣耀的较新机型也将在今年下半年陆续更新兼容AirDrop的固件:

图|Google
谷歌的AI PC
在Gemini Intelligence之外,谷歌也没有忘记给这些更复杂、更强大的AI功能打造一套量身定制的硬件。
这个新硬件的形态,既不是吊坠,也不是耳机,更不是手表手环——而是曾经的Chromebook。
没错,在AI时代,谷歌又双叒给自己的笔记本改名了。
从Pixelbook,到Chromebook,再到最新的Googlebook:
和Chromebook一样,Googlebook并不是某一款具体的笔记本电脑,而是同样和第三方厂商合作、只要符合标准的都可以叫这个名字。
而Googlebook,就是「第一款为Gemini Intelligence量身打造」的硬件产品。
除了上面的全新Gemini Intelligence功能之外,Googlebook在日常使用最频繁的基础人机交互层面,做出了堪称革命性的创新——
在Googlebook上呼出Gemini功能,既不需要说话、也不需要按键、更不是右键菜单,只需要「摇一摇光标」就行。
基于Gemini Intelligence的多模态能力,推荐的AI指令甚至可以根据光标下面的内容、选中的内容、屏幕上可以进行的操作等等因素自动调整。
在如今电脑端AI功能越来越密集、笔记本键盘空间不够充裕的情况下,Googlebook的「魔法指针」无疑是最直观且优雅的解决方案之一。
此外,Googlebook还解决了ChromeOS历史上的老大难问题:它是谷歌的产品,却跑不了Android app。
换句话说,所有Android手机里面的app,在Googlebook上都可以直接运行,基本看齐了如今macOS跑iOS软件的水平。
这一切的基础,就是爱范儿之前文章中提到的谷歌大力推行的GKI(通用内核镜像)计划,正在让Android脱离手机的桎梏、无缝衔接到更多形态的设备上。
虽然谷歌目前没有提到这个功能的兼容情况,但我们猜测,依据处理器规格和网络状态,Googlebook应该同时支持本地运行和画面投屏手机app两种方式。
根据活动消息,首批Googlebook的生产厂商还是那几个熟悉的身影:宏碁、华硕、戴尔、惠普、联想等等,首批产品预计在今年内上市。
除了笔记本电脑,Android 17同样更新了一部分Android Auto车机系统的功能。
比如更像OpenClaw能力的Gemini Intelligence代操作、优化的3D道路画面、更加智能化的流媒体播放功能等等。
当然也支持把手机上自创的自定义widget显示在车机上。

图|Google
同时,原生支持Android Auto的品牌范围也在增加,部分型号甚至支持记忆当前车辆信息,类似后备箱尺寸、仪表盘规格等等。
这样一来,用户在使用Gemini问答的时候,车机就能给出具体回答,比如「能不能同时放俩27寸旅行箱?」或者「那个像是刺客的警示灯是什么意思」之类的。
可惜的是,这项功能目前也不会立即上线,同样预计为「今年晚些时候」才会有产品搭载。
总的来说,本次活动只是今年Google I/O的开胃菜,但它涉及到的理念变革却是非常根本性的——
其实在活动的开头,谷歌就指出了:好用的人工智能技术,就应该是让人感受不到的,它会融入进每一层软件和硬件的体验。
而这正是Gemini Intelligence在做的。
无论是Pixel手机、Android Auto车机还是Googlebook,这些硬件最终都只是Gemini智能的一种体现方式而已。
值得玩味的是——谷歌今天晚上所做的,刚好就是苹果削尖脑袋想要实现的那套AI生态。
让iPhone、手表和Mac共用一套智能体系,用户无论在哪里使用,功能和体验都是高度相似的,硬件只区分交互方式、不影响智能水平。
可惜的是,苹果挣扎了这么久,也没有搞定「模型」的部分,反而让自己的硬件成了别家模型的嫁衣。
将来的智能系统(Intelligence System),形式比现在更多样、但核心却比现在更加统一。
#谷歌发布安卓AI #系统这就是苹果想象中的自己