标签: Google

  • Google在Android端放大招:Gemini不只是助手,而是你的“超级代理”

    Google在Android端放大招:Gemini不只是助手,而是你的“超级代理”

    说实话,看完Google在Android Show: I/O Edition上发布的内容,我觉得移动端AI的竞争正式进入了一个全新阶段。这次的更新不是简单地在手机上加个AI按钮,而是直接让Gemini变成一个能跨应用、跨场景帮你干活的“超级代理”。

    从“回答问题”到“替你干活”

    我觉得这次最核心的变化,是Gemini从被动式的问答工具升级成了主动式的任务执行者。具体来说,你现在长按电源键,对着Gemini说“帮我把笔记里的购物清单加到购物车里”,它就能自动跨应用完成这个操作——先去你的笔记App找到清单,再去购物App把商品逐一添加,最后等你确认后完成下单。

    这不是概念演示,Google说这些功能今年夏天就会在三星Galaxy和Pixel设备上率先上线。我觉得这个节奏其实挺有意思的:三星作为最大的Android厂商优先适配,说明Google在生态合作上确实下了功夫。

    不过说实话,这个多步骤任务执行功能让我既兴奋又有点担心。兴奋是因为它确实能大幅提升效率,尤其是那些需要反复切换App的操作流程。担心的是,当AI开始替你点击“确认付款”按钮的时候,隐私和安全性就成了绕不开的问题。Google在表单填写功能上采用了opt-in模式(默认关闭),这个做法我觉得是对的,给了用户充分的控制权。

    “Vibe Coding”:普通人也能做Widget开发者

    这次发布会上还有一个让我眼前一亮的功能——“Create My Widget”。简单来说,你只需要用自然语言描述你想要什么功能的小组件,AI就能帮你生成出来。

    比如你可以说“每周给我推荐三个高蛋白备餐食谱”,然后一个符合Material 3设计规范的Widget就出现在你桌面上了。不需要写一行代码,不需要懂开发。说实话,我觉得这可能是这次发布会中最具“颠覆性”的功能。

    为什么这么说?因为它降低了UI开发的门槛。以前你需要一个开发者才能做的自定义小组件,现在每个人都可以用一句话创建。这种“自然语言即编程”的思路,其实就是AI民主化开发的一个缩影。虽然Nothing公司去年就做过类似的功能,但Google把这种能力整合到了Android系统层面,影响力完全不在一个量级。

    Gboard也要被AI重塑了

    还有一个值得关注的更新是Gboard的语音输入功能。Google给这个新功能起名叫“Rambler”,它不仅能把你说的话转成文字,还能用Gemini的多模态能力理解你的语气,并且自动帮你去掉那些“嗯”“啊”之类的口头禅。

    说实话,语音转文字不是新鲜事,但能做到理解语气、自动润色输出格式,这个体验提升还是挺大的。对于经常需要语音录入的人来说,这绝对是一个实用功能。

    我的看法

    我觉得Google这次在Android端的AI布局,真正瞄准的是一个趋势:AI正在从“工具”变成“代理”。以前我们用AI是去问它问题、让它帮我们分析数据,现在AI开始直接替我们执行操作、完成流程。这种转变对于用户来说,意味着手机使用方式的根本性变化。

    但我也想说一句:这些功能落地后,用户体验好不好,还得看实际表现。跨应用操作能不能稳定运行、误操作率有多高、不同手机厂商的适配情况如何——这些才是真正决定成败的关键因素。

    总的来说,2026年下半年的Android手机,可能会让人觉得越来越像一个“长了脑子”的个人助理。而Google这次交出的答卷,至少在产品思路上,我认为是走在正确方向上的。

  • Google I/O 2026前瞻:这次不只是软件秀,硬件也要来真的

    下周的Google I/O,可能是近几年来最值得期待的谷歌大会。


    为什么今年格外重要?

    说实话,之前几年的Google I/O给我的感觉一直是”例行公事”——Android新版本、新Pixel手机、一些AI功能更新…每年都差不多。

    但今年不一样。Gemini已经完全渗透到谷歌的每一个产品线,而且AI眼镜市场正在从概念走向成熟。这次I/O,可能会决定谷歌未来3-5年在AI时代的站位。


    亮点一:Gemini 4.0(最期待)

    如果要我猜最大的发布,我会押Gemini新一代模型。

    目前的Gemini已经很强大了,但这次可能带来更震撼的升级:

    • 笔记本功能可以把你研究某个主题的所有资料集中管理
    • NotebookLM同步能自动生成视频概览、图表等可视化内容
    • 动态模拟——只需要说”给我展示一下”,就能创建交互式可视化

    说实话,”动态可视化”这个功能让我特别期待。如果真的能用自然语言创建图表和模拟演示,那演示工具市场可能会被彻底颠覆。


    亮点二:Android XR眼镜——这次来真的

    2013年Google Glass失败后,谷歌沉寂了很久。

    但现在AI时代完全不同了。Meta Ray-Ban眼镜已经证明这类产品可以流行,市场已经验证了需求。

    这次I/O,Android XR眼镜应该会正式亮相。三星已经推出了基于这个平台的Galaxy XR头显,所以技术已经ready了。

    关键问题是:谷歌会怎么定义这个产品?

    从曝光的功能看——抬头显示通知、实时翻译、Gemini Live集成——似乎走的是”实用路线”,而不是当年Glass那种”炫技路线”。

    👓 历史回顾:2013年Google Glass因隐私争议和”精英主义”形象遭到强烈反对,甚至出现了”Glassholes”这个贬义称呼。


    亮点三:Aluminum OS——两个系统的”合体”

    这是我觉得最有趣的一个悬念。

    谷歌正在研发一个融合Android和ChromeOS的新系统。如果真的实现了,以后笔记本电脑、平板、手机之间的界限会彻底模糊。

    想象一下:一台笔记本可以运行完整的Android应用,同时又有桌面级的Chrome浏览器体验。这对开发者来说意味着什么?对用户来说又意味着什么?

    我觉得这可能是本次大会最重要的”隐藏大招”,虽然它可能不会被大篇幅宣传。


    我的期待

    说实话,比起具体产品发布,我更期待看到谷歌如何定义AI时代的交互方式

    手机时代,触控交互重新定义了一切。AI时代,下一个主流交互范式会是什么?

    可能是语音,可能是手势,也可能是AI眼镜带来的”视野中的信息层”。

    下周的I/O,可能会给出一些答案。