< Return to Video

GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD

  • 0:00 - 0:07
    [文字转视频]
    [用广角镜头呈现数字10形状的空间站绕地球飞行]
  • 0:11 - 0:17
    [使用Imagen和Veo生成]
  • 1:11 - 1:15
    好棒的视频,看来大家的制作过程应该很开心
  • 1:16 - 1:17
    大家上午好
  • 1:17 - 1:19
    欢迎参加Google I/O大会
  • 1:24 - 1:27
    欢迎亲临Shoreline会场的各位
  • 1:27 - 1:31
    以及世界各地在线上观看的观众
  • 1:31 - 1:34
    有人告诉我,双子座(Gemini季)从今天开始
  • 1:35 - 1:37
    我倒没觉得这有什么特别
  • 1:37 - 1:40
    因为对Google来说,每一天都是Gemini季
  • 1:41 - 1:45
    在I/O大会前的几周,我们通常不会有太多动作
  • 1:46 - 1:49
    因为我们想把最好的模型留到这个舞台上来展示
  • 1:50 - 1:51
    但在Gemini时代
  • 1:51 - 1:54
    我们也会在三月随便选个周二
  • 1:54 - 1:57
    发布我们最智能的模型
  • 1:57 - 1:59
    或是非凡的突破
  • 1:59 - 2:01
    就像在大会一周前发布AlphaEvolve那样
  • 2:02 - 2:05
    只想尽快将我们最好的模型交到你的手中
  • 2:05 - 2:08
    让你尽快体验到我们的产品
  • 2:08 - 2:11
    为此,我们的发布频率远超以往
  • 2:12 - 2:13
    自上届I/O大会至今
  • 2:13 - 2:15
    我们发布了十多种模型和研究突破
  • 2:16 - 2:21
    以及二十多种重要AI产品和功能
  • 2:22 - 2:26
    模型的快速进步让我振奋不已
  • 2:26 - 2:28
    从这张图表就能看出阶跃式的发展
  • 2:29 - 2:32
    Elo分数用来衡量进步的尺度
  • 2:32 - 2:34
    从第一代Gemini Pro至今
  • 2:34 - 2:36
    这项成绩提升了300多分
  • 2:37 - 2:40
    如今,Gemini 2.5 Pro
  • 2:40 - 2:43
    横扫LMArena排行榜的所有类别
  • 2:51 - 2:54
    在许多基准测试中都表现突出
  • 2:54 - 2:57
    在编程方面,我们也在快速进步
  • 2:57 - 3:01
    更新版的2.5 Pro在WebDev Arena中一马当先
  • 3:01 - 3:06
    Elo分数比上一个版本高142分
  • 3:06 - 3:09
    这款模型在各大主流编程平台上备受追捧
  • 3:09 - 3:11
    感谢所有人的支持
  • 3:11 - 3:14
    在领先AI代码编辑器cursor中
  • 3:15 - 3:18
    Gemini成为年度发展速度最快的模型
  • 3:18 - 3:23
    每分钟都有数十万行代码用它生成
  • 3:24 - 3:27
    最后这个里程碑或许最令人动容
  • 3:27 - 3:29
    至少在某些圈子里是如此
  • 3:29 - 3:33
    几周前,Gemini成功通关《宝可梦蓝》
  • 3:37 - 3:40
    集齐全部八枚徽章,挺进“冠军之路”
  • 3:41 - 3:43
    打败了四天王和联盟冠军
  • 3:44 - 3:47
    这让我们离实现API又近了一步
  • 3:47 - 3:50
    不过我们说的是“人工宝可梦智能”
  • 3:55 - 3:59
    所有这些进步都由我们卓越的基础设施提供支持
  • 3:59 - 4:02
    它是我们全栈式AI方法的基石
  • 4:03 - 4:07
    我们的第七代TPU Ironwood采用前沿设计
  • 4:07 - 4:09
    为大规模思考和推理赋能助力
  • 4:10 - 4:13
    其性能达到上一代的十倍
  • 4:14 - 4:19
    能迸发出每个pod 42.5 exaFLOPS的强大算力
  • 4:19 - 4:20
    令人赞叹
  • 4:21 - 4:24
    Google Cloud客户今年稍后就能切身体会它的实力
  • 4:28 - 4:31
    凭借始于底层TPU的基础设施实力
  • 4:31 - 4:35
    我们提供了速度更出众的模型
  • 4:35 - 4:38
    在LMArena排行榜的顶尖模型中
  • 4:38 - 4:40
    Gemini跻身前三
  • 4:40 - 4:43
    凭借最高的每秒生成token数
  • 4:44 - 4:48
    以及大幅下降的模型价格取得骄人成绩
  • 4:48 - 4:51
    在价格与性能之间权衡并不容易
  • 4:52 - 4:54
    然而,我们一次又一次地做到了
  • 4:54 - 4:58
    以最有效的价格点提供出色的模型
  • 4:58 - 5:01
    Google不仅在这个帕累托最优边界中先人一步
  • 5:01 - 5:03
    更从根本上改变了它
  • 5:04 - 5:09
    让每个人都能随时随地享受更好的智能体验
  • 5:10 - 5:12
    我们的努力收获了积极的回应
  • 5:12 - 5:14
    AI采用速度远超以往
  • 5:15 - 5:19
    作为进步的标志之一,在去年此时
  • 5:19 - 5:26
    我们所有产品和API
    每个月的token处理总量是9.7万亿
  • 5:26 - 5:30
    而如今,每月token处理量达到了480万亿
  • 5:31 - 5:34
    短短一年,接近50倍的增幅
  • 5:40 - 5:44
    我们各类开发者AI工具的采用已成浪潮
  • 5:45 - 5:47
    在Google AI Studio和Vertex AI中
  • 5:47 - 5:52
    有700多万名开发者在使用Gemini API进行开发
  • 5:52 - 5:55
    达到去年召开I/O大会时的五倍多
  • 5:55 - 5:57
    自去年以来
  • 5:57 - 6:01
    Gemini在Vertex AI中的使用量增加到40多倍
  • 6:02 - 6:04
    我们的产品也在越来越多地采用AI
  • 6:05 - 6:09
    Gemini应用的月活用户数已超过4亿
  • 6:09 - 6:12
    增长幅度和参与度都在强势增长
  • 6:12 - 6:14
    尤其是2.5版的模型
  • 6:15 - 6:18
    对于在Gemini应用中使用2.5 Pro模型的用户
  • 6:18 - 6:21
    使用量增长了45%
  • 6:21 - 6:24
    稍后你会听到许多与Gemini应用有关的消息
  • 6:25 - 6:27
    在搜索领域,我们也看到了十分惊人的发展势头
  • 6:28 - 6:33
    AI概览的月用户量现已超过15亿
  • 6:34 - 6:37
    也就是说,通过Google搜索使用生成式AI的用户量
  • 6:38 - 6:41
    超过全球其他任何产品
  • 6:42 - 6:47
    除了AI概览之外,AI模式也是搜索领域的一大进步
  • 6:48 - 6:50
    稍后我们会分享更多相关信息
  • 6:51 - 6:53
    所有这些进步都指向一件事
  • 6:54 - 6:57
    我们身处AI平台变革的新阶段
  • 6:57 - 7:00
    数十载的研究成果转化为实用工具
  • 7:00 - 7:02
    惠及普罗大众
  • 7:03 - 7:05
    我想分享三个例子
  • 7:05 - 7:08
    证明研究如何彻底改变我们当今的产品
  • 7:09 - 7:13
    分别是Project Starline、Astra和Mariner
  • 7:14 - 7:15
    在几年前的I/O大会上
  • 7:16 - 7:18
    我们公布了Project Starline
  • 7:18 - 7:19
    这是我们突破性的3D视频技术
  • 7:20 - 7:23
    让你在与千里之外的人交流时
  • 7:24 - 7:25
    也能有共处一室的感觉
  • 7:26 - 7:28
    我们不断改进相关技术
  • 7:29 - 7:31
    今天,我们终于准备好开启它的下一篇章
  • 7:32 - 7:33
    隆重介绍Google Beam
  • 7:34 - 7:38
    全新的AI优先型视频沟通平台
  • 7:39 - 7:42
    Beam运用全新的先进视频模型
  • 7:42 - 7:47
    将2D视频流转化为栩栩如生的3D体验
  • 7:48 - 7:53
    在幕后,六摄像头阵列从不同角度拍摄你的影像
  • 7:54 - 7:58
    这些视频流随后会通过AI合并在一起
  • 7:58 - 8:01
    生成3D光场显示,展示你的立体形象
  • 8:01 - 8:04
    它能实现毫米级精度的头部跟踪
  • 8:05 - 8:08
    以及每秒60帧的实时渲染
  • 8:09 - 8:14
    成就高度自然流畅、沉浸感十足的对话体验
  • 8:15 - 8:18
    我们热切期待将这项技术带给大家
  • 8:18 - 8:20
    并为此与惠普开展了合作
  • 8:20 - 8:22
    首款Google Beam设备
  • 8:22 - 8:26
    将于今年晚些时候与首批客户见面
  • 8:27 - 8:30
    从现在起的几周内,惠普会分享大量相关资讯
  • 8:30 - 8:31
    敬请关注
  • 8:38 - 8:40
    多年来,我们一直在不懈努力
  • 8:40 - 8:43
    将Starline的底层技术整合到Google Meet中
  • 8:44 - 8:48
    其中包括帮助打破语言壁垒的实时语音翻译
  • 8:49 - 8:52
    这个例子展示了在南美洲预定度假屋
  • 8:52 - 8:55
    而你又不会讲当地语言时
  • 8:55 - 8:57
    这项功能的实用价值
  • 8:57 - 8:58
    我们一起来看看吧
  • 9:00 - 9:01
    嗨,Camilla
  • 9:02 - 9:04
    我来打开语音翻译功能
  • 9:06 - 9:08
    终于能跟你直接对话了,太棒了
  • 9:08 - 9:12
    [西班牙语翻译]
  • 9:13 - 9:15
    [西班牙语回答]
  • 9:15 - 9:17
    你会很开心的
  • 9:17 - 9:19
    我相信你也一定会爱上这座城市
  • 9:20 - 9:24
    这间房所在的社区环境很好,还能俯瞰山景
  • 9:24 - 9:25
    听起来真不错
  • 9:26 - 9:32
    [西班牙语翻译]
  • 9:32 - 9:34
    [西班牙语回答]
  • 9:34 - 9:36
    附近就有公交车
  • 9:36 - 9:41
    不过我推荐你租辆车,这样去野外玩更方便
  • 9:42 - 9:44
    听起来不错
  • 9:44 - 9:45
    [西班牙语翻译]
  • 9:53 - 9:56
    如你所见,语音翻译惟妙惟肖地模仿了
  • 9:56 - 9:59
    讲话人的语气、模式甚至是表达方式
  • 10:00 - 10:05
    我们距离自然流畅的跨语言沟通又近了一步
  • 10:06 - 10:09
    我们现已直接将这种实时语音翻译功能
  • 10:09 - 10:11
    直接整合到Google Meet中
  • 10:12 - 10:16
    订阅者从现在起即可使用英语与西班牙语互译功能
  • 10:16 - 10:20
    在未来几周内,我们还会推出更多语言的翻译功能
  • 10:21 - 10:24
    实时翻译功能将于今年晚些时候面向企业用户开放
  • 10:31 - 10:33
    另一个在往届I/O舞台上正式亮相的
  • 10:33 - 10:36
    早期研究项目是Project Astra
  • 10:36 - 10:43
    专门探索通用型AI助手未来理解你身边世界的能力
  • 10:44 - 10:45
    我们正在将其整合到Google产品中
  • 10:46 - 10:47
    Gemini Live现已整合
  • 10:48 - 10:51
    Project Astra的相机和屏幕共享功能
  • 10:51 - 10:54
    支持就你看到的任何事物展开对话
  • 10:54 - 10:56
    人们正在将它用于各种用途
  • 10:56 - 10:59
    无论是为工作面试做练习
  • 10:59 - 11:00
    还是为备战马拉松而训练
  • 11:01 - 11:04
    我们始终高度重视可信测试员的反馈
  • 11:04 - 11:07
    还有一些不那么“可信”的测试员
  • 11:07 - 11:08
    一起来看看吧
  • 11:11 - 11:13
    好漂亮的敞篷车
  • 11:14 - 11:17
    我觉得你把垃圾车误认成敞篷车了
  • 11:17 - 11:19
    我还能帮你些什么?
  • 11:19 - 11:21
    这个细长的建筑物怎么杵在我家门口?
  • 11:22 - 11:24
    这是路灯,不是建筑物
  • 11:25 - 11:28
    这些棕榈树怎么这么矮?看着让人有点担心
  • 11:28 - 11:31
    它们并不矮,其实很高的
  • 11:32 - 11:33
    帅气的敞篷车
  • 11:33 - 11:35
    还是垃圾车
  • 11:35 - 11:36
    还有别的事吗?
  • 11:37 - 11:39
    为什么总有人把快递放到我的草坪上?
  • 11:40 - 11:43
    那不是快递,是个变电箱
  • 11:43 - 11:46
    我走路的时候,这个人怎么一直跟踪我
  • 11:47 - 11:50
    没人在跟踪你,那只是你的影子
  • 11:58 - 12:01
    Gemini真的特别擅长给你挑错
  • 12:02 - 12:08
    即日起,此功能面向所有Android和iOS用户开放
  • 12:15 - 12:19
    再说说我们的研究原型Project Mariner
  • 12:20 - 12:23
    这种智能体可以与Web交互并完成各种任务
  • 12:24 - 12:26
    我们跳出原有思维模式,将智能体视为一种系统
  • 12:26 - 12:32
    集先进AI模型的智能和访问工具的能力于一身
  • 12:32 - 12:36
    它们可以自主帮你执行操作,而且完全由你掌控
  • 12:36 - 12:40
    使用计算机是智能体的一项重要能力
  • 12:40 - 12:44
    让智能体能够与浏览器和其他软件交互
  • 12:44 - 12:46
    并对其执行操作
  • 12:46 - 12:51
    Project Mariner是测试计算机使用能力的初步尝试
  • 12:51 - 12:55
    去年12月,我们将其作为早期研究原型发布
  • 12:55 - 12:57
    自那之后取得了长足进展
  • 12:58 - 13:01
    首先,我们引入了多任务处理能力
  • 13:01 - 13:04
    它如今能同时管理多达10个任务
  • 13:05 - 13:08
    其次,它使用了一项名为“示教与重复”的功能
  • 13:09 - 13:11
    你只要向它展示一次任务
  • 13:12 - 13:15
    它就能学会在将来为类似任务做计划
  • 13:16 - 13:19
    我们将通过Gemini API向开发者提供
  • 13:19 - 13:22
    Project Mariner的计算机使用能力
  • 13:23 - 13:26
    Automation Anywhere和UiPath等可信测试方
  • 13:26 - 13:29
    已经开始使用它构建产品
  • 13:29 - 13:32
    我们将于今年夏季将其提供给更广泛的用户
  • 13:33 - 13:35
    为了推动智能体生态系统繁荣发展
  • 13:35 - 13:37
    我们需要开发更广泛的工具组合
  • 13:37 - 13:39
    计算机使用能力就是这项工作的一环
  • 13:39 - 13:41
    这方面的例子有我们的开放智能体间协议
  • 13:41 - 13:44
    让智能体能够彼此对话
  • 13:44 - 13:46
    我们在Cloud Next大会上发布了这种协议
  • 13:46 - 13:49
    获得了60多家技术合作伙伴的支持
  • 13:49 - 13:51
    这个数字还有望继续增长
  • 13:51 - 13:55
    还有Anthropic推出的模型上下文协议
  • 13:55 - 13:58
    让智能体可以访问其他服务
  • 13:58 - 14:00
    今天,我们要激动万分地宣布
  • 14:00 - 14:05
    Gemini SDK现已兼容MCP工具
  • 14:11 - 14:15
    这些技术将协同运作,让智能体更实用
  • 14:15 - 14:18
    我们已经开始将代理式功能添加到
  • 14:18 - 14:20
    Chrome、Google搜索和Gemini应用中
  • 14:20 - 14:24
    我来展示一下Gemini应用中最让我们激动的功能
  • 14:24 - 14:26
    我们称之为智能体模式
  • 14:27 - 14:31
    假设你想在奥斯汀给自己和两名室友找间公寓
  • 14:31 - 14:34
    你们每个人每月的预算是1200美元
  • 14:34 - 14:36
    希望公寓里有洗衣机、干衣机
  • 14:36 - 14:38
    或者至少附近要有间洗衣店
  • 14:38 - 14:42
    通常情况下,你要花很多时间去浏览无数房源
  • 14:43 - 14:46
    但有了智能体模式,Gemini应用可以为你效力
  • 14:46 - 14:49
    它在后台访问Zillow等网站
  • 14:49 - 14:52
    查找符合你的条件的房源
  • 14:52 - 14:55
    并在需要时使用Project Mariner
  • 14:55 - 14:57
    调整极其细致的过滤条件
  • 14:58 - 15:01
    如果有你想具体了解的公寓,Gemini会使用MCP
  • 15:02 - 15:06
    访问房源,甚至可以帮你安排行程
  • 15:06 - 15:10
    只要你需要,它就会不断浏览查找新房源
  • 15:11 - 15:13
    让你可以腾出时间去做自己想做的事情
  • 15:13 - 15:15
    比如规划乔迁派对
  • 15:16 - 15:17
    这对Zillow这样的公司特别有用
  • 15:17 - 15:21
    能够带来新客源并提高转化率
  • 15:21 - 15:25
    Gemini应用中智能体模式的实验版本
  • 15:25 - 15:27
    即将面向订阅者开放
  • 15:28 - 15:30
    这是一个崭露头角的全新领域
  • 15:30 - 15:32
    我们很激动能亲身探索
  • 15:32 - 15:38
    如何将智能体的优势带给用户和更广泛的生态系统
  • 15:39 - 15:42
    要将研究成果落地,我们最好的方案就是
  • 15:42 - 15:45
    保证它在你的实际环境中拥有真正的实用价值
  • 15:45 - 15:49
    这正是个性定制的用武之地
  • 15:50 - 15:54
    为此,我们推出了个人使用场景功能
  • 15:55 - 15:56
    在征得你的许可之后
  • 15:56 - 15:58
    Gemini模型可在你的各Google应用之间
  • 15:58 - 16:00
    使用相关背景信息
  • 16:01 - 16:03
    并且采用一种保护隐私、高度透明
  • 16:03 - 16:05
    完全由你掌控的方式
  • 16:05 - 16:08
    我来展示一个Gmail中的例子
  • 16:08 - 16:12
    你可能很熟悉我们依托AI技术的智能回复功能
  • 16:12 - 16:14
    其受欢迎的程度甚至令人有几分意外
  • 16:14 - 16:18
    如果AI生成的回复能效仿你的口吻,那该有多好
  • 16:18 - 16:21
    这就是个性化智能回复背后的理念
  • 16:22 - 16:25
    假设朋友写信给我,向我寻求建议
  • 16:26 - 16:31
    他打算到犹他州去自驾游,记得我曾自驾去过那里
  • 16:32 - 16:34
    坦白说,如果我自己写回信
  • 16:34 - 16:36
    只会寥寥几句带过,帮不上什么忙
  • 16:36 - 16:37
    抱歉了,Felix
  • 16:38 - 16:41
    但使用个性化智能回复,我就能成为知心好友
  • 16:42 - 16:47
    因为Gemini会帮我做好几乎所有的“功课”
  • 16:47 - 16:49
    查看我云端硬盘中的笔记
  • 16:50 - 16:52
    查询旧电子邮件中的预订信息
  • 16:52 - 16:55
    查找Google文档中的行程安排
  • 16:55 - 16:57
    锡安国家公园之旅
  • 16:58 - 17:01
    Gemini效仿我既往邮件中的问候语
  • 17:02 - 17:07
    捕捉到了我的语气、风格和遣词用句的喜好
  • 17:07 - 17:10
    随后自动生成回复
  • 17:10 - 17:12
    我最欣赏的是它添加了贴心的细节
  • 17:12 - 17:15
    比如将驾车时间控制在每天五小时以下
  • 17:15 - 17:18
    还使用了我最喜欢的形容词:激动人心
  • 17:20 - 17:21
    看起来不错
  • 17:21 - 17:25
    或许简单修改几处,就可以点击“发送”了
  • 17:25 - 17:29
    今年夏天,这项功能就会在Gmail中提供给订阅者
  • 17:35 - 17:38
    可想而知,覆盖搜索、文档、Gemini
  • 17:38 - 17:41
    及其他产品的个人使用场景功能会有多实用
  • 17:43 - 17:47
    今天我谈到了智能、智能体和个性化
  • 17:48 - 17:51
    这是我们将努力推进的几个前沿领域
  • 17:51 - 17:54
    在整场主旨演讲中,你会听到更多例子
  • 17:55 - 17:57
    但首先,我想请一个人
  • 17:57 - 18:00
    详细分享有关推动我们未来创新的智能
  • 18:01 - 18:04
    去年在介绍他的时候,我称他为Demis爵士
  • 18:04 - 18:08
    今年,我们还可以在他的头衔里
    加上“诺贝尔奖获得者”
  • 18:08 - 18:10
    Demis,请上台来
  • 18:25 - 18:28
    大家好!很高兴能再次参加Google I/O大会
  • 18:29 - 18:31
    我们身处一个重要的历史节点
  • 18:32 - 18:35
    AI正在开启令人向往的全新未来
  • 18:36 - 18:37
    这一年,我们在不懈的探索中前行
  • 18:38 - 18:39
    收获了累累硕果
  • 18:39 - 18:43
    正如Sundar所说,人们喜欢与Gemini 2.5交互
  • 18:44 - 18:46
    我们见证了你们用它进行氛围编程
  • 18:46 - 18:48
    一气呵成开发应用与游戏
  • 18:49 - 18:51
    见证了你们用它强大的推理能力完成各种任务
  • 18:51 - 18:55
    从拆解科学论文,到解析YouTube视频
  • 18:55 - 18:57
    你们告诉我们,Gemini协作性强、洞见深刻,
  • 18:58 - 19:01
    是真正的得力助手
  • 19:01 - 19:06
    看到大家用它创造出的惊人成果,我们倍感振奋
  • 19:08 - 19:11
    Gemini 2.5是我们迄今为止最智能的模型
  • 19:11 - 19:13
    也是全球先进基础模型
  • 19:14 - 19:18
    就在两周前,我们发布了升级后的2.5 Pro预览版
  • 19:18 - 19:21
    让大家可以开始亲手尝试用它将创想化为现实
  • 19:22 - 19:25
    大家的成果让我们大开眼界
  • 19:25 - 19:30
    从将草图转化为交互式应用到模拟3D城市
  • 19:31 - 19:33
    全新的2.5 Pro模型在热门编程排行榜
  • 19:34 - 19:36
    WebDev Arena上一马当先
  • 19:36 - 19:39
    现在,它又整合了LearnLM
  • 19:39 - 19:42
    该系列模型的开发得到了教育专家的支持
  • 19:42 - 19:45
    这让2.5 Pro也成为全球出色的学习辅助模型
  • 19:46 - 19:49
    在LMArena的所有排行榜上独占鳌头
  • 19:52 - 19:55
    Gemini Flash是我们极其高效的王牌模型
  • 19:56 - 20:00
    因出色的速度和较低的成本备受开发者青睐
  • 20:01 - 20:06
    今天我要激动地宣布推出更新版的2.5 Flash
  • 20:06 - 20:09
    新版Flash模型几乎在每一个方面都有所改进
  • 20:10 - 20:11
    在各类重要基准测试中都取得了更好的成绩
  • 20:11 - 20:14
    包括推理、编程和长上下文
  • 20:15 - 20:20
    实际上,它在LMArena排行榜上仅次于2.5 Pro
  • 20:21 - 20:25
    我要很高兴地告诉大家,Flash将于六月初正式上线
  • 20:26 - 20:27
    Pro紧随其后
  • 20:34 - 20:37
    我们正在根据大家的反馈做出最终调整
  • 20:37 - 20:40
    不过你现在可以在AI Studio
  • 20:40 - 20:42
    Vertex AI和Gemini应用中试用预览版
  • 20:44 - 20:48
    我们将一如既往,继续不懈前行,推动技术向前发展
  • 20:48 - 20:51
    并对我们近期的研究突破感到十分欣喜
  • 20:51 - 20:54
    稍后我会请Tulsee来与大家进一步分享
  • 20:54 - 20:56
    不过首先,我们来看一下
  • 20:56 - 20:58
    目前你可以用Gemini来做些什么
  • 21:01 - 21:03
    [用Gemini可以做的30件事]
  • 21:04 - 21:05
    [物理模拟]
  • 21:05 - 21:06
    [自然模拟]
  • 21:06 - 21:08
    [光学模拟]
  • 21:08 - 21:09
    [谜题模拟]
  • 21:10 - 21:11
    [将图片转变成代码]
  • 21:13 - 21:14
    [将想法转变成3D模型]
  • 21:17 - 21:19
    [为画作加入3D效果]
  • 21:21 - 21:22
    [与AI共同创作]
  • 21:22 - 21:23
    [发型设计]
  • 21:25 - 21:27
    [给这只猫穿上礼服]
  • 21:29 - 21:30
    [在积攒了几十年的文件中搜索内容]
  • 21:30 - 21:31
    [菜谱]
  • 21:32 - 21:34
    [在数小时长的视频中搜索内容]
  • 21:35 - 21:36
    [建造机器人]
  • 21:37 - 21:41
    [直接说话就能编程]
    你能做个从我嘴里爆出一团圆形彩纸的特效吗?
  • 21:42 - 21:44
    我更新了草图
  • 21:45 - 21:47
    [万物皆可AI:娱乐、学习、动画、可视化]
    [创造、转录、练习、翻译、查询、表情符号]
  • 21:47 - 21:48
    [混音、计算、探索、理解、地图、解释]
  • 21:48 - 21:51
    [生成千般内容]
    [构想万种可能]
  • 21:52 - 21:54
    接下来我们做点什么?
  • 21:54 - 21:56
    这里还有30个创意供你参考
  • 21:57 - 22:00
    [使用Gemini开始构建]
    [AI.Studio]
  • 22:16 - 22:17
    Demis,谢谢你!
  • 22:17 - 22:20
    很高兴能借此机会告诉大家
  • 22:20 - 22:22
    为了帮助像你一样的开发者
  • 22:22 - 22:25
    更轻松地使用Gemini 2.5进行构建
  • 22:26 - 22:28
    我们根据大家的反馈意见做出了多项改进
  • 22:28 - 22:33
    其中包括:功能改进、安全性和透明度加强
  • 22:33 - 22:36
    成本效益提升和可控性提升
  • 22:37 - 22:42
    首先,除了Demis提到的新版2.5 Flash之外
  • 22:42 - 22:46
    我们还推出了文字转语音功能的全新预览版
  • 22:47 - 22:53
    基于原生音频输出提供
    同类产品中首创的多讲话人支持
  • 22:53 - 22:55
    可以支持两个人的语音
  • 22:57 - 23:01
    这意味着模型可以通过
    更富于表现力的方式进行对话交流
  • 23:01 - 23:05
    能够捕捉我们言语表述之中的微妙之处
  • 23:06 - 23:10
    甚至能无缝切换到低声耳语,就像这样
  • 23:12 - 23:14
    它支持超过24种语言
  • 23:15 - 23:18
    甚至能流畅自如地在不同语言之间切换
  • 23:19 - 23:23
    模型可以在最初讲英语,然后
  • 23:25 - 23:28
    [印地语]
  • 23:30 - 23:31
    然后再切换回来
  • 23:31 - 23:33
    而且声音丝毫不变
  • 23:34 - 23:35
    不错吧?
  • 23:42 - 23:44
    从今天开始,你就可以开始在Gemini API里
  • 23:44 - 23:47
    使用这种文字转语音功能了
  • 23:52 - 23:55
    今天稍后,Live API还将提供
  • 23:55 - 24:00
    2.5 Flash原生音频对话功能的预览版
  • 24:00 - 24:05
    让你能通过更自然流畅的方式直接与Gemini会话
  • 24:06 - 24:10
    它甚至能区分讲话人与背景噪音
  • 24:10 - 24:12
    从而判断合适的回复时机
  • 24:12 - 24:15
    Logan和Paige将在开发者主旨演讲中分享更多内容
  • 24:17 - 24:18
    其次
  • 24:18 - 24:22
    我们加强了针对间接提示注入等安全威胁的防护
  • 24:23 - 24:27
    让Gemini 2.5成为我们迄今为止最安全的模型
  • 24:28 - 24:31
    在2.5 Pro和Flash模型中
  • 24:31 - 24:33
    我们都添加了思考总结功能
  • 24:33 - 24:35
    可以通过Gemini API和Vertex AI来使用
  • 24:36 - 24:39
    思考总结功能会提取模型的原始思考过程
  • 24:40 - 24:44
    将其整理为清晰有序的格式,包含标题、重要细节
  • 24:44 - 24:47
    以及有关模型操作的信息,比如工具调用
  • 24:47 - 24:51
    这能让你更清晰地了解模型的思考过程
  • 24:51 - 24:57
    不但对高延迟任务特别有用,同时方便调试和使用
  • 24:59 - 25:01
    大家也呼吁提高模型处理效率
  • 25:01 - 25:05
    而现在,2.5 Flash的效率更胜以往
  • 25:05 - 25:10
    同等性能的情况下,使用的token更少
  • 25:10 - 25:14
    在实际测评中效率提升达22%
  • 25:15 - 25:19
    最后,我们为2.5 Flash引入了思考预算功能
  • 25:19 - 25:23
    让你能够在成本、延迟和输出质量之间取得平衡
  • 25:23 - 25:25
    由于大家的反响很好
  • 25:25 - 25:28
    我们将思考预算功能添加到了2.5 Pro之中
  • 25:29 - 25:33
    并将在未来几周内随同我们的正式版模型一同发布
  • 25:34 - 25:35
    借助思考预算功能
  • 25:35 - 25:38
    你可以更好地掌控模型使用多少token进行思考
  • 25:38 - 25:39
    然后再给出回答
  • 25:40 - 25:42
    也可以直接关闭思考功能
  • 25:44 - 25:46
    之前Demis提到过
  • 25:46 - 25:49
    Gemini 2.5 Pro有着超强的编码能力
  • 25:49 - 25:54
    所以接下来,我想展示一下如何将构思落地
  • 25:56 - 26:00
    如果你参观过纽约市的美国自然历史博物馆
  • 26:00 - 26:03
    一定记得那里精彩的展品
  • 26:03 - 26:05
    为了让大家能够看到这些展品
  • 26:05 - 26:08
    我让2.5 Pro在Google AI Studio中
  • 26:08 - 26:09
    编写了一个简单的Web应用
  • 26:10 - 26:11
    用于分享一些照片以及详细信息
  • 26:12 - 26:14
    这是该应用目前为止的模样
  • 26:15 - 26:18
    不过我还想进一步加强其互动性
  • 26:18 - 26:20
    我还在就设计思路集思广益
  • 26:21 - 26:22
    不过已经有了一些想法
  • 26:23 - 26:25
    大家都看到过像这样的情况吧?
  • 26:26 - 26:26
    某人找到你
  • 26:27 - 26:29
    给你看在餐巾纸上勾勒出的“绝妙”点子
  • 26:30 - 26:33
    作为PM,我常常就是拿着餐巾纸的这个人
  • 26:35 - 26:37
    常规的二维网页设计已经不简单
  • 26:38 - 26:40
    但我想进一步实现三维设计
  • 26:41 - 26:44
    我知道转为三维并不容易
  • 26:44 - 26:47
    需要学习许许多多新知识
  • 26:47 - 26:52
    比如设置场景、相机、光线等
  • 26:53 - 26:56
    但幸运的是,2.5 Pro可以帮到我
  • 26:56 - 26:58
    这里我要做的是
  • 26:59 - 27:04
    把刚才展示的球体图片添加进来
  • 27:06 - 27:11
    输入提示,让2.5 Pro根据此图片更新我的代码
  • 27:13 - 27:15
    我们让2.5 Pro开始工作
  • 27:15 - 27:17
    可以看到,它开始思考
  • 27:18 - 27:21
    并根据我的要求制定了一份计划
  • 27:22 - 27:25
    稍后会将其应用于我的原有代码库
  • 27:26 - 27:27
    Gemini是一种多模态模型
  • 27:28 - 27:30
    因此能理解这张抽象的球体草图
  • 27:30 - 27:33
    通过编程生成精美的三维动画
  • 27:33 - 27:35
    再将其应用于我的原有应用
  • 27:36 - 27:38
    此过程大概需要两分钟
  • 27:38 - 27:42
    为节省时间,我们将以类似烘焙节目的形式来展示
  • 27:42 - 27:44
    我直接切换到另外一个标签页
  • 27:44 - 27:47
    在这场主旨演讲开始之前,我运行了相同的提示
  • 27:47 - 27:50
    这就是Gemini生成的结果
  • 27:58 - 28:02
    我们把一张粗略的草图直接变成了代码
  • 28:02 - 28:04
    更新了多个文件
  • 28:05 - 28:08
    而且可以看到,它思考了37秒时间
  • 28:08 - 28:10
    你也可以看到它的思考变化过程
  • 28:10 - 28:12
    以及它更新了哪些文件
  • 28:13 - 28:15
    这一切都是在AI Studio中完成的
  • 28:15 - 28:17
    所以在完成原型设计之后
  • 28:17 - 28:21
    我就可以直接用Gemini API密钥部署代码
  • 28:22 - 28:24
    这是我们的最终版应用在Chrome中的效果
  • 28:26 - 28:28
    看看这些动画
  • 28:29 - 28:34
    我不需要有多精深的Three.js库知识
  • 28:34 - 28:37
    也不必钻研复杂的三维算法,就做成了这样的作品
  • 28:38 - 28:41
    如果要亲自动手来做,我可能永远也没法实现
  • 28:41 - 28:45
    但这里,我只用一张草图就做出来了
  • 28:46 - 28:50
    我可以利用多模态,让整个体验更加丰富
  • 28:50 - 28:54
    我用2.5 Flash给每张照片添加了一个问题
  • 28:54 - 28:56
    邀请你进一步了解相关信息
  • 28:58 - 29:00
    但如果它能说话会怎样呢?
  • 29:02 - 29:04
    这时我们就可以用到Gemini的原生音频功能
  • 29:06 - 29:07
    这是一只穿山甲
  • 29:07 - 29:11
    它的鳞片由角蛋白构成,就像你的指甲一样
  • 29:12 - 29:14
    哇!现在它支持语音功能了
  • 29:15 - 29:19
    你可以听到,如何在应用中添加富有表现力的音频
  • 29:20 - 29:21
    在分享更多内容之前
  • 29:22 - 29:24
    我想以另一个好玩的设计来结束演示
  • 29:24 - 29:27
    这也是通过2.5 Pro编码实现的
  • 29:37 - 29:39
    我们在Google AI Studio提供了起始代码
  • 29:39 - 29:41
    让大家都可以在本演示的基础上进行二次开发
  • 29:42 - 29:43
    欢迎大家去尝试
  • 29:44 - 29:46
    这个演示仅仅是一个例子
  • 29:46 - 29:49
    证明Gemini 2.5必将大幅改变我们的构建方式
  • 29:49 - 29:52
    改变你利用非凡的功能
  • 29:52 - 29:57
    在自己的应用中集成视觉、语音和编码的方式
  • 29:58 - 30:01
    你可以在自己喜爱的IDE平台
  • 30:02 - 30:04
    以及各种Google产品中使用2.5 Pro
  • 30:04 - 30:09
    例如Android Studio、Firebase Studio
    Gemini Code Assist
  • 30:09 - 30:12
    以及我们最新的异步编码智能体Jules
  • 30:20 - 30:23
    你只需提交任务,剩下的就交给Jules来处理
  • 30:23 - 30:25
    修复bug,执行更新
  • 30:26 - 30:29
    它与GitHub集成,可以独立运行
  • 30:30 - 30:33
    Jules能够处理大型代码库中的复杂任务
  • 30:33 - 30:34
    这些任务过去需要数小时才能完成
  • 30:34 - 30:37
    比如更新较早版本的Node.js
  • 30:37 - 30:42
    它能在几分钟内完成规划步骤、修改文件等任务
  • 30:43 - 30:45
    今天,我很高兴地宣布
  • 30:45 - 30:46
    Jules将开启公开Beta版测试
  • 30:47 - 30:49
    所有人都可以通过jules.google注册
  • 30:56 - 31:01
    正如Demis所说,我们一直在创新优化模型的方法
  • 31:01 - 31:04
    包括提高模型的效率和性能
  • 31:05 - 31:10
    我们率先采用扩散技术,革新了图像和视频的生成
  • 31:11 - 31:15
    扩散模型可通过逐步优化噪声来生成输出
  • 31:16 - 31:21
    现在,我们正借助最新研究模型将扩散应用于文本
  • 31:22 - 31:25
    这样有助于提升处理编辑等任务的能力
  • 31:25 - 31:27
    包括在数学和编码等应用场景中
  • 31:28 - 31:30
    因为它不只是从左到右线性生成内容
  • 31:30 - 31:32
    还能够快速反复试验解决方案
  • 31:33 - 31:35
    并在生成过程中不断纠错
  • 31:37 - 31:42
    Gemini Diffusion是一种领先的文本扩散实验模型
  • 31:42 - 31:47
    利用并行生成技术,实现超低延迟
  • 31:48 - 31:51
    例如,我们今天发布的Gemini Diffusion版本
  • 31:52 - 31:54
    生成速度是我们目前速度最快的模型
  • 31:54 - 31:58
    2.0 Flash-Lite的五倍
  • 31:58 - 32:01
    而编码能力却旗鼓相当
  • 32:01 - 32:03
    以这个数学问题为例
  • 32:03 - 32:04
    准备,开始!
  • 32:07 - 32:08
    眨眼间整个过程就完成了
  • 32:15 - 32:20
    之前我们加快了速度,但这次我们会放慢一点
  • 32:25 - 32:28
    看到模型如何一步步计算出39这个答案,感觉很棒
  • 32:30 - 32:32
    此模型目前正在小范围测试
  • 32:33 - 32:36
    我们会继续探索各种方法
  • 32:36 - 32:38
    降低所有Gemini模型的延迟
  • 32:39 - 32:42
    并即将推出速度更快的2.5 Flash-Lite模型
  • 32:43 - 32:45
    更多有关Gemini未来发展的信息
  • 32:46 - 32:47
    请Demis与大家进一步分享
  • 32:55 - 32:56
    谢谢你,Tulsi
  • 32:57 - 33:02
    我们一直在不懈探索Gemini 2.5思考功能的边界
  • 33:03 - 33:05
    使用AlphaGo的经验告诉我们
  • 33:05 - 33:09
    给模型更多思考时间,其回答质量会得到改善
  • 33:10 - 33:13
    如今,我们进一步优化了2.5 Pro
  • 33:13 - 33:17
    引入了名为Deep Think的新模式
  • 33:18 - 33:22
    它能将模型性能发挥到极致,带来突破性的成果
  • 33:23 - 33:27
    Deep Think采用了思考与推理领域的前沿研究
  • 33:27 - 33:29
    包括平行技术
  • 33:30 - 33:33
    目前为止,我们看到的性能堪称惊艳
  • 33:34 - 33:37
    在目前难度最高的数学基准测试USAMO 2025中
  • 33:37 - 33:40
    它的评分十分亮眼
  • 33:40 - 33:42
    在LiveCodeBench中也处于领先水平
  • 33:42 - 33:45
    这是一项针对竞赛级编码的高难度基准测试
  • 33:46 - 33:49
    Gemini从一开始就具备原生多模态能力
  • 33:49 - 33:53
    所以自然在衡量此能力的主要基准中表现同样出色
  • 33:54 - 33:55
    这一基准是:MMMU
  • 33:56 - 34:00
    因为我们正在通过2.5 Pro Deep Think来引领前沿技术
  • 34:00 - 34:04
    我们需要额外花一些时间来进行更多前沿安全评估
  • 34:05 - 34:07
    并从安全专家那里获取更多意见
  • 34:07 - 34:10
    因此,我们将通过Gemini API
  • 34:10 - 34:12
    向可信测试员开放此功能
  • 34:13 - 34:15
    以便在大规模推出此功能前获取反馈意见
  • 34:16 - 34:19
    今天稍后,Josh会更详细地给大家介绍
  • 34:20 - 34:21
    我们针对2.5 Pro Deep Think的计划
  • 34:23 - 34:24
    过去十年
  • 34:25 - 34:28
    我们为现代AI纪元的到来做了很多基础工作
  • 34:29 - 34:32
    从我们开创性地发明了Transformer架构
  • 34:32 - 34:36
    它如今已成为所有大语言模型的基础
  • 34:36 - 34:39
    到打造AlphaGo和AlphaZero等智能体系统
  • 34:39 - 34:44
    我们将继续拓展基础研究的深度和广度
  • 34:44 - 34:46
    探索下一个重大突破
  • 34:46 - 34:50
    满足人们对通用人工智能的需要
  • 34:51 - 34:55
    Gemini如今已是卓尔不凡的多模态基础模型
  • 34:55 - 34:57
    但我们依然脚步未停
  • 34:57 - 34:59
    竭力将其打造成所谓的“世界模型”
  • 35:00 - 35:03
    待到那时,它将能够通过模拟世界的方方面面
  • 35:03 - 35:07
    制定计划和构想全新体验,就像人类的大脑一样
  • 35:08 - 35:11
    这一直是我个人的热情所在
  • 35:11 - 35:13
    早在我为《主题公园》等模拟游戏
  • 35:13 - 35:15
    开发AI的早期职业生涯中
  • 35:15 - 35:17
    我就已经开始探索虚拟世界
  • 35:18 - 35:21
    多年来,我们一直向这个方向迈进
  • 35:21 - 35:26
    从训练智能体掌握围棋和《星际争霸》等复杂游戏
  • 35:26 - 35:29
    到最近推出的Genie 2模型
  • 35:29 - 35:32
    它仅通过一张图片作为提示
  • 35:32 - 35:35
    就能生成可交互的三维模拟环境
  • 35:37 - 35:39
    大家已经可以看到这些功能正在逐渐显现
  • 35:39 - 35:42
    例如Gemini能够运用对世界的认知和推理能力
  • 35:42 - 35:44
    来呈现自然万物
  • 35:45 - 35:47
    还有我们先进的视频模型Veo
  • 35:48 - 35:50
    它对基本物理规律有着深刻理解
  • 35:50 - 35:53
    比如重力、光线和材料的属性
  • 35:54 - 35:56
    Veo令人惊叹的地方在于
  • 35:56 - 36:00
    它能在所有帧中保持高度的准确性和连贯性
  • 36:00 - 36:03
    即使提示脑洞大开,它也知道该怎么做
  • 36:04 - 36:06
    比如这个用救生筏生成的人
  • 36:09 - 36:12
    理解物理环境对于机器人技术也至关重要
  • 36:13 - 36:15
    AI系统需要具备世界模型
  • 36:15 - 36:17
    才能在现实世界中高效地运作
  • 36:19 - 36:22
    我们微调了一个专用模型,Gemini Robotics
  • 36:22 - 36:24
    它可以教机器人完成各种实用任务
  • 36:24 - 36:28
    例如抓取物体、执行指令和动态适应新的任务
  • 36:29 - 36:33
    在场的各位,可以在AI展示区中体验这些机器人
  • 36:40 - 36:42
    将Gemini打造成完善的世界模型
  • 36:43 - 36:46
    对于解锁新型AI至关重要
  • 36:47 - 36:49
    比如能够为日常生活提供帮助的AI
  • 36:49 - 36:52
    智能且理解你所处情境的AI
  • 36:52 - 36:56
    以及能够跨设备为你制定计划并采取行动的AI
  • 36:57 - 36:59
    我们对Gemini应用的终极愿景
  • 37:00 - 37:03
    就是将其打造成一个通用型的AI助理
  • 37:04 - 37:07
    让它成为富有个性、主动思考、功能强大的AI
  • 37:08 - 37:11
    以及我们迈向通用人工智能的重要里程碑
  • 37:11 - 37:16
    这要从我们去年在Project Astra中
    首次探索的功能开始
  • 37:16 - 37:19
    包括视频理解、屏幕共享和记忆等功能
  • 37:20 - 37:24
    过去一年,我们一直在将这些功能引入Gemini Live
  • 37:25 - 37:27
    以便更多人今天就能体验到
  • 37:28 - 37:32
    当然,我们也会不断改进,并探索新的前沿创新
  • 37:33 - 37:37
    比如通过原生音频升级语音输出,使其变得更自然
  • 37:38 - 37:41
    我们改进了记忆功能,并增加了计算机控件
  • 37:41 - 37:42
    我们来看一下
  • 37:43 - 37:46
    我现在向大家展示的是
    Project Astra的最新研究原型
  • 37:46 - 37:48
    下面来看看它如何帮我修自行车
  • 37:49 - 37:52
    [Project Astra]
    [行动智能+Gemini]
  • 37:52 - 37:56
    上网查查Huffy山地自行车的用户手册
  • 37:57 - 37:59
    已找到一份用户手册
  • 37:59 - 38:01
    你想要什么信息?
  • 38:01 - 38:04
    好,现在向下滚动页面,找到刹车系统的相关章节
  • 38:05 - 38:07
    好的,正在为你查找相应页面
  • 38:07 - 38:09
    这颗螺丝可能滑牙了
  • 38:09 - 38:12
    能否上YouTube找个修复教程视频?
  • 38:13 - 38:15
    没问题,正在打开YouTube
  • 38:18 - 38:19
    这个视频看起来不错
  • 38:19 - 38:22
    将橡皮筋套在螺丝头上
  • 38:22 - 38:23
    噢,不错,谢谢
  • 38:23 - 38:25
    查下我跟自行车店的往来邮件
  • 38:25 - 38:27
    看看我需要哪种规格的六角螺母?
  • 38:28 - 38:31
    好的,Bicycle Habitat的邮件显示
  • 38:31 - 38:34
    你的链轮需要一个3/8英寸的内六角螺母
  • 38:34 - 38:35
    我已经帮你标出了相应的工具盒
  • 38:36 - 38:39
    我好像需要一个备用的张力螺丝
  • 38:39 - 38:42
    能否联系最近的五金店确认是否有货?
  • 38:42 - 38:43
    好的,正在联系对方
  • 38:44 - 38:46
    稍后我会告诉你具体库存信息
  • 38:46 - 38:48
    我的刹车片有磨损了
  • 38:48 - 38:49
    麻烦再查一下用户手册
  • 38:49 - 38:51
    看看上面有没有提到刹车片?
  • 38:51 - 38:54
    用户手册的第24页显示
  • 38:54 - 38:56
    要去吃午饭吗?
  • 38:56 - 38:58
    好,再等我五分钟
  • 38:59 - 39:00
    你刚才说到哪了?
  • 39:01 - 39:05
    刚才说到,第24页第2节有相关说明
  • 39:05 - 39:07
    介绍了如何更换刹车片
  • 39:07 - 39:09
    之前说的那个电话有进展了吗?
  • 39:09 - 39:11
    嗯,我刚和五金店通完电话
  • 39:12 - 39:14
    他们确认张力螺丝还有库存
  • 39:14 - 39:16
    要我下一个自取订单吗?
  • 39:16 - 39:19
    能否展示几款适合我的自行车用的狗篮?
  • 39:20 - 39:22
    没问题,乐意效劳,稍等片刻
  • 39:24 - 39:25
    看看这几款怎么样
  • 39:25 - 39:27
    我觉得特别适合Zuco
  • 39:29 - 39:30
    [行动智能+Gemini]
  • 39:30 - 39:34
    [电脑控制/重点标示/通话助理/知识接地
    原生音频/主动思考/聚焦讲话人/个性化购物]
  • 39:38 - 39:42
    通用AI助理将帮助我们处理各种任务
  • 39:42 - 39:47
    它会处理琐碎的行政工作
    并给出令人愉快的新推荐
  • 39:47 - 39:50
    从而提高我们的效率,丰富我们的生活
  • 39:51 - 39:54
    我们正向可信测试员收集这些新功能的反馈意见
  • 39:55 - 39:57
    并致力于将它们引入Gemini Live
  • 39:57 - 39:59
    提供新的搜索体验
  • 39:59 - 40:01
    以及面向开发者的Live API
  • 40:01 - 40:04
    还有Android XR眼镜等全新形态的设备
  • 40:05 - 40:07
    今天后面还会有更详细的介绍
  • 40:09 - 40:10
    在我整个职业生涯中
  • 40:10 - 40:13
    核心都是关于如何利用AI来推动知识进步
  • 40:13 - 40:15
    以及加速科学发现
  • 40:15 - 40:17
    Google DeepMind长期以来都在致力于
  • 40:17 - 40:21
    将AI应用于近乎每个科学领域
  • 40:21 - 40:23
    仅在过去一年
  • 40:23 - 40:26
    我们就已经在多个领域取得了巨大突破
  • 40:26 - 40:28
    包括数学、生命科学等领域
  • 40:29 - 40:30
    我们构建了AlphaProof
  • 40:30 - 40:34
    它可以解决奥林匹克数学竞赛中银牌水平的问题
  • 40:34 - 40:37
    Co-Scientist,它可以与研究人员协作
  • 40:37 - 40:40
    帮助他们开发和测试新的假设
  • 40:40 - 40:42
    我们还刚发布了AlphaEvolve
  • 40:43 - 40:46
    它可以发现新的科学知识,并加速AI本身的训练
  • 40:48 - 40:50
    在生命科学领域,我们构建了AMIE
  • 40:51 - 40:54
    一个可以帮助临床医生进行医疗诊断的研究系统
  • 40:55 - 40:56
    AlphaFold 3
  • 40:56 - 41:00
    能够预测所有生命体的分子结构和相互作用
  • 41:01 - 41:03
    以及Isomorphic Labs,它以AlphaFold为基础
  • 41:03 - 41:08
    致力于用AI来革新药物研发流程
  • 41:08 - 41:11
    未来有望帮助攻克多种全球性疾病
  • 41:13 - 41:14
    短短几年时间
  • 41:14 - 41:18
    AlphaFold就已经在科学界产生了深远影响
  • 41:18 - 41:21
    它已成为生物学及医学研究的标配工具
  • 41:22 - 41:24
    全球超过250万的研究人员
  • 41:24 - 41:26
    正在其关键工作中使用这一工具
  • 41:27 - 41:29
    在发展通用人工智能的道路上
  • 41:30 - 41:33
    我始终坚信,如果以安全和负责任的方式进行
  • 41:33 - 41:36
    AI有望加速科学发现进程
  • 41:36 - 41:40
    并成为有史以来最有益的技术
  • 41:47 - 41:52
    回想起来,真是不可思议,就在几年前
  • 41:52 - 41:57
    大家今天看到的这些尖端技术还跟魔法一样
  • 41:58 - 42:03
    看到这些技术为搜索和Gemini等产品的新体验赋能
  • 42:03 - 42:06
    并且共同在日常生活中帮助人们,真是令人兴奋
  • 42:07 - 42:10
    例如,我们最近与Aira建立了合作关系
  • 42:10 - 42:15
    这家公司帮助盲人和低视力人群探索世界
  • 42:15 - 42:17
    方法是将该人群通过视频
  • 42:17 - 42:19
    与人工“视觉翻译”连接起来
  • 42:19 - 42:21
    利用Astra技术
  • 42:21 - 42:25
    我们设计了一个帮助更多人获得此类协助的原型
  • 42:26 - 42:28
    我们正在持续收集用户反馈
  • 42:28 - 42:33
    同时Aira的翻译人员也在积极监督安全性及可靠性
  • 42:39 - 42:42
    凭借这项技术以及我们所有的开创性工作
  • 42:42 - 42:46
    我们正在打造更具个性、更主动、更强大的AI
  • 42:47 - 42:50
    从而丰富我们的生活、加速科学进程
  • 42:51 - 42:55
    并开启一个充满发现和奇迹的黄金时代
  • 42:59 - 43:03
    我记得我小时候经常弹吉他到天黑
  • 43:03 - 43:07
    来证明即使我看不见,也可以弹吉他
  • 43:09 - 43:13
    我在大概四岁左右被诊断出患有视网膜色素变性症
  • 43:13 - 43:16
    我的视力水平不断恶化
  • 43:17 - 43:22
    但面对视力逐渐模糊的现实
  • 43:23 - 43:26
    音乐便是我的解药
  • 43:27 - 43:29
    玩音乐让我倍感自由
  • 43:31 - 43:34
    如果Project Astra能助我更独立地生活
  • 43:34 - 43:36
    那真是再好不过了
  • 43:40 - 43:42
    就拿旅游来说,我非常喜欢旅游
  • 43:42 - 43:46
    因为可以走出去,去从未到过的地方,结识新朋友
  • 43:46 - 43:49
    但这确实变得越来越困难
  • 43:49 - 43:50
    你好
  • 43:50 - 43:54
    嗨,我来拍摄周围环境
  • 43:54 - 43:57
    你能告诉我这个绿色房间里有什么吗?
  • 43:57 - 44:00
    你面向的墙壁上贴有一个指示牌
  • 44:00 - 44:03
    写着“Wi-Fi network: TheGreyEagle”
  • 44:03 - 44:05
    密码是“livemusic”
  • 44:06 - 44:09
    非常感谢。你能告诉我麦克风架在哪儿吗?
  • 44:09 - 44:11
    没问题,非常乐意为你提供帮助
  • 44:11 - 44:12
    我可以打开你的手电筒吗?
  • 44:13 - 44:14
    当然可以
  • 44:15 - 44:18
    这面墙上有一些盘绕的电缆
  • 44:18 - 44:21
    视频右上方位置应该就是麦克风架
  • 44:24 - 44:27
    我能做的最有力量的事就是登上舞台
  • 44:27 - 44:29
    拿起吉他,尽情演奏
  • 44:29 - 44:34
    让人们意识到,看不看得见
  • 44:34 - 44:36
    残疾与否,并不能决定一切
  • 44:36 - 44:39
    如果Project Astra能助我一臂之力
  • 44:39 - 44:40
    我将全力支持它
  • 44:41 - 44:43
    祝你演出愉快
  • 44:43 - 44:44
    [前往goo.gle/AstraVI注册加入视觉翻译等候名单]
  • 44:52 - 44:53
    谢谢你,Demis
  • 44:53 - 44:58
    Project Astra在无障碍功能方面的潜力让人惊艳
  • 44:59 - 45:01
    这又是一个激动人心的例子
  • 45:01 - 45:04
    说明AI可以推动我们一直以来的使命
  • 45:04 - 45:09
    即:整理全球信息,让所有人都能访问并从中受益
  • 45:10 - 45:13
    要说最能体现我们使命的产品,非Google搜索莫属
  • 45:14 - 45:18
    正是因为搜索,我们几十年前就开始投资AI
  • 45:18 - 45:21
    也正是通过搜索,我们得以将AI的益处惠及大众
  • 45:21 - 45:23
    满足人类好奇心
  • 45:24 - 45:26
    Gemini模型正在让Google搜索
  • 45:26 - 45:29
    变得更智能、更真实、更个性化
  • 45:30 - 45:34
    我们取得了不俗的进步
    AI概览就是一个绝佳的例证
  • 45:34 - 45:36
    自去年I/O大会推出以来
  • 45:37 - 45:40
    该功能已覆盖200多个国家/地区
  • 45:40 - 45:43
    每月服务超15亿用户
  • 45:44 - 45:45
    随着人们使用AI概览
  • 45:46 - 45:50
    我们发现他们对搜索结果更满意
    并且搜索频率更高
  • 45:50 - 45:53
    在我们的主要市场,如美国、印度
  • 45:53 - 45:57
    在AI概览的推动下,查询类型
  • 45:58 - 45:59
    实现了超过10%的增长
  • 46:00 - 46:05
    最令人振奋的是,这种增长势头与日俱增
  • 46:05 - 46:09
    这是搜索领域过去十年最成功的产品之一
  • 46:17 - 46:22
    AI概览也是推动Google智能镜头
    视觉搜索增长的最强劲动力之一
  • 46:23 - 46:26
    智能镜头的搜索量同比增长65%
  • 46:26 - 46:30
    今年已有超千亿次视觉搜索
  • 46:31 - 46:33
    在我们最新的Gemini模型发布后
    不仅用户查询量显著增加
  • 46:33 - 46:38
    而且他们还在尝试更为复杂的查询
  • 46:38 - 46:41
    AI概览达到了用户期待的
  • 46:41 - 46:43
    搜索质量与准确程度
  • 46:44 - 46:46
    并拥有行业领先的响应速度
  • 46:47 - 46:50
    为满足端到端AI搜索体验需求
  • 46:50 - 46:53
    我们正推出全新AI模式
  • 46:54 - 46:58
    这是对搜索的全面重构
    同时搭配更先进的推理能力
  • 46:59 - 47:04
    你可以向AI模式提出更长、更复杂的查询
    就像这样
  • 47:04 - 47:11
    实际上,用户查询长度已是传统搜索的2到3倍
  • 47:11 - 47:15
    而且我们支持多轮追问
  • 47:15 - 47:20
    所有这些今天正式上线
    将作为新标签页整合到搜索中
  • 47:20 - 47:24
    我个人高频使用后发现
    它彻底改变了我的搜索方式
  • 47:25 - 47:28
    很高兴宣布AI模式今日起
  • 47:28 - 47:30
    面向全美用户开放
  • 47:37 - 47:41
    AI模式将率先为Google搜索
    引入我们的前沿技术
  • 47:41 - 47:48
    本周起,我们最智能的模型系列Gemini 2.5
    将接入Google搜索
  • 47:48 - 47:50
    带来更丰富的功能
  • 47:50 - 47:51
    接下来有请Liz
  • 48:03 - 48:04
    Sundar,谢谢
  • 48:05 - 48:09
    短短一年时间
    用户使用Google搜索的方式就发生了巨大变化
  • 48:10 - 48:15
    以前,用户在Google上搜索时
    常常会问这样的问题
  • 48:16 - 48:19
    但现在,用户的问题变成了这样
  • 48:20 - 48:23
    用户的问题更长,也更复杂了
  • 48:24 - 48:27
    正如Sundar刚才所说,问题数量也大大增加了
  • 48:28 - 48:31
    用户正在亲身体验AI赋能的搜索
  • 48:31 - 48:35
    我们将Gemini模型的先进功能
  • 48:35 - 48:39
    与Google搜索对网络和世界信息的深刻理解
    结合在一起
  • 48:40 - 48:43
    现在,你会发现你可以提出任何问题
  • 48:43 - 48:49
    更智能、更个性化的代理式搜索功能
    将可以处理你最棘手的问题
  • 48:49 - 48:51
    并帮助你完成任务
  • 48:52 - 48:54
    这就是Google搜索的未来
  • 48:55 - 48:58
    它将超越信息本身,变得越来越智能
  • 48:59 - 49:03
    大家已经开始看到AI概览将这一切变为现实
  • 49:03 - 49:05
    而AI模式更是将它们提升到了新高度
  • 49:07 - 49:11
    AI模式是以Gemini 2.5为核心的变革性搜索体验
  • 49:12 - 49:16
    它是我们功能最强大的AI搜索
    能够应对任何问题
  • 49:18 - 49:19
    正如Sundar所说
  • 49:19 - 49:24
    从今天开始
    我们将在美国全面推出AI模式
  • 49:31 - 49:35
    它会以新标签页的形式直接出现在搜索页面中
    大家也可以从搜索栏进入AI模式
  • 49:36 - 49:41
    AI模式将带来我们最精华的AI功能
  • 49:42 - 49:43
    但还不止于此
  • 49:43 - 49:45
    从它可窥见未来的广阔前景
  • 49:46 - 49:51
    未来,我们将逐步推出大量AI模型、先进的功能
  • 49:51 - 49:54
    并会直接整合到核心搜索体验中
  • 49:55 - 50:00
    今天就是起点
    我们带来了为AI模式和AI概览提供支持的模型
  • 50:01 - 50:05
    大家在搜索框中就可以直接提出最难的问题
  • 50:06 - 50:08
    今天,我们将带大家全面了解AI模式
  • 50:08 - 50:11
    看看它如何运作,如何变得越来越强大
  • 50:12 - 50:13
    尤其是在个人使用场景
  • 50:13 - 50:17
    深度研究、复杂分析、可视化
  • 50:17 - 50:20
    实时多模态以及购物新方式等方面
  • 50:20 - 50:23
    亮点很多,因为AI模式的功能很强大
  • 50:24 - 50:30
    下面,我们具体来说一下
    首先,使用AI模式,你可以随心所欲地提问
  • 50:30 - 50:33
    大家可以看到,搜索功能会立即开始工作
  • 50:33 - 50:37
    生成回答,将所有信息整合在一起
  • 50:38 - 50:42
    包括你可能从未发现的内容和创作者的链接
  • 50:42 - 50:46
    以及包含评分等实用信息的商家和企业的链接
  • 50:47 - 50:50
    Google搜索使用AI动态地调整整个界面
  • 50:51 - 50:56
    灵活组合文字、图片、链接,甚至是地图
  • 50:56 - 50:57
    只为更好地回答你的问题
  • 50:58 - 51:00
    你可以追问,就像跟人对话一样
  • 51:01 - 51:04
    现在,AI模式不仅仅是提供信息
  • 51:04 - 51:07
    更将搜索带到了全新的智能水平
  • 51:08 - 51:12
    这一切之所以能实现
    得益于称之为查询扇出的技术
  • 51:13 - 51:17
    其原理是
    Google搜索会识别需要高级推理的问题
  • 51:18 - 51:20
    并调用定制版的Gemini
  • 51:20 - 51:23
    将问题分解为若干子主题
  • 51:23 - 51:27
    然后替你同时发起大量查询
  • 51:28 - 51:33
    它会在整个网络进行搜索,深度远超传统搜索
  • 51:34 - 51:37
    它还会利用我们所有的实时信息数据集
  • 51:37 - 51:42
    例如知识图谱、购物信息图谱
    以及本例中涉及的本地数据
  • 51:42 - 51:47
    这其中包含地图社区中,5亿多贡献者的数据洞见
  • 51:48 - 51:51
    Google搜索会整合所有信息给出回答
    并进行自我检查
  • 51:52 - 51:54
    确保符合我们对信息质量的高标准要求
  • 51:55 - 51:59
    如果发现任何不足,它会发起更多搜索来弥补
  • 52:01 - 52:02
    这意味着,在AI模式下
  • 52:02 - 52:06
    你只需搜索一次,就能快速获得所有这些信息
  • 52:08 - 52:11
    现在来看看AI模式即将增加的新功能
    这些功能会先在实验室中进行测试
  • 52:13 - 52:17
    不久之后,AI模式将能根据你以往的搜索记录
  • 52:17 - 52:20
    提供个性化的建议,从而使回答更具针对性
  • 52:21 - 52:25
    你还可以选择关联其他的Google应用
    首先是Gmail
  • 52:26 - 52:28
    我们称之为个人使用场景
  • 52:28 - 52:31
    关联之后
    AI模式可以引入你的个人使用场景来提供帮助
  • 52:32 - 52:35
    现在,根据你最近的酒店预订和搜索记录
  • 52:36 - 52:38
    它能推断出你更喜欢户外的座位
  • 52:38 - 52:41
    由于你订阅了这些画廊简报
  • 52:41 - 52:44
    它就会推荐一些精彩的艺术展
    方便你在当地停留期间参观
  • 52:45 - 52:46
    但还不止这些
  • 52:47 - 52:50
    如果你的航班和酒店确认邮件都在收件箱里
  • 52:50 - 52:54
    它还会推荐你在纳什维尔时刚好能参加的活动
  • 52:54 - 52:56
    推荐你在停留期间的周边好去处
  • 52:57 - 53:01
    你会发现,AI模式中的个人使用场景功能
    可以将Google搜索变成为你量身定制的工具
  • 53:02 - 53:04
    专门为你提供推荐内容
  • 53:05 - 53:07
    这一切始终都由你掌控
  • 53:07 - 53:10
    你可以随时选择关联或解除关联
  • 53:11 - 53:14
    个人使用场景将于今年夏天在AI模式中上线
  • 53:22 - 53:25
    另外,我们将针对需要更深入解答的问题
  • 53:26 - 53:29
    为AI模式引入Deep Research功能
  • 53:30 - 53:33
    大家已经在使用Google搜索来剖析某个主题
  • 53:33 - 53:35
    而这项功能将研究的深度和广度又提升了一个级别
  • 53:36 - 53:39
    所以我们称之为Deep Search
  • 53:40 - 53:43
    Deep Search同样采用前面提到的查询扇出技术
  • 53:43 - 53:45
    但功能更强
  • 53:45 - 53:49
    它可以替你发起数十次甚至数百次搜索
  • 53:50 - 53:53
    它会对所有分散的信息进行分析推理
  • 53:53 - 53:57
    并在几分钟内生成一份
    带有完整引用信息的专家级报告
  • 53:58 - 53:59
    报告中会包含网页链接
  • 54:00 - 54:02
    方便你进一步探索和采取行动
  • 54:03 - 54:07
    这是我们构建AI模式的核心理念
  • 54:07 - 54:10
    以及我们对搜索领域中AI运用的一贯思考
  • 54:11 - 54:14
    因为我们坚信,AI将成为Web有史以来
  • 54:14 - 54:16
    最强大的发现引擎
  • 54:17 - 54:20
    帮助人们发现网络中更多有价值的信息
  • 54:20 - 54:23
    找到令人惊叹且高度相关的内容
  • 54:24 - 54:27
    大家已经开始感受到搜索变得越来越智能
  • 54:27 - 54:29
    但精彩远不止于此
  • 54:30 - 54:31
    接下来,我把时间交给Rajan
  • 54:31 - 54:34
    他将介绍AI模式如何帮助他分析
  • 54:35 - 54:37
    他热爱的一个体育领域里的复杂数据
  • 54:48 - 54:52
    Liz,谢谢你!我是一个狂热的棒球迷
  • 54:52 - 54:56
    最近关于这种叫做“鱼雷球棒”的新型球棒
    引起了很多讨论
  • 54:56 - 54:58
    为不太关注棒球的朋友解释一下
  • 54:58 - 55:03
    这是一种新型球棒
    它的特点是将更多重量集中在最佳击球点
  • 55:03 - 55:08
    正如大家所见
    我一直在研究这种球棒是否真的对比赛产生了影响
  • 55:08 - 55:11
    现在,我想知道数据会怎么说
  • 55:11 - 55:13
    于是,我向Google搜索提出了一个问题
  • 55:13 - 55:16
    请显示目前使用鱼雷球棒的知名球员
  • 55:17 - 55:20
    在本赛季和上赛季的打击率和上垒率
  • 55:21 - 55:24
    这个问题并不简单,包含了多重维度
  • 55:24 - 55:27
    Google搜索需要识别哪些是知名球员
  • 55:28 - 55:31
    谁在使用鱼雷球棒,并整合他们的赛季数据
  • 55:32 - 55:36
    但它马上给出了非常实用的回答
    其中还有容易理解的表格
  • 55:37 - 55:39
    而且,数据新鲜、精准
  • 55:39 - 55:43
    因为它使用的是我们持续更新的体育数据
  • 55:43 - 55:45
    甚至精确到最近一次好球
  • 55:46 - 55:48
    Google搜索甚至还提供了重要的背景信息
  • 55:48 - 55:51
    比如“目前赛季仍处于早期阶段”
  • 55:52 - 55:56
    我继续追问:这些球员本赛季击出多少支本垒打?
  • 55:57 - 55:59
    瞬间就获得了一张图表
  • 56:00 - 56:02
    这正好印证了Liz刚才提到的
  • 56:02 - 56:07
    AI模式能够为每个回答动态生成合适的界面
  • 56:08 - 56:12
    Google搜索确定
    最适合呈现这些信息的方式是图表
  • 56:12 - 56:18
    因此生成了图表
    就像Google搜索里内置了一个专属体育分析师
  • 56:19 - 56:23
    针对体育和金融问题的复杂数据分析和可视化功能
  • 56:23 - 56:25
    将在今年夏天上线
  • 56:31 - 56:36
    说了这么多棒球,我都想去现场看比赛了
  • 56:36 - 56:39
    比如说,下一场就去看
  • 56:39 - 56:42
    但是,购买好票总是让人头大
  • 56:43 - 56:45
    这里很高兴地告诉大家
  • 56:45 - 56:50
    我们正将Project Mariner的代理式功能
    整合到AI模式中
  • 56:51 - 56:55
    大家已经看到AI模式正变得更加智能和个性化
  • 56:55 - 56:59
    现在可以开始看到Google搜索正变得更加主动
  • 56:59 - 57:03
    它能帮我完成任务,但仍由我保持掌控权
  • 57:04 - 57:05
    我会告诉它
  • 57:05 - 57:10
    “找两张这周六红人队比赛下层看台的平价门票”
  • 57:11 - 57:12
    Google搜索启动查询扇出
  • 57:13 - 57:17
    同时扫描多个网站,分析上百个潜在的门票选项
  • 57:17 - 57:22
    按我提出的所有条件填写表单
    不用我去做这些繁琐的工作
  • 57:23 - 57:25
    然后将所有信息汇总在一起
  • 57:25 - 57:29
    基于搜索结果进行推理,分析实时票价和库存
  • 57:30 - 57:34
    然后,像这样,任务就完成了
  • 57:34 - 57:37
    它给出了不错的门票选项,还有实用的背景信息
  • 57:38 - 57:40
    我可以在此基础上做出明智的决定
  • 57:41 - 57:44
    这些座位看起来视野良好,价格合理
  • 57:45 - 57:47
    Google搜索已代我完成了大量步骤填写这些信息
  • 57:47 - 57:49
    并提供了链接,引导我完成结账
  • 57:50 - 57:51
    定下这些门票
  • 58:00 - 58:02
    Google搜索很快将能够帮助处理这类任务
  • 58:02 - 58:07
    首先覆盖的是活动门票、餐厅预订和本地生活服务预约
  • 58:09 - 58:12
    接下来,让我们聊聊多模态技术
  • 58:13 - 58:16
    从多模态搜索这个概念还不怎么流行的时候
  • 58:16 - 58:17
    我们就一直是这个领域的方向引领者
  • 58:18 - 58:22
    回到2017年,我们就是在这个讲台上
    宣布推出了Google智能镜头
  • 58:22 - 58:26
    此后我们不断优化,让所见即所搜更加便捷
  • 58:27 - 58:30
    只需用Google智能镜头拍照或使用圈定即搜
  • 58:30 - 58:33
    就能立即获得AI概览
  • 58:34 - 58:35
    Sundar刚才提到过
  • 58:35 - 58:37
    视觉搜索目前正呈现出燎原之势
  • 58:37 - 58:39
    今天我很激动地宣布
  • 58:39 - 58:43
    每月有超过15亿用户使用Google智能镜头
  • 58:49 - 58:52
    现在,我们正围绕多模态迈出重大的一步
  • 58:53 - 58:57
    将Project Astra的实时功能引入AI模式
  • 58:58 - 59:02
    想想那些对话交流一下,就会变得超级简单的问题
  • 59:02 - 59:04
    而且自己的意图还能得到准确的展示
  • 59:05 - 59:07
    比如家庭DIY维修
  • 59:07 - 59:09
    棘手的学校作业,或是学习新技能
  • 59:10 - 59:12
    我们称之为实时搜索
  • 59:12 - 59:14
    现在利用摄像头
  • 59:14 - 59:17
    Google搜索能随着用户来回走动
  • 59:17 - 59:20
    实时感知他们看到的画面,并提供有用信息
  • 59:20 - 59:23
    就像在与Google搜索进行视频通话
  • 59:24 - 59:28
    我有三个孩子,他们每分钟能问上百万个问题
  • 59:28 - 59:30
    随着暑假临近
  • 59:31 - 59:34
    我和团队决定对实时搜索进行终极测试
  • 59:35 - 59:38
    帮助我们和孩子们解决些新问题
  • 59:39 - 59:43
    上周末,我们与我的家人在家里录制了演示
  • 59:43 - 59:44
    一起看下吧
  • 59:45 - 59:48
    看起来你们准备做有趣的科学实验
  • 59:48 - 59:50
    好的。准备好了吗?
  • 59:50 - 59:52
    -好了
    -好的
  • 59:52 - 59:54
    -你准备好开始实验了吗?
    -好了
  • 59:54 - 59:58
    能猜出我要做什么实验吗?我有双氧水
  • 59:58 - 59:59
    洗洁精和酵母
  • 59:59 - 60:01
    你可能要做大象牙膏实验
  • 60:02 - 60:04
    我知道哪颗草莓可以吃了
  • 60:04 - 60:06
    我在想办法让遥控器工作
  • 60:06 - 60:10
    看来有人准备种下青豆幼苗
  • 60:10 - 60:12
    把压力调到每平方英寸50磅左右
  • 60:12 - 60:14
    但不要超过每平方英寸90磅
  • 60:14 - 60:17
    我混合了小苏打,接下来做什么?
  • 60:17 - 60:20
    看起来有人把手指伸进肉桂水里了
  • 60:20 - 60:22
    如何让实验更壮观?
  • 60:22 - 60:24
    可以尝试不同的催化剂
  • 60:24 - 60:26
    碘化钾是个好选择
  • 60:27 - 60:28
    哇!为什么会这样?
  • 60:28 - 60:31
    成熟的草莓也会有甜香味
  • 60:31 - 60:33
    顶部绿叶应新鲜、有活力
  • 60:33 - 60:35
    化学反应进行得很顺利
  • 60:35 - 60:37
    -太棒了!谢谢!
  • 60:39 - 60:40
    -再来一次可以吗?
  • 60:40 - 60:45
    小伙子,怎么洗掉衣服上的草莓渍?
  • 60:46 - 60:48
    尝试用一汤匙白醋
  • 60:48 - 60:50
    加半茶匙洗衣液
  • 61:05 - 61:11
    通过AI模式
    我们正在带来全新Google智能购物体验
  • 61:12 - 61:13
    前面提到过
  • 61:14 - 61:19
    AI模式整合了网络信息和实时数据
  • 61:19 - 61:24
    在这种情况下
    这意味着既可通过Google图片获得视觉灵感
  • 61:24 - 61:30
    又能获得购物信息图谱提供的
    海量商品和零售商数据
  • 61:30 - 61:36
    其中包含超过500亿条持续更新的商品详情
  • 61:37 - 61:39
    我来演示一下这是如何实现的
  • 61:40 - 61:43
    我一直在为我的客厅寻找一块新地毯
  • 61:44 - 61:47
    因此,我给出提示:我家有一个浅灰色的沙发
  • 61:48 - 61:50
    想找一块能让房间看起来更明亮的地毯
  • 61:51 - 61:54
    我首先需要的是视觉灵感
  • 61:55 - 61:59
    Google搜索根据我的喜好
    动态生成了一个可浏览的图片拼接图
  • 62:00 - 62:04
    并显示了一些可购买的商品
  • 62:05 - 62:09
    其中就有我常用品牌的地毯
    以及风格更现代的选项
  • 62:09 - 62:12
    因为我经常搜索这类风格的物品
  • 62:13 - 62:19
    这些推荐虽好,但大多数在我家恐怕连一天都撑不过
  • 62:20 - 62:21
    于是我补充道
  • 62:24 - 62:28
    家里有四个活泼的孩子,他们经常带朋友来玩
  • 62:29 - 62:33
    Google搜索立刻意识到了那种杂乱的场面
  • 62:33 - 62:38
    于是推荐了采用耐用材质的短绒地毯或可水洗地毯
  • 62:39 - 62:40
    还附上了一些可直接购买的产品
  • 62:42 - 62:44
    不过我对地毯并不专业
  • 62:44 - 62:47
    好在Google搜索贴心地指出了需要考虑的事项
  • 62:47 - 62:50
    并提供了后续实用建议
  • 62:51 - 62:56
    原本需要几周的研究,现在只需几分钟
  • 62:57 - 63:02
    可以想象,这种全新的AI模式体验
  • 63:02 - 63:04
    对购物需求会有多实用
  • 63:05 - 63:08
    说到购物,我需要几件夏天穿的新裙子
  • 63:09 - 63:12
    Google搜索给了我一些不错的选择
  • 63:12 - 63:17
    但现在我遇到了经典网购难题
  • 63:18 - 63:22
    那就是完全不知道这些款式穿在我身上会是什么样
  • 63:23 - 63:26
    于是,我们将推出一项新的试穿功能
  • 63:26 - 63:29
    帮用户虚拟试穿
  • 63:29 - 63:33
    感受款式在身上的效果
  • 63:34 - 63:36
    我来实时演示一下
  • 63:37 - 63:43
    在一通搜索之后,我找到一条喜欢的蓝裙子
  • 63:44 - 63:47
    然后点击这个按钮试穿
  • 63:47 - 63:51
    系统提示我上传照片,并引导我进入相册
  • 63:52 - 63:53
    我有很多照片
  • 63:53 - 63:57
    于是打算选一张清晰的全身照
  • 63:58 - 64:00
    处理就开始了
  • 64:01 - 64:04
    在等待系统处理的时候
    我想介绍下背后的技术原理
  • 64:05 - 64:08
    为了打造这种规模化运作的试穿功能
  • 64:09 - 64:11
    我们需要深度理解人体结构
  • 64:12 - 64:14
    及服装在人体上的呈现效果
  • 64:14 - 64:17
    为此,我们构建了一个专门针对时尚行业训练的
  • 64:18 - 64:20
    定制图片生成模型
  • 64:21 - 64:22
    哇,处理完成了!
  • 64:31 - 64:35
    必须说实时演示成功的感觉太棒了
  • 64:38 - 64:39
    我们来继续聊背后的原理
  • 64:39 - 64:42
    该技术整合了先进的3D形体理解能力
  • 64:43 - 64:47
    能更精准地感知形状与深度
  • 64:47 - 64:50
    从而更好地呈现人体轮廓
  • 64:50 - 64:53
    这种体验完全基于你的照片
  • 64:53 - 64:57
    而非预先拍摄的图片或跟你不像的模特
  • 64:58 - 65:01
    对于你心仪的服饰
  • 65:01 - 65:08
    AI模型能够呈现面料褶皱、延展和垂坠感
  • 65:09 - 65:13
    这是一项业内领先的技术,可大规模应用
  • 65:13 - 65:15
    借助它,我们能以直观的方式
  • 65:16 - 65:20
    呈现数十亿服装产品
    在不同体型的人群身上的穿着效果
  • 65:20 - 65:22
    大家可以看到
  • 65:22 - 65:25
    这个功能让我真实感受到了裙子上身的效果
  • 65:26 - 65:29
    选好裙子后
  • 65:29 - 65:32
    Google搜索还能通过全新代理式结账功能
  • 65:33 - 65:36
    按目标价位帮我购买
  • 65:36 - 65:39
    现在回到这件裙子的页面
  • 65:40 - 65:43
    我想点击按钮,跟踪价格
  • 65:44 - 65:46
    选择尺码后
  • 65:47 - 65:48
    设定目标价
  • 65:48 - 65:51
    我打算设成50美元左右
  • 65:54 - 65:55
    跟踪功能马上启动
  • 65:55 - 65:59
    Google搜索现在将持续监测销售该裙子的网站
  • 65:59 - 66:02
    在价格降到位时通知我
  • 66:02 - 66:06
    现在我们退出实时演示
  • 66:06 - 66:09
    这里我施展一点魔法
  • 66:09 - 66:11
    假设价格现在降到位了
  • 66:12 - 66:16
    此时系统会推送类似画面中的通知
  • 66:17 - 66:18
    我确认购买后
  • 66:18 - 66:23
    结账智能体会将尺码和颜色合适的裙子
    添加到购物车中
  • 66:23 - 66:27
    我可以选择核对所有支付与配送信息
  • 66:27 - 66:30
    或直接授权智能体完成购买
  • 66:39 - 66:45
    只需点按一下,Google搜索就能
    使用Google Pay安全地代我完成购买
  • 66:45 - 66:47
    当然,从灵感激发到最终购买
  • 66:48 - 66:51
    整个流程全程由我主导
  • 66:52 - 66:54
    我们的全新智能功能
  • 66:54 - 66:59
    将最好的购物体验与顶尖AI技术
    融合在了Google搜索中
  • 67:00 - 67:03
    全新可视化购物及结账功能
  • 67:03 - 67:05
    将在未来几个月内逐步推出
  • 67:05 - 67:10
    虚拟试穿功能即日起可在实验室版本中体验
  • 67:17 - 67:19
    现在把时间交还给Liz
  • 67:27 - 67:30
    感谢Vidhya!正如Sundar所说
  • 67:30 - 67:33
    本周晚些时候即将迎来重大升级
  • 67:33 - 67:40
    Gemini 2.5定制版将集成到AI模式和AI概览中
  • 67:40 - 67:43
    这意味着,Google搜索迎来了新篇章
  • 67:44 - 67:46
    受益于此,AI概览将会把AI的实用性
  • 67:47 - 67:49
    带给核心Google搜索体验的每一个用户
  • 67:50 - 67:51
    正如你今天所见
  • 67:52 - 67:55
    AI模式是一种彻底重构的AI搜索
  • 67:55 - 67:59
    集成了我们最前沿的AI特性和功能
  • 68:00 - 68:03
    我们很激动,Google搜索迎来了新篇章
  • 68:03 - 68:08
    毫不夸张地说,用户可以真正地问它任何事
  • 68:09 - 68:11
    从最简单到最棘手的问题
  • 68:12 - 68:15
    最深的研究、个性化购物需求
  • 68:15 - 68:17
    希望代劳的琐事
  • 68:18 - 68:20
    只需提问,即可获得响应
  • 68:23 - 68:28
    好戏开场!我的魅力自然流露
  • 68:29 - 68:32
    我的风格如此惊艳,让所有人都为之震撼
  • 68:32 - 68:34
    等等!我感觉妙不可言
  • 68:35 - 68:38
    来吧,展示你如何舞动
    舞动、舞动,释放自我
  • 68:38 - 68:40
    我用崭新视角迎接挑战
  • 68:40 - 68:42
    将热情点燃,让全场沸腾
  • 68:42 - 68:45
    我们将激情调到最高点,就是这样,来吧!
  • 68:45 - 68:46
    舞动、舞动,释放精彩
  • 68:46 - 68:48
    来吧,尽情展现你的独特魅力
  • 68:48 - 68:50
    我还应该做些什么来让它更坚固?
  • 68:50 - 68:53
    为了让它更坚固
    建议在设计中运用更多三角形结构
  • 68:55 - 68:57
    已经足够完美了
  • 68:57 - 69:00
    尽情沐浴在聚光灯下,因为你值得闪耀
  • 69:01 - 69:05
    F-A-B-U-L-O-U-S,每一天都光芒四射
  • 69:05 - 69:06
    想要就来追求,勇敢出击
  • 69:06 - 69:10
    无意冒犯,只为精彩舞动
    舞动、舞动,释放精彩
  • 69:10 - 69:14
    我带来崭新的创意风格
    将热情点燃,让全场沸腾
  • 69:14 - 69:16
    我们把热情推向极致
  • 69:16 - 69:18
    就是这样,舞动、舞动,释放精彩
  • 69:18 - 69:21
    来吧,尽情展现你的独特魅力,让我大声喊出
  • 69:21 - 69:23
    就是这样,太棒了!
  • 69:24 - 69:26
    舞动、舞动,释放精彩
  • 69:26 - 69:28
    我带来崭新的创意风格
  • 69:28 - 69:30
    将热情点燃,让全场沸腾
  • 69:30 - 69:34
    我们把热情推向极致
    来吧,舞动、舞动,释放精彩
  • 69:34 - 69:39
    来吧,尽情展现你的独特魅力,光芒四射!
  • 69:39 - 69:41
    每一天都耀眼夺目
  • 69:41 - 69:42
    想要就来追求,勇敢出击
  • 69:42 - 69:44
    无意冒犯,只为精彩——等等!
  • 69:59 - 70:02
    多年来,人们一直致力于构建
  • 70:02 - 70:06
    一种不仅能给出回应,而且具有理解能力的AI助理
  • 70:06 - 70:09
    一个不仅仅等待用户提问,而是能够提前预判需求的助理
  • 70:10 - 70:13
    一个真正能为用户赋能的通用助理
  • 70:14 - 70:17
    今天,我们正朝着这个方向迈出新步伐
  • 70:18 - 70:20
    而Gemini应用正是我们实现这一目标的工具
  • 70:21 - 70:28
    我们的目标是将Gemini打造成
    最个性化、最主动、最强大的AI助理
  • 70:28 - 70:31
    而这一切始于个性化
  • 70:32 - 70:36
    如果你的AI助理真正属于你
    完全为你定制,会怎样?
  • 70:36 - 70:42
    它能学习你的特点、你的偏好
    你的项目、你的生活场景
  • 70:42 - 70:44
    而你始终处于主导地位
  • 70:45 - 70:47
    在你授权的情况下
  • 70:47 - 70:49
    你可以与它分享你所有的Google信息
  • 70:50 - 70:52
    使其成为你的延伸
  • 70:52 - 70:55
    我们将这项功能称为“个人使用场景”
  • 70:55 - 70:59
    我们已经实现了让用户与Gemini分享搜索记录
  • 70:59 - 71:03
    这样它就能知道用户曾经搜索过哪些食谱
  • 71:03 - 71:05
    并据此生成这样的回答
  • 71:06 - 71:07
    很快,你还可以添加
  • 71:07 - 71:11
    你在各种Google服务中的更多个人使用场景
  • 71:11 - 71:14
    让Gemini为你提供专属帮助
  • 71:15 - 71:17
    如果你选择启用这个功能
  • 71:17 - 71:19
    将始终掌控自己的体验
  • 71:19 - 71:21
    启用后,你可以随时查看和管理自己的信息
  • 71:21 - 71:24
    关联或解除关联各种Google应用
  • 71:25 - 71:30
    这种个性化将孕育主动型AI助理
  • 71:31 - 71:32
    带来革命性改变
  • 71:33 - 71:36
    要知道,目前大多数AI都是被动反应式的
  • 71:36 - 71:38
    你问一句,它答一句
  • 71:38 - 71:41
    但如果它能预见即将发生的事情
  • 71:41 - 71:44
    在你问它之前就帮你做好准备呢?
  • 71:45 - 71:46
    假设你是一名学生
  • 71:46 - 71:48
    你的物理考试即将来临
  • 71:48 - 71:50
    Gemini能提前一周在你的日历上圈出这场考试
  • 71:50 - 71:53
    而不是让你手忙脚乱地准备
  • 71:53 - 71:55
    它并不只是提醒你而已
  • 71:55 - 71:57
    它会为你提供个性化测验
  • 71:58 - 71:59
    这些测验整合了你的课堂材料
  • 71:59 - 72:03
    教授的讲义,甚至是你手写笔记的照片
  • 72:03 - 72:05
    这不仅仅是有用
  • 72:05 - 72:06
    这会让人感觉就像魔法一样神奇
  • 72:07 - 72:09
    再更进一步
  • 72:09 - 72:11
    设想Gemini能够基于你的兴趣
  • 72:11 - 72:15
    制作个性化讲解视频
  • 72:15 - 72:18
    帮助你更好地理解学习主题
  • 72:19 - 72:21
    例如,Gemini了解到我喜欢骑行
  • 72:22 - 72:27
    它就会用自行车相关的类比来为我讲解热力学原理
  • 72:28 - 72:29
    这就是Gemini的发展方向
  • 72:30 - 72:31
    而这一切之所以成为可能
  • 72:32 - 72:35
    都要归功于底层模型的强大能力
  • 72:36 - 72:40
    上个月,我们发布了最新的Gemini 2.5 Pro模型
  • 72:40 - 72:42
    这不只是一次升级,而是一次飞跃
  • 72:43 - 72:46
    人们正在用它创造出非凡的成果
  • 72:46 - 72:47
    他们不仅仅是进行氛围编程
  • 72:48 - 72:52
    而是能在几分钟内创造出
    完整的游戏和功能齐全的网站
  • 72:52 - 72:55
    他们只需要在脑海中构思,就能让创意变为现实
  • 72:55 - 72:58
    而且这很有趣,无论是第一次编写软件
  • 72:58 - 73:02
    还是使用Veo模型创建视频,或者生成和编辑图像
  • 73:03 - 73:05
    这些技能现在成了每个人都能掌握的“超能力”
  • 73:05 - 73:10
    因此,个性化、主动性、强大功能
  • 73:11 - 73:13
    这三个方面是AI辅助的前沿领域
  • 73:13 - 73:15
    而借助Gemini 2.5 Pro
  • 73:15 - 73:17
    我们在这三个方面都取得了重大进展
  • 73:19 - 73:20
    接下来,我们来详细了解一下
  • 73:20 - 73:23
    这些功能如何在Gemini应用中实现
  • 73:24 - 73:25
    我们今天将推出五项新功能
  • 73:26 - 73:28
    首先,我们来看看Gemini Live
  • 73:29 - 73:33
    许多用户对其自然流畅的交互和对话方式赞不绝口
  • 73:34 - 73:38
    它支持150多个国家/地区的45种以上的语言
  • 73:38 - 73:40
    它是如此直观、如此富有互动性
  • 73:41 - 73:42
    以至于用户与它的对话时长
  • 73:42 - 73:46
    是Gemini应用中文本对话的五倍
  • 73:46 - 73:48
    从我的个人经验来说
  • 73:48 - 73:52
    它非常适合在早上开车上班的路上
    交流讨论、梳理思路
  • 73:53 - 73:54
    正如Sundar提到的
  • 73:54 - 73:56
    Gemini Live现在增加了
  • 73:56 - 73:59
    出色的相机和屏幕共享功能
  • 73:59 - 74:01
    而从今天起
  • 74:01 - 74:03
    你可以在Gemini移动应用中免费使用这些功能
  • 74:03 - 74:04
    并同时支持Android和iOS设备
  • 74:11 - 74:12
    在接下来的几周内
  • 74:12 - 74:15
    你将能够把Gemini Live连接到你喜爱的部分应用中
  • 74:15 - 74:18
    如日历、地图、Keep和Tasks
  • 74:18 - 74:21
    这样一来,你只需将摄像头对准邀请内容
  • 74:21 - 74:24
    就能让Gemini立即将其添加到日历中
  • 74:25 - 74:29
    或者,在面对室友手写的潦草购物清单时
  • 74:29 - 74:33
    Gemini Live能够将那些潦草的笔记
    转换成Google Keep中的整洁列表
  • 74:34 - 74:38
    我们为Gemini Live规划了众多令人期待的新功能
  • 74:39 - 74:42
    这些功能正在刚才展示的Project Astra中进行原型设计
  • 74:43 - 74:44
    当这些功能成熟后
  • 74:44 - 74:47
    我们会在Gemini Live中推出,让所有人都能使用
  • 74:48 - 74:51
    由于Gemini和Android合作紧密
  • 74:52 - 74:53
    这些创新功能中的大部分
  • 74:53 - 74:57
    会在整个生态系统中的Android设备上大放异彩
  • 74:57 - 74:58
    所以,敬请期待未来的更多更新!
  • 74:59 - 75:04
    实时交互确实很棒,但有时候,你需要深入挖掘
  • 75:04 - 75:06
    梳理一些复杂的内容
  • 75:07 - 75:09
    这就是Deep Research的用武之地
  • 75:09 - 75:12
    从今天起,你可以在使用Deep Research时
  • 75:12 - 75:15
    上传自己的文件来指导研究智能体
  • 75:15 - 75:18
    这也是用户呼声最高的一项功能
  • 75:18 - 75:23
    很快,你还能够将Deep Research
    与Google云端硬盘和Gmail连接
  • 75:23 - 75:25
    以便轻松地从中导入信息
  • 75:26 - 75:29
    假如你获得了一份精彩、翔实的研究报告
  • 75:30 - 75:33
    比如这份关于彗星在太空中运行轨迹的科学分析
  • 75:34 - 75:38
    但要如何才能让它变得易于理解又能吸引读者呢?
  • 75:39 - 75:41
    以及如何分享这些精彩内容呢?
  • 75:42 - 75:43
    这就是Canvas大显身手的时刻
  • 75:43 - 75:47
    Canvas是Gemini提供的交互式协同创作空间
  • 75:47 - 75:49
    现在借助Canvas
  • 75:49 - 75:53
    只需轻轻一点就能转换报告格式
  • 75:53 - 75:57
    你可以将它转换成动态网页、信息图、实用测验
  • 75:57 - 76:00
    甚至是支持45种语言的自定义播客
  • 76:01 - 76:03
    要想更进一步,你可以在Canvas中通过氛围编程
  • 76:04 - 76:08
    创建各种精彩内容,让它按照你的想法不断完善作品
  • 76:09 - 76:11
    直到创造出你脑海中的构想
  • 76:12 - 76:14
    例如,我们的一位Google同事
  • 76:14 - 76:18
    仅仅是描述了自己的构想,然后与Gemini展开协作
  • 76:18 - 76:21
    便创造出了这个精确的交互式彗星运行模拟
  • 76:22 - 76:24
    现在,你也可以分享这样的应用
  • 76:24 - 76:28
    让其他人也能一起查看、修改甚至二次创作
  • 76:29 - 76:32
    这种能够转化任何内容的能力
  • 76:32 - 76:34
    开创了使用Gemini的全新方式
  • 76:36 - 76:39
    今天,我们还将推出Gemini的另一种全新使用方式
  • 76:39 - 76:42
    Chrome中的Gemini
  • 76:43 - 76:48
    它将成为你在桌面端浏览网页时的AI助理
  • 76:49 - 76:51
    最棒的是
  • 76:51 - 76:56
    它能直接理解你当前浏览的页面内容
  • 76:56 - 76:59
    只要你想到任何问题,都能获得针对性的解答
  • 76:59 - 77:02
    我个人最喜欢用它来对比一长串的评价内容
  • 77:02 - 77:04
    比如这个露营网站
  • 77:05 - 77:06
    从本周开始
  • 77:06 - 77:08
    我们将向美国地区的Gemini订阅者
  • 77:08 - 77:10
    推出Chrome中的Gemini
  • 77:18 - 77:20
    至此,我们已经体验了测验、Gemini Live对话
  • 77:21 - 77:23
    学习了彗星和露营地的知识
  • 77:23 - 77:24
    现在,我们来创造一些内容
  • 77:25 - 77:26
    从今天起
  • 77:27 - 77:31
    Google旗下最先进、功能最强大的图像生成模型
  • 77:31 - 77:32
    正式在Gemini应用上推出
  • 77:33 - 77:37
    它叫做Imagen 4,这是又一次重大飞跃
  • 77:41 - 77:47
    生成的图像更加饱满,色彩更加细腻,细节更为精细
  • 77:47 - 77:49
    例如各种场景中的阴影层次
  • 77:50 - 77:52
    以及照片中栩栩如生的水滴效果
  • 77:53 - 77:55
    经过长期的研究
  • 77:55 - 77:57
    我可以肯定地说,这些模型生成的图像质量
  • 77:58 - 78:02
    已经实现了从“不错”到“出色”再到“惊艳”的飞跃
  • 78:03 - 78:07
    Imagen 4在文字和排版方面也有很大提升
  • 78:07 - 78:10
    之前的模型虽然能生成不错的图像
  • 78:11 - 78:14
    但在图像中加入文字时总会出现瑕疵
  • 78:15 - 78:18
    举个例子,假设我想创建一张音乐节海报
  • 78:19 - 78:21
    将那只Chrome恐龙作为主角
  • 78:21 - 78:25
    Imagen 4不仅能够准确呈现文本内容和正确拼写
  • 78:25 - 78:28
    它还能做出富有创意的设计决策
  • 78:28 - 78:30
    比如在字体中融入恐龙骨骼元素
  • 78:30 - 78:34
    调整文字间距、字号大小和整体布局
  • 78:34 - 78:36
    创造出这张很棒的海报
  • 78:37 - 78:41
    总之,图像质量更高、生成速度更快、文字效果更好
  • 78:41 - 78:46
    这样一来,你就可以制作海报、派对邀请函等内容
  • 78:47 - 78:49
    借助原生图像生成功能
  • 78:49 - 78:52
    你还可以直接在应用中轻松编辑这些图像
  • 78:53 - 78:57
    我们还开发了一个快速版本的Imagen 4
  • 78:57 - 78:59
    我们非常期待你能亲自体验它
  • 78:59 - 79:04
    它的速度是我们先前模型的十倍
  • 79:04 - 79:06
    让你能够快速尝试和完善各种创意
  • 79:07 - 79:09
    最后,我想向大家展示一项新内容
  • 79:10 - 79:11
    这些生成的图像的确很棒
  • 79:12 - 79:16
    但要讲述一个完整的故事有时需要动作和声音的配合
  • 79:17 - 79:19
    去年12月,我们发布的Veo 2模型
  • 79:19 - 79:23
    重新定义了整个行业的视频生成标准
  • 79:23 - 79:27
    如果你注意到了Demis昨天发布的煎炒洋葱视频
  • 79:27 - 79:29
    就能猜到我们还有更多新鲜出炉的惊喜
  • 79:30 - 79:34
    今天,我很高兴地宣布推出我们最先进的模型
  • 79:35 - 79:36
    Veo 3
  • 79:43 - 79:46
    与今天发布的其他内容一样
  • 79:46 - 79:48
    它从今天起就已开放使用
  • 79:53 - 79:55
    视觉质量更加出色
  • 79:55 - 79:59
    对物理规律的理解更加强大
  • 79:59 - 80:05
    但这次质的飞跃在于,Veo 3实现了原生音频生成
  • 80:05 - 80:12
    这意味着Veo 3能够生成音效
  • 80:12 - 80:15
    背景音,甚至对话
  • 80:16 - 80:19
    只需输入提示,你的角色就会开口说话
  • 80:20 - 80:24
    这是森林中一只睿智的老猫头鹰与一只紧张的小獾
  • 80:24 - 80:25
    敬请聆听
  • 80:35 - 80:37
    他们今天留下了一个球
  • 80:38 - 80:40
    它能弹得比我跳得还高!
  • 80:41 - 80:43
    这是什么神奇的魔法?
  • 80:56 - 81:00
    很酷吧?Veo不仅添加了森林的声音
  • 81:00 - 81:01
    还添加了对话
  • 81:02 - 81:08
    内容创作正在进入结合音频和视频生成的新时代
  • 81:08 - 81:10
    无论是画面还是声音都栩栩如生
  • 81:10 - 81:12
    让人感觉身临其境
  • 81:12 - 81:16
    在这个视频中,就像真的坐在这艘船上
  • 81:18 - 81:20
    这片海洋,是一股无与伦比的力量
  • 81:20 - 81:22
    一种未被驯服的野性力量
  • 81:23 - 81:24
    她指挥着你的每一次划桨
  • 81:25 - 81:26
    伴随着每一道破浪的闪光
  • 81:34 - 81:37
    如此逼真的画面、丰富的情感表达
  • 81:37 - 81:41
    匹配的口型,以及背景中的海洋
  • 81:41 - 81:44
    作为一款强大的创意工具
  • 81:44 - 81:47
    Veo的发展速度令人叹为观止
  • 81:48 - 81:51
    我们一直在与电影行业密切合作
  • 81:51 - 81:54
    共同探索Veo的可能性,直至做好发布的准备
  • 81:54 - 81:56
    稍后也将为大家分享更多具体内容
  • 81:57 - 81:59
    以上就是Gemini的更新内容
  • 82:00 - 82:03
    从今天起,Gemini Live的各项功能
  • 82:03 - 82:06
    在Android和iOS上完全免费提供
  • 82:06 - 82:10
    Deep Research和Canvas迎来了迄今为止最大的更新
  • 82:10 - 82:12
    正如之前介绍的
  • 82:12 - 82:15
    支持多步骤操作的Agent Mode也即将推出
  • 82:15 - 82:19
    我们推出了Chrome中的Gemini,帮助你浏览网页
  • 82:19 - 82:21
    你可以使用全新的Imagen 4和Veo 3模型
  • 82:21 - 82:26
    创建令人惊叹的图像和音画结合的视频
  • 82:26 - 82:29
    所有这些功能都将在Gemini应用中整合
  • 82:29 - 82:35
    助力我们打造最个性化、最主动、最强大的AI助理
  • 82:36 - 82:38
    接下来,Jason将为大家详细介绍
  • 82:38 - 82:42
    这些生成模型如何为创意表达开启全新可能
  • 82:42 - 82:43
    有请Jason
  • 82:53 - 82:54
    谢谢,Josh
  • 82:55 - 82:59
    无论你是创作者、音乐人还是电影制作人
  • 83:00 - 83:03
    生成式媒体技术正在拓展创意表达的可能性
  • 83:03 - 83:07
    通过与艺术家和创作者一直以来的密切合作
  • 83:07 - 83:11
    我们开发了能够赋能其创作过程的技术
  • 83:12 - 83:16
    例如,我们与音乐人合作开发了Music AI Sandbox
  • 83:16 - 83:18
    这是一款专为音乐专业人士设计的工具
  • 83:18 - 83:20
    让他们能够在创作过程中
  • 83:20 - 83:23
    探索我们的音乐生成模型Lyria所带来的可能性
  • 83:23 - 83:27
    例如这段视频记录了音乐传奇人物、格莱美获奖歌手
  • 83:27 - 83:29
    作曲家Shankar Mahadevan
  • 83:29 - 83:32
    使用Music AI Sandbox和Lyria的场景
  • 83:34 - 83:38
    我是Shankar Mahadevan
    一名音乐作曲家、歌手、制作人
  • 83:38 - 83:39
    大家都说我笑口常开
  • 83:42 - 83:44
    使用Sandbox的体验非常棒
  • 83:44 - 83:48
    我们输入需求后,它生成了一段背景音乐
  • 83:49 - 83:51
    我们在此基础上创作出了完整的歌曲
  • 83:56 - 83:58
    对一名音乐人而言,这是一个极具启发性的工具
  • 83:59 - 84:01
    就像你打开一扇门,发现了另一个空间
  • 84:01 - 84:04
    然后再开一扇门,发现更多可能性
  • 84:04 - 84:06
    AI就是这样,不断开启新视野
  • 84:32 - 84:33
    太棒了
  • 84:37 - 84:39
    我们最近推出的Lyria 2模型
  • 84:39 - 84:43
    可以生成高保真音乐和专业级音频
  • 84:43 - 84:45
    它生成的音乐旋律优美动听
  • 84:45 - 84:47
    还能编入独唱和合唱人声部分
  • 84:48 - 84:51
    它能够创作出富有表现力且层次丰富的内容
    例如接下来的这段音乐
  • 85:08 - 85:11
    Lyria 2从今天起正式向企业用户
  • 85:11 - 85:13
    和YouTube创作者和专业音乐人开放
  • 85:14 - 85:18
    这种协作理念不仅体现在我们构建的产品中
    也体现在我们的构建方式上
  • 85:19 - 85:21
    目前,无论是个人还是组织
  • 85:21 - 85:25
    都难以有效识别AI生成的图像
  • 85:25 - 85:31
    随着技术的进步和生成的音乐
    音频、图像、视频日益逼真
  • 85:31 - 85:33
    这一情况只会更加泛滥
  • 85:33 - 85:36
    因此,我们在这一领域持续创新
  • 85:37 - 85:40
    两年前,我们开创了SynthID技术
  • 85:40 - 85:43
    它能在生成的媒体内容中嵌入不可见的水印
  • 85:44 - 85:48
    到目前为止,已有超过100亿生成的内容带有水印
  • 85:49 - 85:51
    另外,我们也在进一步扩大合作伙伴关系
  • 85:51 - 85:54
    确保更多内容带有SynthID水印
  • 85:54 - 85:57
    同时让更多组织能够检测到水印
  • 85:57 - 86:01
    最后,我们还简化了水印的检测机制
  • 86:01 - 86:04
    我们新推出的SynthID检测器能够识别
  • 86:04 - 86:08
    图像、音频、文本或视频是否含有SynthID水印
  • 86:08 - 86:11
    即使只是部分内容被标记也能识别
  • 86:12 - 86:15
    这一功能从今天起开始向早期测试员逐步开放
  • 86:21 - 86:24
    凭借广泛的合作,我们还开始探索Veo
  • 86:24 - 86:25
    在电影制作领域的应用
  • 86:26 - 86:30
    最近,我们与极富远见的导演Darren Aronofsky
  • 86:30 - 86:33
    及其创新故事创作公司Primordial Soup达成了合作
  • 86:33 - 86:36
    共同探索如何塑造Veo的能力以满足创作需求
  • 86:36 - 86:39
    让艺术家引领技术创新方向
  • 86:40 - 86:43
    通过这一合作,我们将世界顶尖的视频生成模型
  • 86:43 - 86:47
    交付给最杰出的电影制作人,推动技术突破
  • 86:47 - 86:50
    打造更具创意性和情感表现力的创作工具
  • 86:51 - 86:53
    在计划制作的三部短片中
  • 86:53 - 86:56
    第一部作品是导演Eliza McNitt的《ANCESTRA》
  • 86:57 - 86:58
    现在就让我们来一睹为快
  • 87:00 - 87:03
    电影本质上是一种深刻的人类行为
  • 87:03 - 87:05
    它能将人们与彼此的故事联系起来
  • 87:06 - 87:10
    它能够将我们从自己的经历中抽离出来
  • 87:10 - 87:12
    带我们踏上另一段旅程
  • 87:13 - 87:15
    我认为这一点永远不会改变
  • 87:15 - 87:20
    这个故事虽然跨越整个宇宙的历史长河
  • 87:20 - 87:22
    但本质上讲述的是一位母亲的经历
  • 87:22 - 87:26
    以及当她那有心脏缺陷的孩子刚出生时所发生的一切
  • 87:27 - 87:29
    我们拍摄了演员真实的情感表演
  • 87:29 - 87:34
    但同时也通过AI生成了
    那些用传统方式根本无法拍摄的画面
  • 87:35 - 87:39
    我想要婴儿紧握着母亲的手指那样的画面
  • 87:39 - 87:40
    展现他们之间那种幸福的时刻
  • 87:41 - 87:41
    是的
  • 87:43 - 87:45
    Veo是一个生成视频模型
  • 87:45 - 87:47
    但在我看来,它更像是一个全新的镜头
  • 87:47 - 87:49
    让我能够以不同方式想象身边的一切
  • 87:51 - 87:52
    探索这些模型的优势和局限
  • 87:52 - 87:59
    并尝试将它们打造成创作工具,这个过程非常有趣
  • 88:01 - 88:05
    老实说,我从未想过要讲述我出生那天的故事
  • 88:05 - 88:06
    但现在我们拍出来了
  • 88:13 - 88:14
    这原本只是一次普通的产检而已
  • 88:14 - 88:15
    紧急剖腹产!
  • 88:16 - 88:17
    胎儿有危险
  • 88:17 - 88:18
    我们这里需要帮助!
  • 88:18 - 88:19
    我们必须立刻手术
  • 88:19 - 88:21
    我的孩子能保住吗?
  • 88:21 - 88:22
    我们会尽一切努力
  • 88:22 - 88:23
    那我也会平安无事吗?
  • 88:24 - 88:26
    来自在你之前存在的每一个生命
  • 88:28 - 88:33
    来自为你的诞生而消亡的每一颗星辰
  • 88:50 - 88:51
    真是令人惊叹的杰作
  • 88:58 - 89:01
    Eliza巧妙地将真人实景表演
  • 89:01 - 89:06
    与Veo生成的内容,包括微观世界、宇宙景象
  • 89:06 - 89:08
    以及她自己作为新生儿的画面融为一体
  • 89:09 - 89:12
    这种方法开辟了全新的叙事可能性
  • 89:13 - 89:15
    使Eliza能够将宏大的电影视觉效果
  • 89:15 - 89:18
    和深厚的情感表达带入一个极为个人化的故事
  • 89:19 - 89:22
    这次合作也帮助我们塑造了Veo的功能
  • 89:22 - 89:25
    以满足像Eliza这样的故事创作者的需求
  • 89:25 - 89:28
    我们为电影制作人开发了多项新功能
  • 89:28 - 89:29
    所以当你创作视频时
  • 89:29 - 89:31
    无论你提供什么创作元素
  • 89:31 - 89:35
    角色、场景还是艺术风格
    Veo都能确保它们在整个创作过程中保持一致性
  • 89:36 - 89:38
    你还可以像真正的导演一样指挥Veo
  • 89:38 - 89:40
    提供精确的相机指令
  • 89:40 - 89:42
    让它沿着特定路径拍摄
  • 89:43 - 89:45
    这些功能将帮助电影制作人
  • 89:45 - 89:48
    用Veo顺畅地表达自己的创意
  • 89:49 - 89:51
    而我们的创新并未止步于此
  • 89:52 - 89:53
    下面请Josh重返舞台
  • 89:53 - 89:54
    为大家介绍更多内容
  • 90:02 - 90:03
    谢谢,Jason
  • 90:04 - 90:06
    在与创意社区合作的基础上
  • 90:06 - 90:11
    我们为创作者打造了一款全新的AI电影制作工具
  • 90:11 - 90:16
    它结合了Veo、Imagen和Gemini三大技术的精髓
  • 90:16 - 90:20
    一款源自创作者、为了创作者打造的工具
  • 90:21 - 90:24
    它的设计灵感源自创作者那种
  • 90:24 - 90:27
    完全沉浸在创作中思如泉涌的奇妙境界
  • 90:28 - 90:31
    我们将这款工具命名为Flow,从今天起正式推出
  • 90:31 - 90:33
    我来给大家展示一下它的运作方式
  • 90:35 - 90:37
    我们来看看我正在创作的一个项目
  • 90:37 - 90:39
    故事的主角是一位老爷爷
  • 90:39 - 90:43
    他正在一位鸟类朋友的帮助下制造一辆会飞的汽车
  • 90:43 - 90:45
    这些是我的素材
  • 90:45 - 90:47
    这位老人和他的汽车
  • 90:47 - 90:48
    借助简便的界面
  • 90:48 - 90:50
    你可以轻松将自己的图像上传到工具中
  • 90:51 - 90:53
    或者,你可以使用内置的Imagen
  • 90:53 - 90:55
    即时生成所需的图像
  • 90:55 - 91:00
    只需简单描述就能生成一张定制金色变速杆图像
  • 91:01 - 91:02
    看,相当不错
  • 91:03 - 91:07
    接下来,你可以开始把所有这些素材组合起来
  • 91:07 - 91:09
    只需输入一条提示
  • 91:09 - 91:13
    你可以描述想要的效果,包括非常精确的镜头控制
  • 91:13 - 91:16
    Flow能将所有素材安排到恰当的位置
  • 91:16 - 91:19
    我可以在场景构建器中继续进行调整迭代
  • 91:19 - 91:21
    接下来是最精彩的部分
  • 91:22 - 91:24
    如果我想继续拍摄场景的下一个镜头
  • 91:24 - 91:28
    只要点一下这个加号,新镜头就自动生成了
  • 91:28 - 91:31
    我只需用文字描述接下来想要呈现的场景内容
  • 91:31 - 91:34
    比如在后座加上一只3米高的鸡
  • 91:34 - 91:36
    Flow将完成剩下的工作
  • 91:36 - 91:39
    角色将保持一致,场景也将保持一致
  • 91:39 - 91:41
    整个过程行云流水
  • 91:41 - 91:44
    如果对有些地方不太满意,也没关系
  • 91:44 - 91:47
    你可以像使用其他视频剪辑工具一样
  • 91:48 - 91:50
    随时返回剪掉那些不合适的片段
  • 91:51 - 91:54
    但Flow还支持反向操作
  • 91:54 - 91:56
    你还可以用它来延长素材片段
  • 91:57 - 92:00
    这样,我就得到了我一直追求的理想收尾镜头
  • 92:01 - 92:04
    所有片段制作完毕后,我可以把它们下载下来
  • 92:05 - 92:07
    然后把它们导入我常用的视频剪辑软件
  • 92:08 - 92:09
    再加上一小段Lyria生成的配乐
  • 92:10 - 92:14
    就这样,老爷爷终于开上了自己的“飞车”
  • 92:37 - 92:39
    简直太棒了
  • 92:39 - 92:43
    接下来,让我们听听几位新锐AI电影制作人的心声
  • 92:43 - 92:45
    他们在Flow的开发过程中为我们提供了宝贵意见
  • 92:45 - 92:48
    他们分享了自己使用Flow的感受
  • 92:48 - 92:50
    以及他们如何让这一工具变得更出色
  • 92:50 - 92:51
    一起来看看吧
  • 92:54 - 92:56
    我不知道自己是否走在正确的道路上
  • 92:57 - 92:59
    但一直在努力探索
  • 92:59 - 93:03
    我不断探索,不断质疑
  • 93:03 - 93:05
    直到某一刻,有些东西悄然改变
  • 93:06 - 93:08
    我不再纠结于正确与否,只是专注去做
  • 93:11 - 93:16
    然后,那些散落的拼图开始慢慢归位
  • 93:21 - 93:23
    我的思维变得非常清晰
  • 93:23 - 93:28
    无数种可能在我脑海中闪现
  • 93:28 - 93:31
    就像穿越时空般奇妙
  • 93:31 - 93:33
    当我以上帝视角审视身为创作者的自己
  • 93:33 - 93:35
    以及我所创作的不同世界中的角色
  • 93:35 - 93:37
    我感觉这些角色仿佛有着自己的生命
  • 93:37 - 93:40
    尽管我知道故事情节的走向由我掌控
  • 93:41 - 93:43
    似乎在某个时刻
  • 93:43 - 93:45
    这些故事开始沿着自己的脉络逐渐展开
  • 93:46 - 93:50
    你知道,你的故事可以有无数种结局
  • 93:52 - 93:56
    用Flow创作的作品不是简单的素材堆砌
  • 93:57 - 94:01
    它就像花园里的花,肆意绽放
  • 94:02 - 94:06
    它自然生长,充满生命力,浑然天成
  • 94:07 - 94:09
    我没有刻意去安排什么
  • 94:09 - 94:12
    那些画面只是在等着我找到它们
  • 94:12 - 94:15
    当我有这种感觉时,我就知道自己找对了方向
  • 94:36 - 94:38
    真是叹为观止,听到这些电影制作人讲述
  • 94:38 - 94:40
    如何将不可思议的想象变为现实
  • 94:41 - 94:43
    我们希望通过我们的工具
  • 94:43 - 94:46
    让大家都能享受这种自由构建、挥洒创意的感觉
  • 94:47 - 94:49
    所以我很激动地宣布
  • 94:49 - 94:52
    今天,我们将升级Google的两大AI订阅方案
  • 94:53 - 94:55
    我们将推出Google AI Pro
  • 94:55 - 94:58
    以及全新的Google AI Ultra
  • 94:59 - 95:02
    我们将面向全球推出Google AI Pro
  • 95:02 - 95:04
    相比Google AI的免费版本
  • 95:04 - 95:06
    你将拥有全套Google AI产品的使用权
  • 95:06 - 95:09
    并获享更高的用量限额和特殊功能
  • 95:09 - 95:12
    其中包括Gemini应用的Pro版本
  • 95:12 - 95:14
    也就是先前的Gemini Advanced
  • 95:15 - 95:17
    然后让我来介绍一下Google AI Ultra
  • 95:18 - 95:21
    它专门面向行业开拓者和先行者
  • 95:21 - 95:25
    以及Google前沿AI技术的尝鲜者
  • 95:25 - 95:28
    该方案将为用户提供最高用量限额
  • 95:28 - 95:30
    订阅者还可以抢先体验
  • 95:30 - 95:32
    Google发布的各项新产品和功能
  • 95:33 - 95:35
    Google AI Ultra今天仅面向美国推出
  • 95:35 - 95:37
    并将很快推广至全球
  • 95:38 - 95:40
    你可以把这个Ultra方案当成是
  • 95:40 - 95:42
    你专属的Google AI VIP通行证
  • 95:43 - 95:45
    订阅Google AI Ultra
  • 95:45 - 95:47
    你就能获得超高用量限额
  • 95:47 - 95:49
    等到2.5 Pro Deep Think模式推出后
  • 95:49 - 95:52
    还可以在Gemini应用中使用这种模式
  • 95:52 - 95:57
    你还可以抢先体验我们今天发布的Veo 3和Flow
  • 95:58 - 95:59
    该方案还附赠
  • 95:59 - 96:02
    YouTube Premium会员和海量存储空间
  • 96:02 - 96:06
    我们热切期待看到,借助这些全新订阅方案
  • 96:06 - 96:09
    你将构建、创造和挖掘出怎样的精彩
  • 96:09 - 96:11
    下面,让我们一同展望未来
  • 96:12 - 96:15
    探索我们将如何使用AI与现实世界互动
  • 96:15 - 96:17
    有请Shahram
  • 96:31 - 96:32
    大家好
  • 96:33 - 96:37
    此刻,Android平台正在发生许多激动人心的变化
  • 96:38 - 96:41
    在这个平台中,你将率先预见未来
  • 96:42 - 96:44
    在上周的Android Show上
  • 96:45 - 96:47
    我们公布了Android 16和Wear OS 6
  • 96:47 - 96:51
    全新的大胆设计和重大更新
  • 96:52 - 96:56
    当然,Android也是体验Google AI的绝佳平台
  • 96:57 - 97:00
    你今天看到的许多Gemini突破性创新
  • 97:00 - 97:02
    都会在不久之后登陆Android
  • 97:03 - 97:06
    你现已可以通过电源按钮立即访问Gemini
  • 97:07 - 97:10
    它能理解你的意图和上下文,并随时为你提供帮助
  • 97:11 - 97:14
    Android不止是手机系统
  • 97:14 - 97:17
    更是一个完整的设备生态系统
  • 97:17 - 97:19
    在接下来的几个月
  • 97:19 - 97:24
    我们将把Gemini引入你的手表、汽车仪表盘
  • 97:24 - 97:25
    甚至电视
  • 97:26 - 97:27
    无论你身在何处
  • 97:28 - 97:32
    都会有一位有用的AI助理伴你左右,让你的生活更轻松
  • 97:33 - 97:35
    那么,要不要尝试一些新兴的设备形态
  • 97:35 - 97:40
    让我们以全新方式体验AI助理?
  • 97:40 - 97:44
    这正是我们打造Android XR的原因
  • 97:51 - 97:55
    它是首个在Gemini时代构建的Android平台
  • 97:55 - 98:00
    支持不同应用场景的各种设备
  • 98:00 - 98:04
    从头戴设备到智能眼镜,以及其他各种智能设备
  • 98:05 - 98:08
    我们认为,没有哪种扩展现实设备是万能的
  • 98:08 - 98:11
    你在一天当中会用到不同的设备
  • 98:12 - 98:17
    比如,在看电影、玩游戏或处理工作时
  • 98:17 - 98:20
    你想要的是沉浸式头戴设备
  • 98:20 - 98:24
    但外出时,你会想要一副轻便的智能眼镜
  • 98:24 - 98:28
    让你不用掏出手机就能获得及时的信息
  • 98:29 - 98:33
    我们携手三星共同打造了Android XR
  • 98:33 - 98:36
    并与高通合作,针对骁龙处理器对其进行了优化
  • 98:37 - 98:41
    自从去年Android XR开发者预览版发布以来
  • 98:41 - 98:44
    已有数百名开发者在为该平台构建应用
  • 98:44 - 98:47
    我们也在为Android XR重新构建
  • 98:47 - 98:49
    你喜爱的各种Google应用
  • 98:50 - 98:51
    由于它是Android系统
  • 98:51 - 98:54
    所以你的手机和平板应用也与它兼容
  • 98:55 - 98:57
    今天,我想跟大家分享
  • 98:57 - 99:03
    Gemini如何颠覆头戴设备和智能眼镜用户的体验
  • 99:04 - 99:05
    在这些设备上
  • 99:05 - 99:10
    AI助理会以更丰富的方式理解你的上下文和意图
  • 99:10 - 99:12
    全天候为你提供支持
  • 99:13 - 99:15
    让我们从头戴设备中的Gemini说起
  • 99:16 - 99:21
    这是三星的Project Moohan,首款Android XR设备
  • 99:28 - 99:31
    Moohan提供无限延展的屏幕空间
  • 99:31 - 99:34
    让你在Gemini的陪伴下尽情探索各种应用
  • 99:34 - 99:36
    Android XR还集成了Google地图
  • 99:36 - 99:38
    只要告诉Gemini你想去哪里
  • 99:39 - 99:42
    它就能带你“瞬间传送”到世界任何角落
  • 99:42 - 99:46
    你可以和AI助理谈论你看到的一切
  • 99:47 - 99:51
    并让它调出你想要探索的视频和网站
  • 99:52 - 99:56
    我们都希望能买到自己支持球队的季票
  • 99:57 - 100:01
    想象一下,当你使用Moohan在MLB应用上观看球赛
  • 100:01 - 100:02
    你将仿佛置身现场
  • 100:03 - 100:06
    还可以一边观赛一边和Gemini讨论球员和比赛数据
  • 100:08 - 100:13
    三星的Project Moohan将于今年晚些时候发售
  • 100:14 - 100:17
    我们迫切期待你们能亲身体验这款设备
  • 100:18 - 100:22
    现在,让我们把注意力转向智能眼镜
  • 100:22 - 100:27
    众所周知,我们在智能眼镜领域耕耘超过十年
  • 100:27 - 100:28
    从未停下脚步
  • 100:29 - 100:34
    搭载Android XR的智能眼镜满载先进科技
  • 100:34 - 100:37
    但无比轻盈,适合全天佩戴
  • 100:38 - 100:40
    眼镜内置镜头和麦克风
  • 100:40 - 100:44
    让Gemini能够“看到”和“听到”这个世界
  • 100:44 - 100:49
    扬声器则让你可以与AI对话、播放音乐或接听电话
  • 100:49 - 100:51
    你也可以通过镜片内置显示屏
  • 100:52 - 100:55
    以私密的方式在需要时查看有用的信息
  • 100:57 - 100:58
    这款眼镜可以与你的手机连接
  • 100:59 - 101:02
    让你不用动手也能访问应用
  • 101:03 - 101:07
    这一切都让智能眼镜成为天然适合AI的设备形态
  • 101:07 - 101:11
    让Gemini的强大功能随时伴你左右
  • 101:12 - 101:14
    所以,与摘下眼镜才能变身的超人不同
  • 101:14 - 101:17
    戴上这款智能眼镜,你就能获得“超能力”
  • 101:19 - 101:23
    好了,谁想看Android XR眼镜的最新演示?
  • 101:29 - 101:34
    让我们看看它在最忙乱的环境中表现如何
  • 101:35 - 101:36
    比如…I/O大会的后台
  • 101:37 - 101:40
    我们的“超级女侠”Nishtha就在后台
  • 101:41 - 101:43
    她将向我们展示这款眼镜在真实环境中的使用效果
  • 101:43 - 101:46
    我现在就给她发个消息,然后我们马上开始
  • 101:50 - 101:51
    大家好!
  • 101:52 - 101:54
    现在,你们应该能在大屏幕上看到
  • 101:54 - 101:57
    我通过Android XR智能眼镜镜片看到的一切
  • 101:57 - 101:59
    比如这杯美味的咖啡
  • 102:00 - 102:01
    还有Shahram刚刚发来的这条消息
  • 102:02 - 102:03
    让我们看看他说了什么
  • 102:05 - 102:07
    很好,现在就是见证奇迹的时刻
  • 102:07 - 102:09
    我要启动Gemini,开始演示
  • 102:11 - 102:13
    给Shahram发一条消息,告诉他我已经开始了
  • 102:13 - 102:15
    然后把我的通知静音
  • 102:18 - 102:20
    好的,我已经给他发了消息
  • 102:20 - 102:22
    并且把你所有的通知静音了
  • 102:22 - 102:23
    很好
  • 102:24 - 102:25
    嘿,Nishtha!
  • 102:25 - 102:26
    嘿,Dieter!
  • 102:26 - 102:30
    你的灯亮着,看来我们已经开始直播了?
  • 102:30 - 102:33
    是的,我们已经和I/O大会的工作人员连上线了
  • 102:33 - 102:36
    大家好。从这个视角看I/O大会,真是太棒了!
  • 102:36 - 102:37
    Nishtha,你答应过我
  • 102:37 - 102:40
    只要我来帮忙,就送我一副Android XR眼镜
  • 102:41 - 102:42
    说话算数吗?
  • 102:42 - 102:43
    当然!
  • 102:43 - 102:44
    待会结束后我们去喝杯咖啡
  • 102:44 - 102:45
    我会把你的智能眼镜带过去!
  • 102:45 - 102:46
    太棒了!待会见!祝你演示顺利
  • 102:46 - 102:47
    谢谢
  • 102:47 - 102:51
    大家可以看到,我们在后台,这里真是热闹非凡
  • 102:51 - 102:55
    那是职业篮球运动员Giannis戴着我们的眼镜吗?
  • 102:56 - 102:57
    我太喜欢这眼镜了!
  • 102:57 - 103:00
    它解放了我的双手,让我随时能来个双手击掌
  • 103:00 - 103:04
    太棒了,我继续来展示这副眼镜的功能
  • 103:05 - 103:07
    今天一整天,我都对这面照片墙很好奇
  • 103:08 - 103:12
    比如这是什么乐队,他们和这个地方有什么联系?
  • 103:18 - 103:20
    这是Counting Crows
  • 103:20 - 103:22
    一支来自旧金山湾区的传奇摇滚乐队
  • 103:22 - 103:25
    他们在Shoreline Amphitheatre演出过很多次
  • 103:25 - 103:27
    这里通常被视为是他们的返乡主场
  • 103:27 - 103:31
    天哪!你能给我看看他们在这里演出时的照片吗?
  • 103:34 - 103:37
    当然,这有一张,想让我播放一首他们的歌曲吗?
  • 103:37 - 103:40
    好啊,我可以一边听一边走向舞台
  • 103:44 - 103:47
    太好了!请听Counting Crows的《Under the Aurora》
  • 103:48 - 103:51
    好了,大家准备好一睹这副眼镜的风采了吗?
  • 103:51 - 103:53
    让我们欢迎Nishtha!
  • 103:55 - 103:56
    Nishtha,欢迎欢迎!
  • 103:56 - 103:57
    大家好!
  • 104:00 - 104:03
    谢谢你为我们带来这段星光熠熠的幕后之旅
  • 104:03 - 104:05
    对了,你现在要约Dieter去喝咖啡吗?
  • 104:06 - 104:09
    当然…刚刚工作人员在后台给了我一杯超棒的咖啡
  • 104:09 - 104:11
    所以让来我试试一些好玩的功能
  • 104:12 - 104:16
    Gemini,刚刚那杯咖啡上的咖啡店名字是什么?
  • 104:19 - 104:21
    嗯…可能是Bloomsgiving
  • 104:21 - 104:22
    据我所知
  • 104:22 - 104:24
    那是卡斯特罗街上一家充满活力的咖啡馆
  • 104:24 - 104:26
    记性真好
  • 104:32 - 104:34
    你能给我看看那家咖啡馆的照片吗?
  • 104:34 - 104:35
    我想看看那里的氛围
  • 104:38 - 104:39
    没问题
  • 104:39 - 104:41
    这些是来自Google地图的照片,请问有帮助吗?
  • 104:41 - 104:42
    哦,我知道那个地方
  • 104:43 - 104:46
    它是一家花店,同时也卖咖啡,但它在市中心
  • 104:46 - 104:50
    好吧,Gemini,我走过去需要多久?
  • 104:53 - 104:54
    正在获取路线
  • 104:55 - 104:57
    步行过去大概需要1小时
  • 104:57 - 104:58
    好吧
  • 104:59 - 105:01
    也许我可以走过去,顺便刷点步数
  • 105:01 - 105:05
    眼镜上会直接显示完整3D地图和导航,会很轻松
  • 105:15 - 105:20
    帮我约Dieter今天下午3点在那家咖啡馆喝咖啡
  • 105:24 - 105:25
    我马上发出邀请
  • 105:25 - 105:26
    希望你们享受愉快的咖啡时光
  • 105:27 - 105:31
    如你们所见,Gemini帮助Nishtha搜索她看到的东西
  • 105:31 - 105:34
    记住咖啡杯这种细节
  • 105:35 - 105:37
    为她安排日程、甚至为她导航
  • 105:37 - 105:40
    而Nishtha全程都不用掏出手机
  • 105:41 - 105:43
    其实我现在也戴着这副眼镜
  • 105:44 - 105:46
    它相当于是我的个人提词器
  • 105:46 - 105:48
    而且它的镜片还带度数,所以我能看清你们
  • 105:50 - 105:52
    Nishtha,这是智能眼镜的高光时刻
  • 105:52 - 105:53
    我们把这一刻记录下来吧
  • 105:53 - 105:54
    好的
  • 105:54 - 105:56
    大家准备好,我们快速合个影
  • 105:56 - 105:58
    让我们把后台的明星也请上来!
  • 106:00 - 106:01
    这是Dieter
  • 106:04 - 106:06
    Janice来了
  • 106:06 - 106:08
    Gemini,帮我拍张照
  • 106:17 - 106:20
    Gemini,帮我拍张照,保存到我的收藏夹里
  • 106:28 - 106:30
    拍得真好!
  • 106:37 - 106:39
    我是个彻头彻尾的追星族
  • 106:40 - 106:42
    好的,还有最后一件事
  • 106:42 - 106:46
    之前,Sundar展示了实时翻译已经发展到什么程度
  • 106:47 - 106:49
    现在让我们看看它在智能眼镜上的表现
  • 106:50 - 106:53
    这个演示很有挑战,但我们试试吧!
  • 106:55 - 106:59
    Nishtha和我要用各自的母语交谈
  • 106:59 - 107:01
    Nishtha说印地语
  • 107:01 - 107:04
    我说波斯语,虽然我说得很烂
  • 107:04 - 107:08
    你们会在大屏幕上看到我俩眼镜上的实时画面
  • 107:08 - 107:10
    这样你们都可以明白我们在说什么
  • 107:11 - 107:13
    我们会实时显示英语译文
  • 107:14 - 107:18
    好吧,我们试试,但愿一切顺利
  • 107:19 - 107:24
    [波斯语]
  • 107:24 - 107:27
    [波斯语]
  • 107:32 - 107:38
    [印地语]
  • 107:41 - 107:45
    [波斯语]
  • 107:46 - 107:51
    [波斯语]
  • 107:58 - 107:59
    我们之前没说错,确实演示有风险
  • 108:02 - 108:03
    让我们…
  • 108:20 - 108:20
    感谢Nishtha
  • 108:21 - 108:23
    带我们领略了Android XR智能眼镜的魅力
  • 108:28 - 108:30
    有了这些Android XR设备
  • 108:31 - 108:33
    就好像身边有一位非常得力的助理
  • 108:33 - 108:37
    它将为我们带来怎样的精彩?让我们拭目以待
  • 108:38 - 108:39
    这还不是全部
  • 108:39 - 108:43
    我们正在与三星深化合作
  • 108:43 - 108:48
    将Android XR从头戴设备扩展到智能眼镜
  • 108:48 - 108:52
    我们正在创建软件和参考硬件平台
  • 108:52 - 108:54
    以便生态系统中的伙伴们能够与我们一起
  • 108:54 - 108:56
    打造出强大的智能眼镜
  • 108:57 - 109:01
    我们的眼镜原型目前正在由可信测试员试用
  • 109:02 - 109:06
    今年晚些时候,你们就可以开始为这款眼镜开发应用了
  • 109:08 - 109:10
    我们知道,智能眼镜必须足够时尚
  • 109:10 - 109:12
    你才会愿意全天佩戴
  • 109:13 - 109:16
    因此,今天,我们很高兴地宣布
  • 109:17 - 109:20
    Gentle Monster和Warby Parker
  • 109:20 - 109:22
    将成为我们的首批眼镜制造商合作伙伴
  • 109:23 - 109:25
    与我们一同打造搭载Android XR的时尚眼镜
  • 109:33 - 109:36
    我们希望你能戴上符合你个人品味的眼镜
  • 109:37 - 109:39
    这些还仅仅是开始
  • 109:39 - 109:42
    我热切期待你们亲自体验Android XR
  • 109:42 - 109:45
    在接下来的几个月,我们还会有更多精彩与大家分享
  • 109:46 - 109:47
    谢谢大家
  • 110:02 - 110:04
    这些XR眼镜实在太棒了!
  • 110:05 - 110:09
    就在我们眼前,研究成果转化成了现实应用
  • 110:09 - 110:12
    好的,我们的演讲已经接近尾声
  • 110:12 - 110:14
    今天你们听到了很多关于Elo评分
  • 110:15 - 110:18
    基准测试和先进性能的内容
  • 110:18 - 110:21
    但我知道大家还在等着看另外一项数据
  • 110:22 - 110:23
    那就是AI统计的词频数据
  • 110:24 - 110:27
    那么,让我们来看这最后一个排行榜
  • 110:28 - 110:32
    看起来,又有新选手入围了
  • 110:33 - 110:34
    Gemini领先
  • 110:35 - 110:37
    以95次的成绩胜出
  • 110:39 - 110:40
    非常令人振奋
  • 110:44 - 110:47
    言归正传,以上就是我们今天分享的所有内容
  • 110:48 - 110:53
    从新产品发布、产品扩展,到未来展望
  • 110:54 - 110:57
    AI带来了前所未有的机遇
  • 110:58 - 111:02
    未来的关键就在你们这些开发者和技术创新者手中
  • 111:02 - 111:07
    你们将推动这项技术的普及,让更多人能从中受益
  • 111:07 - 111:11
    最后,我想跟大家分享几个给我带来激励的真实案例
  • 111:11 - 111:14
    首先是加州居民以及世界各地的人们
  • 111:15 - 111:16
    最关心的问题——野火
  • 111:17 - 111:20
    想必有许多人都认识野火的受灾者
  • 111:21 - 111:25
    野火的发生往往很突然,并在几分钟内失控蔓延
  • 111:25 - 111:28
    因此,野火检测的速度和精度至关重要
  • 111:29 - 111:31
    我们正在与一群了不起的合作伙伴一起
  • 111:32 - 111:34
    构建一个名为FireSat的项目
  • 111:34 - 111:39
    它是一个卫星星座,利用多光谱卫星图像和AI
  • 111:40 - 111:43
    旨在提供近乎实时的野火观测数据
  • 111:43 - 111:45
    看看这个分辨率
  • 111:45 - 111:49
    它可以探测到面积小至25平方米的火灾
  • 111:49 - 111:52
    大约相当于一个单车位车库的大小
  • 111:52 - 111:54
    我们的第一颗卫星现已入轨
  • 111:55 - 111:56
    项目全面投入运行后
  • 111:57 - 112:00
    图像更新频率将大幅提高
  • 112:00 - 112:02
    从目前的每12小时更新一次
  • 112:02 - 112:04
    缩短到每20分钟更新一次
  • 112:13 - 112:16
    在其他类型的应急响应中,速度同样至关重要
  • 112:16 - 112:18
    例如,在海伦飓风期间
  • 112:18 - 112:21
    Wing与沃尔玛、红十字会合作
  • 112:22 - 112:24
    用无人机投送物资,为救援工作提供了支持
  • 112:25 - 112:26
    在AI的帮助下
  • 112:26 - 112:29
    我们能够根据实时需求将食物、药品等关键物资
  • 112:30 - 112:34
    投放到北卡罗来纳州的一个基督教青年会避难所
  • 112:34 - 112:38
    可以想象这在其他社区的救灾行动中会有多大帮助
  • 112:39 - 112:41
    我们也正在积极努力扩大这一技术的应用范围
  • 112:42 - 112:46
    这些都是AI目前造福社会的例子
  • 112:46 - 112:48
    尤其令人鼓舞的是
  • 112:48 - 112:53
    今天的研究成果将在短短几年内成为现实
  • 112:53 - 112:57
    无论是构建下一代实用机器人
  • 112:58 - 113:00
    为世界致死率最高的疾病寻找治疗方法
  • 113:01 - 113:04
    还是推进纠错量子计算机的发展
  • 113:05 - 113:10
    或是打造能将乘客安全送达
    任何地点的全自动驾驶汽车
  • 113:11 - 113:15
    所有这些都极有可能在几年内实现,而不是几十年
  • 113:15 - 113:16
    真是令人向往
  • 113:17 - 113:20
    这种利用AI改善生活的机会并不是我在想当然
  • 113:21 - 113:23
    最近的一次经历让我深有体会
  • 113:24 - 113:26
    当时我和父母一起到旧金山旅游
  • 113:27 - 113:28
    与许多其他游客一样
  • 113:28 - 113:31
    他们想做的第一件事就是体验Waymo的自动驾驶
  • 113:32 - 113:33
    我以前也坐过Waymo
  • 113:34 - 113:39
    但看着我八十多岁的父亲坐在前排那种惊讶的表情
  • 113:39 - 113:42
    我从全新的视角看到了科技进步的影响
  • 113:42 - 113:46
    它让我看到,科技拥有多么不可思议的力量
  • 113:46 - 113:49
    它能激发灵感、造福所有人、并推动我们前进
  • 113:50 - 113:51
    我迫不及待想看看
  • 113:51 - 113:54
    接下来我们会共同创造出怎样的精彩成果
  • 113:54 - 113:55
    谢谢大家
  • 114:07 - 114:10
    Flow为我开启了无限可能
  • 114:10 - 114:12
    那是什么样的魔法?
  • 114:13 - 114:16
    AI模式是自搜索引擎发明以来最伟大的革命
  • 114:16 - 114:19
    只需准确地告诉Gemini你想要构建什么
  • 114:19 - 114:20
    它就会为你搞定
  • 114:20 - 114:21
    天哪
  • 114:21 - 114:24
    你可以用Gemini 2.5 Pro编程
  • 114:24 - 114:26
    实在太好用了
  • 114:26 - 114:28
    Project Mariner将改变我们使用浏览器的方式
  • 114:28 - 114:31
    它是一个能帮你处理事务的AI智能体
  • 114:31 - 114:34
    Notebook LMS思维导图颠覆了我们学习的方式
  • 114:34 - 114:37
    为什么无论我走到哪,这个人都在跟踪我?
  • 114:38 - 114:39
    那是你的影子
  • 114:39 - 114:40
    等等,你要右转
  • 114:42 - 114:45
    AI正在彻底改变我们对抗野火的方式
  • 114:45 - 114:48
    生成式媒体正在拓展创造力的边界
  • 114:49 - 114:50
    我第一次看到这个的时候,感觉就像魔法一样
  • 114:51 - 114:52
    它不仅仅是又一项工具
  • 114:52 - 114:53
    它颠覆了一切
  • 114:53 - 114:54
    简直让我大开眼界
  • 114:55 - 114:56
    AI的潜力近乎无限
Title:
GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD
Video Language:
English

Chinese, Simplified subtitles

Incomplete

Revisions Compare revisions