< Return to Video

GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD

  • 0:02 - 0:07
    [文字转视频]
    [用广角镜头呈现数字10形状的在轨运行空间站]
  • 0:11 - 0:17
    [使用Imagen和Veo生成]
  • 1:12 - 1:14
    这地方要大开眼界了
  • 1:14 - 1:16
    [使用Veo3生成]
  • 1:20 - 1:27
    [音乐]
  • 1:35 - 1:39
    醒醒吧孩子,我们都深陷白日梦
  • 1:39 - 1:43
    十四岁的年华,一直在向世界低头
  • 1:43 - 1:48
    却还是在做有礼貌的乖孩子
  • 1:49 - 1:51
    音乐在你的灵魂里激荡
  • 1:52 - 1:55
    别放弃,音乐在你的灵魂里激荡
  • 1:56 - 1:58
    最后一支舞马上开场
  • 1:58 - 2:00
    这世界终会变好
  • 2:00 - 2:04
    别放弃,你还有好好生活的理由
  • 2:04 - 2:09
    别忘记,付出几分,收获几何
  • 2:09 - 2:13
    [欢迎参加Google I/O大会]
  • 2:15 - 2:17
    我就要回家了
  • 2:17 - 2:21
    你是最棒的,现在就让我看到
  • 2:22 - 2:25
    凌晨四点,我们在奇迹一英里上狂奔
  • 2:25 - 2:29
    身无分文,但还是有型有格
  • 2:30 - 2:34
    好棒的视频,看来大家的制作过程应该很开心
  • 2:35 - 2:36
    大家上午好
  • 2:36 - 2:38
    欢迎参加Google I/O大会
  • 2:43 - 2:46
    欢迎亲临Shoreline会场的各位
  • 2:46 - 2:50
    以及世界各地在线上观看的观众
  • 2:50 - 2:53
    有人告诉我,Gemini季从今天起拉开序幕
  • 2:54 - 2:56
    我倒没觉得这有什么特别
  • 2:56 - 2:58
    因为对Google来说,每一天都是Gemini季
  • 3:00 - 3:04
    在I/O大会前的几周,我们通常不会有太多动作
  • 3:04 - 3:08
    因为我们想把最好的模型留到这个舞台上来展示
  • 3:09 - 3:10
    但在Gemini时代
  • 3:10 - 3:13
    我们也会在三月随便选个周二
  • 3:13 - 3:16
    发布我们最智能的模型
  • 3:16 - 3:18
    或是非凡的突破
  • 3:18 - 3:20
    就像在大会一周前发布AlphaEvolve那样
  • 3:21 - 3:24
    只想尽快将我们最好的模型交到你的手中
  • 3:24 - 3:27
    让你尽快体验到我们的产品
  • 3:27 - 3:30
    为此,我们的发布频率远超以往
  • 3:31 - 3:32
    自上届I/O大会至今
  • 3:32 - 3:34
    我们发布了十多种模型和研究突破
  • 3:35 - 3:40
    以及二十多种重要AI产品和功能
  • 3:41 - 3:45
    模型的快速进步让我振奋不已
  • 3:45 - 3:47
    从这张图表就能看出阶跃式的发展
  • 3:48 - 3:51
    Elo分数用来衡量进步的尺度
  • 3:51 - 3:53
    从第一代Gemini Pro至今
  • 3:53 - 3:55
    这项成绩提升了300多分
  • 3:56 - 3:59
    如今,Gemini 2.5 Pro
  • 3:59 - 4:02
    横扫LMArena排行榜的所有类别
  • 4:10 - 4:12
    在许多基准测试中都表现突出
  • 4:13 - 4:16
    在编程方面,我们也在快速进步
  • 4:16 - 4:20
    更新版的2.5 Pro在WebDev Arena中一马当先
  • 4:20 - 4:25
    Elo分数比上一个版本高142分
  • 4:25 - 4:28
    这款模型在各大主流编程平台上备受追捧
  • 4:28 - 4:30
    感谢所有人的支持
  • 4:30 - 4:33
    在领先AI代码编辑器cursor中
  • 4:34 - 4:37
    Gemini成为年度发展速度最快的模型
  • 4:37 - 4:42
    每分钟都有数十万行代码用它生成
  • 4:43 - 4:46
    最后这个里程碑或许最令人动容
  • 4:46 - 4:48
    至少在某些圈子里是如此
  • 4:48 - 4:52
    几周前,Gemini成功通关《宝可梦蓝》
  • 4:56 - 4:59
    集齐全部八枚徽章,挺进“冠军之路”
  • 4:59 - 5:02
    打败了四天王和联盟冠军
  • 5:03 - 5:06
    这让我们离实现API又近了一步
  • 5:06 - 5:09
    不过我们说的是“人工宝可梦智能”
  • 5:14 - 5:18
    所有这些进步都由我们卓越的基础设施提供支持
  • 5:18 - 5:21
    它是我们全栈式AI方法的基石
  • 5:21 - 5:26
    我们的第七代TPU Ironwood采用前沿设计
  • 5:26 - 5:28
    为大规模思考和推理赋能助力
  • 5:29 - 5:32
    其性能达到上一代的十倍
  • 5:33 - 5:38
    能迸发出每个pod 42.5 exaFLOPS的强大算力
  • 5:38 - 5:39
    令人赞叹
  • 5:40 - 5:43
    Google Cloud客户今年稍后就能切身体会它的实力
  • 5:47 - 5:50
    凭借始于底层TPU的基础设施实力
  • 5:50 - 5:54
    我们提供了速度更出众的模型
  • 5:54 - 5:57
    在LMArena排行榜的顶尖模型中
  • 5:57 - 5:59
    Gemini跻身前三
  • 5:59 - 6:02
    凭借最高的每秒生成token数
  • 6:03 - 6:07
    以及大幅下降的模型价格取得骄人成绩
  • 6:07 - 6:10
    在价格与性能之间权衡并不容易
  • 6:11 - 6:13
    然而,我们一次又一次地做到了
  • 6:13 - 6:17
    以最有效的价格点提供出色的模型
  • 6:17 - 6:20
    Google不仅在这个帕累托最优边界中先人一步
  • 6:20 - 6:22
    更从根本上改变了它
  • 6:23 - 6:28
    让每个人都能随时随地享受更好的智能体验
  • 6:29 - 6:31
    我们的努力收获了积极的回应
  • 6:31 - 6:33
    AI采用速度远超以往
  • 6:34 - 6:38
    作为进步的标志之一,在去年此时
  • 6:38 - 6:45
    我们所有产品和API
    每个月的token处理总量是9.7万亿
  • 6:45 - 6:49
    而如今,每月token处理量达到了480万亿
  • 6:50 - 6:53
    短短一年,接近50倍的增幅
  • 6:59 - 7:03
    我们各类开发者AI工具的采用已成浪潮
  • 7:04 - 7:06
    在Google AI Studio和Vertex AI中
  • 7:06 - 7:11
    有700多万名开发者在使用Gemini API进行开发
  • 7:11 - 7:14
    达到去年召开I/O大会时的五倍多
  • 7:14 - 7:16
    自去年以来
  • 7:16 - 7:20
    Gemini在Vertex AI中的使用量增加到40多倍
  • 7:21 - 7:23
    我们的产品也在越来越多地采用AI
  • 7:24 - 7:28
    Gemini应用的月活用户数已超过4亿
  • 7:28 - 7:31
    增长幅度和参与度都在强势增长
  • 7:31 - 7:33
    尤其是2.5版的模型
  • 7:34 - 7:37
    对于在Gemini应用中使用2.5 Pro模型的用户
  • 7:37 - 7:39
    使用量增长了45%
  • 7:40 - 7:43
    稍后你会听到许多与Gemini应用有关的消息
  • 7:44 - 7:46
    在搜索领域,我们也看到了十分惊人的发展势头
  • 7:47 - 7:52
    AI概览的月用户量现已超过15亿
  • 7:53 - 7:56
    也就是说,通过Google搜索使用生成式AI的用户量
  • 7:57 - 8:00
    超过全球其他任何产品
  • 8:01 - 8:06
    除了AI概览之外,AI模式也是搜索领域的一大进步
  • 8:07 - 8:09
    稍后我们会分享更多相关信息
  • 8:10 - 8:12
    所有这些进步都指向一件事
  • 8:12 - 8:16
    我们身处AI平台变革的新阶段
  • 8:16 - 8:19
    数十载的研究成果转化为实用工具
  • 8:19 - 8:21
    惠及普罗大众
  • 8:22 - 8:24
    我想分享三个例子
  • 8:24 - 8:27
    证明研究如何彻底改变我们当今的产品
  • 8:28 - 8:32
    分别是Project Starline、Astra和Mariner
  • 8:33 - 8:34
    在几年前的I/O大会上
  • 8:35 - 8:37
    我们公布了Project Starline
  • 8:37 - 8:38
    这是我们突破性的3D视频技术
  • 8:39 - 8:42
    让你在与千里之外的人交流时
  • 8:43 - 8:44
    也能有共处一室的感觉
  • 8:45 - 8:47
    我们不断改进相关技术
  • 8:47 - 8:50
    今天,我们终于准备好开启它的下一篇章
  • 8:51 - 8:52
    隆重介绍Google Beam
  • 8:53 - 8:57
    全新的AI优先型视频沟通平台
  • 8:58 - 9:01
    Beam运用全新的先进视频模型
  • 9:01 - 9:06
    将2D视频流转化为栩栩如生的3D体验
  • 9:07 - 9:12
    在幕后,六摄像头阵列从不同角度拍摄你的影像
  • 9:13 - 9:17
    这些视频流随后会通过AI合并在一起
  • 9:17 - 9:20
    生成3D光场显示,展示你的立体形象
  • 9:20 - 9:23
    它能实现毫米级精度的头部跟踪
  • 9:24 - 9:27
    以及每秒60帧的实时渲染
  • 9:28 - 9:33
    成就高度自然流畅、沉浸感十足的对话体验
  • 9:34 - 9:37
    我们热切期待将这项技术带给大家
  • 9:37 - 9:39
    并为此与惠普开展了合作
  • 9:39 - 9:41
    首款Google Beam设备
  • 9:41 - 9:45
    将于今年晚些时候与首批客户见面
  • 9:46 - 9:49
    从现在起的几周内,惠普会分享大量相关资讯
  • 9:49 - 9:50
    敬请关注
  • 9:57 - 9:59
    多年来,我们一直在不懈努力
  • 9:59 - 10:02
    将Starline的底层技术整合到Google Meet中
  • 10:03 - 10:07
    其中包括帮助打破语言壁垒的实时语音翻译
  • 10:08 - 10:11
    这个例子展示了在南美洲预定度假屋
  • 10:11 - 10:14
    而你又不会讲当地语言时
  • 10:14 - 10:16
    这项功能的实用价值
  • 10:16 - 10:17
    我们一起来看看吧
  • 10:19 - 10:20
    嗨,Camilla
  • 10:20 - 10:23
    我来打开语音翻译功能
  • 10:25 - 10:27
    终于能跟你直接对话了,太棒了
  • 10:27 - 10:31
    [西班牙语翻译]
  • 10:32 - 10:34
    [西班牙语回答]
  • 10:34 - 10:36
    你会很开心的
  • 10:36 - 10:38
    我相信你也一定会爱上这座城市
  • 10:38 - 10:42
    这间房所在的社区环境很好,还能俯瞰山景
  • 10:43 - 10:44
    听起来真不错
  • 10:45 - 10:50
    [西班牙语翻译]
  • 10:51 - 10:53
    [西班牙语回答]
  • 10:53 - 10:55
    附近就有公交车
  • 10:55 - 11:00
    不过我推荐你租辆车,这样去野外玩更方便
  • 11:01 - 11:03
    听起来不错
  • 11:03 - 11:04
    [西班牙语翻译]
  • 11:12 - 11:15
    如你所见,语音翻译惟妙惟肖地模仿了
  • 11:15 - 11:18
    讲话人的语气、模式甚至是表达方式
  • 11:19 - 11:24
    我们距离自然流畅的跨语言沟通又近了一步
  • 11:25 - 11:28
    我们现已直接将这种实时语音翻译功能
  • 11:28 - 11:30
    直接整合到Google Meet中
  • 11:31 - 11:35
    订阅者从现在起即可使用英语与西班牙语互译功能
  • 11:35 - 11:39
    在未来几周内,我们还会推出更多语言的翻译功能
  • 11:39 - 11:43
    实时翻译功能将于今年晚些时候面向企业用户开放
  • 11:50 - 11:52
    另一个在往届I/O舞台上正式亮相的
  • 11:52 - 11:55
    早期研究项目是Project Astra
  • 11:55 - 12:02
    专门探索通用型AI助手未来理解你身边世界的能力
  • 12:02 - 12:04
    我们正在将其整合到Google产品中
  • 12:05 - 12:06
    Gemini Live现已整合
  • 12:06 - 12:10
    Project Astra的相机和屏幕共享功能
  • 12:10 - 12:13
    支持就你看到的任何事物展开对话
  • 12:13 - 12:15
    人们正在将它用于各种用途
  • 12:15 - 12:17
    无论是为工作面试做练习
  • 12:18 - 12:19
    还是为备战马拉松而训练
  • 12:20 - 12:23
    我们始终高度重视可信测试员的反馈
  • 12:23 - 12:26
    还有一些不那么“可信”的测试员
  • 12:26 - 12:27
    一起来看看吧
  • 12:30 - 12:32
    好漂亮的敞篷车
  • 12:33 - 12:36
    我觉得你把垃圾车误认成敞篷车了
  • 12:36 - 12:38
    我还能帮你些什么?
  • 12:38 - 12:40
    这个细长的建筑物怎么杵在我家门口?
  • 12:40 - 12:43
    这是路灯,不是建筑物
  • 12:43 - 12:47
    这些棕榈树怎么这么矮?看着让人有点担心
  • 12:47 - 12:50
    它们并不矮,其实很高的
  • 12:51 - 12:52
    帅气的敞篷车
  • 12:52 - 12:54
    还是垃圾车
  • 12:54 - 12:55
    还有别的事吗?
  • 12:55 - 12:58
    为什么总有人把快递放到我的草坪上?
  • 12:59 - 13:02
    那不是快递,是个变电箱
  • 13:02 - 13:05
    我走路的时候,这个人怎么一直跟踪我
  • 13:06 - 13:09
    没人在跟踪你,那只是你的影子
  • 13:17 - 13:20
    Gemini真的特别擅长给你挑错
  • 13:21 - 13:27
    即日起,此功能面向所有Android和iOS用户开放
  • 13:34 - 13:38
    再说说我们的研究原型Project Mariner
  • 13:38 - 13:42
    这种智能体可以与Web交互并完成各种任务
  • 13:43 - 13:45
    我们跳出原有思维模式,将智能体视为一种系统
  • 13:45 - 13:51
    集先进AI模型的智能和访问工具的能力于一身
  • 13:51 - 13:55
    它们可以自主帮你执行操作,而且完全由你掌控
  • 13:55 - 13:59
    使用计算机是智能体的一项重要能力
  • 13:59 - 14:03
    让智能体能够与浏览器和其他软件交互
  • 14:03 - 14:05
    并对其执行操作
  • 14:05 - 14:10
    Project Mariner是测试计算机使用能力的初步尝试
  • 14:10 - 14:14
    去年12月,我们将其作为早期研究原型发布
  • 14:14 - 14:16
    自那之后取得了长足进展
  • 14:17 - 14:20
    首先,我们引入了多任务处理能力
  • 14:20 - 14:23
    它如今能同时管理多达10个任务
  • 14:24 - 14:27
    其次,它使用了一项名为“示教与重复”的功能
  • 14:28 - 14:30
    你只要向它展示一次任务
  • 14:31 - 14:34
    它就能学会在将来为类似任务做计划
  • 14:35 - 14:38
    我们将通过Gemini API向开发者提供
  • 14:38 - 14:41
    Project Mariner的计算机使用能力
  • 14:42 - 14:45
    Automation Anywhere和UiPath等可信测试方
  • 14:45 - 14:48
    已经开始使用它构建产品
  • 14:48 - 14:51
    我们将于今年夏季将其提供给更广泛的用户
  • 14:52 - 14:54
    为了推动智能体生态系统繁荣发展
  • 14:54 - 14:56
    我们需要开发更广泛的工具组合
  • 14:56 - 14:58
    计算机使用能力就是这项工作的一环
  • 14:58 - 15:00
    这方面的例子有我们的开放智能体间协议
  • 15:00 - 15:03
    让智能体能够彼此对话
  • 15:03 - 15:05
    我们在Cloud Next大会上发布了这种协议
  • 15:05 - 15:08
    获得了60多家技术合作伙伴的支持
  • 15:08 - 15:10
    这个数字还有望继续增长
  • 15:10 - 15:14
    还有Anthropic推出的模型上下文协议
  • 15:14 - 15:17
    让智能体可以访问其他服务
  • 15:17 - 15:19
    今天,我们要激动万分地宣布
  • 15:19 - 15:24
    Gemini SDK现已兼容MCP工具
  • 15:29 - 15:34
    这些技术将协同运作,让智能体更实用
  • 15:34 - 15:37
    我们已经开始将代理式功能添加到
  • 15:37 - 15:39
    Chrome、Google搜索和Gemini应用中
  • 15:39 - 15:43
    我来展示一下Gemini应用中最让我们激动的功能
  • 15:43 - 15:45
    我们称之为智能体模式
  • 15:46 - 15:50
    假设你想在奥斯汀给自己和两名室友找间公寓
  • 15:50 - 15:53
    你们每个人每月的预算是1200美元
  • 15:53 - 15:55
    希望公寓里有洗衣机、干衣机
  • 15:55 - 15:57
    或者至少附近要有间洗衣店
  • 15:57 - 16:01
    通常情况下,你要花很多时间去浏览无数房源
  • 16:02 - 16:05
    但有了智能体模式,Gemini应用可以为你效力
  • 16:05 - 16:08
    它在后台访问Zillow等网站
  • 16:08 - 16:11
    查找符合你的条件的房源
  • 16:11 - 16:14
    并在需要时使用Project Mariner
  • 16:14 - 16:16
    调整极其细致的过滤条件
  • 16:17 - 16:20
    如果有你想具体了解的公寓,Gemini会使用MCP
  • 16:21 - 16:25
    访问房源,甚至可以帮你安排行程
  • 16:25 - 16:29
    只要你需要,它就会不断浏览查找新房源
  • 16:30 - 16:32
    让你可以腾出时间去做自己想做的事情
  • 16:32 - 16:34
    比如规划乔迁派对
  • 16:34 - 16:36
    这对Zillow这样的公司特别有用
  • 16:36 - 16:40
    能够带来新客源并提高转化率
  • 16:40 - 16:44
    Gemini应用中智能体模式的实验版本
  • 16:44 - 16:46
    即将面向订阅者开放
  • 16:47 - 16:49
    这是一个崭露头角的全新领域
  • 16:49 - 16:51
    我们很激动能亲身探索
  • 16:51 - 16:56
    如何将智能体的优势带给用户和更广泛的生态系统
  • 16:58 - 17:00
    要将研究成果落地,我们最好的方案就是
  • 17:01 - 17:04
    保证它在你的实际环境中拥有真正的实用价值
  • 17:04 - 17:08
    这正是个性定制的用武之地
  • 17:09 - 17:13
    为此,我们推出了个人使用场景功能
  • 17:14 - 17:15
    在征得你的许可之后
  • 17:15 - 17:17
    Gemini模型可在你的各Google应用之间
  • 17:17 - 17:19
    使用相关背景信息
  • 17:20 - 17:22
    并且采用一种保护隐私、高度透明
  • 17:22 - 17:24
    完全由你掌控的方式
  • 17:24 - 17:26
    我来展示一个Gmail中的例子
  • 17:27 - 17:30
    你可能很熟悉我们依托AI技术的智能回复功能
  • 17:31 - 17:33
    其受欢迎的程度甚至令人有几分意外
  • 17:33 - 17:37
    如果AI生成的回复能效仿你的口吻,那该有多好
  • 17:37 - 17:40
    这就是个性化智能回复背后的理念
  • 17:41 - 17:44
    假设朋友写信给我,向我寻求建议
  • 17:45 - 17:50
    他打算到犹他州去自驾游,记得我曾自驾去过那里
  • 17:51 - 17:53
    坦白说,如果我自己写回信
  • 17:53 - 17:55
    只会寥寥几句带过,帮不上什么忙
  • 17:55 - 17:56
    抱歉了,Felix
  • 17:57 - 18:00
    但使用个性化智能回复,我就能成为知心好友
  • 18:01 - 18:06
    因为Gemini会帮我做好几乎所有的“功课”
  • 18:06 - 18:08
    查看我云端硬盘中的笔记
  • 18:09 - 18:11
    查询旧电子邮件中的预订信息
  • 18:11 - 18:14
    查找Google文档中的行程安排
  • 18:14 - 18:16
    锡安国家公园之旅
  • 18:17 - 18:20
    Gemini效仿我既往邮件中的问候语
  • 18:21 - 18:26
    捕捉到了我的语气、风格和遣词用句的喜好
  • 18:26 - 18:29
    随后自动生成回复
  • 18:29 - 18:31
    我最欣赏的是它添加了贴心的细节
  • 18:31 - 18:34
    比如将驾车时间控制在每天五小时以下
  • 18:34 - 18:37
    还使用了我最喜欢的形容词:激动人心
  • 18:39 - 18:40
    看起来不错
  • 18:40 - 18:44
    或许简单修改几处,就可以点击“发送”了
  • 18:44 - 18:48
    今年夏天,这项功能就会在Gmail中提供给订阅者
  • 18:54 - 18:57
    可想而知,覆盖搜索、文档、Gemini
  • 18:57 - 19:00
    及其他产品的个人使用场景功能会有多实用
  • 19:01 - 19:06
    今天我谈到了智能、智能体和个性化
  • 19:07 - 19:10
    这是我们将努力推进的几个前沿领域
  • 19:10 - 19:13
    在整场主旨演讲中,你会听到更多例子
  • 19:14 - 19:15
    但首先,我想请一个人
  • 19:16 - 19:19
    详细分享有关推动我们未来创新的智能
  • 19:20 - 19:23
    去年在介绍他的时候,我称他为Demis爵士
  • 19:23 - 19:27
    今年,我们还可以在他的头衔里
    加上“诺贝尔奖获得者”
  • 19:27 - 19:29
    Demis,请上台来
  • 19:43 - 19:46
    大家好!很高兴能再次参加Google I/O大会
  • 19:48 - 19:50
    我们身处一个重要的历史节点
  • 19:51 - 19:54
    AI正在开启令人向往的全新未来
  • 19:55 - 19:56
    这一年,我们在不懈的探索中前行
  • 19:56 - 19:58
    收获了累累硕果
  • 19:58 - 20:02
    正如Sundar所说,人们喜欢与Gemini 2.5交互
  • 20:03 - 20:05
    我们见证了你们用它进行氛围编程
  • 20:05 - 20:07
    一气呵成开发应用与游戏
  • 20:08 - 20:10
    见证了你们用它强大的推理能力完成各种任务
  • 20:10 - 20:14
    从拆解科学论文,到解析YouTube视频
  • 20:14 - 20:16
    你们告诉我们,Gemini协作性强、洞见深刻,
  • 20:16 - 20:19
    是真正的得力助手
  • 20:20 - 20:25
    看到大家用它创造出的惊人成果,我们倍感振奋
  • 20:27 - 20:30
    Gemini 2.5是我们迄今为止最智能的模型
  • 20:30 - 20:32
    也是全球先进基础模型
  • 20:33 - 20:37
    就在两周前,我们发布了升级后的2.5 Pro预览版
  • 20:37 - 20:40
    让大家可以开始亲手尝试用它将创想化为现实
  • 20:41 - 20:44
    大家的成果让我们大开眼界
  • 20:44 - 20:49
    从将草图转化为交互式应用到模拟3D城市
  • 20:50 - 20:52
    全新的2.5 Pro模型在热门编程排行榜
  • 20:52 - 20:55
    WebDev Arena上一马当先
  • 20:55 - 20:58
    现在,它又整合了LearnLM
  • 20:58 - 21:00
    该系列模型的开发得到了教育专家的支持
  • 21:01 - 21:04
    这让2.5 Pro也成为全球出色的学习辅助模型
  • 21:05 - 21:08
    在LMArena的所有排行榜上独占鳌头
  • 21:11 - 21:14
    Gemini Flash是我们极其高效的王牌模型
  • 21:15 - 21:19
    因出色的速度和较低的成本备受开发者青睐
  • 21:20 - 21:25
    今天我要激动地宣布推出更新版的2.5 Flash
  • 21:25 - 21:28
    新版Flash模型几乎在每一个方面都有所改进
  • 21:29 - 21:30
    在各类重要基准测试中都取得了更好的成绩
  • 21:30 - 21:33
    包括推理、编程和长上下文
  • 21:34 - 21:39
    实际上,它在LMArena排行榜上仅次于2.5 Pro
  • 21:40 - 21:44
    我要很高兴地告诉大家,Flash将于六月初正式上线
  • 21:44 - 21:46
    Pro紧随其后
  • 21:53 - 21:56
    我们正在根据大家的反馈做出最终调整
  • 21:56 - 21:59
    不过你现在可以在AI Studio
  • 21:59 - 22:01
    Vertex AI和Gemini应用中试用预览版
  • 22:03 - 22:07
    我们将一如既往,继续不懈前行,推动技术向前发展
  • 22:07 - 22:10
    并对我们近期的研究突破感到十分欣喜
  • 22:10 - 22:13
    稍后我会请Tulsee来与大家进一步分享
  • 22:13 - 22:15
    不过首先,我们来看一下
  • 22:15 - 22:17
    目前你可以用Gemini来做些什么
  • 22:20 - 22:22
    [用Gemini可以做的30件事]
  • 22:23 - 22:24
    [物理模拟]
  • 22:24 - 22:25
    [自然模拟]
  • 22:25 - 22:27
    [光学模拟]
  • 22:27 - 22:28
    [谜题模拟]
  • 22:29 - 22:30
    [将图片转变成代码]
  • 22:32 - 22:33
    [将想法转变成3D模型]
  • 22:36 - 22:38
    [为画作加入3D效果]
  • 22:40 - 22:41
    [与AI共同创作]
  • 22:41 - 22:42
    [发型设计]
  • 22:43 - 22:46
    [给这只猫穿上礼服]
  • 22:48 - 22:49
    [在积攒了几十年的文件中搜索内容]
  • 22:49 - 22:50
    [菜谱]
  • 22:51 - 22:53
    [在数小时长的视频中搜索内容]
  • 22:54 - 22:55
    [建造机器人]
  • 22:56 - 23:00
    [直接说话就能编程]
    你能做个从我嘴里爆出一团圆形彩纸的特效吗?
  • 23:01 - 23:03
    我更新了草图
  • 23:03 - 23:06
    [万物皆可AI:娱乐、学习、动画、可视化]
    [创造、转录、练习、翻译、查询、表情符号]
  • 23:06 - 23:07
    [混音、计算、探索、理解、地图、解释]
  • 23:07 - 23:10
    [生成千般内容]
    [构想万种可能]
  • 23:11 - 23:13
    接下来我们做点什么?
  • 23:13 - 23:15
    这里还有30个创意供你参考
  • 23:16 - 23:19
    [使用Gemini开始构建]
    [AI.Studio]
  • 23:35 - 23:36
    Demis,谢谢你!
  • 23:36 - 23:39
    很高兴能借此机会告诉大家
  • 23:39 - 23:41
    为了帮助像你一样的开发者
  • 23:41 - 23:44
    更轻松地使用Gemini 2.5进行构建
  • 23:45 - 23:47
    我们根据大家的反馈意见做出了多项改进
  • 23:47 - 23:52
    其中包括:功能改进、安全性和透明度加强
  • 23:52 - 23:55
    成本效益提升和可控性提升
  • 23:56 - 24:01
    首先,除了Demis提到的新版2.5 Flash之外
  • 24:01 - 24:05
    我们还推出了文字转语音功能的全新预览版
  • 24:06 - 24:12
    基于原生音频输出提供
    同类产品中首创的多讲话人支持
  • 24:12 - 24:14
    可以支持两个人的语音
  • 24:16 - 24:20
    这意味着模型可以通过
    更富于表现力的方式进行对话交流
  • 24:20 - 24:24
    能够捕捉我们言语表述之中的微妙之处
  • 24:25 - 24:29
    甚至能无缝切换到低声耳语,就像这样
  • 24:31 - 24:33
    它支持超过24种语言
  • 24:34 - 24:37
    甚至能流畅自如地在不同语言之间切换
  • 24:38 - 24:42
    模型可以在最初讲英语,然后
  • 24:44 - 24:47
    [印地语]
  • 24:49 - 24:50
    然后再切换回来
  • 24:50 - 24:52
    而且声音丝毫不变
  • 24:53 - 24:54
    不错吧?
  • 25:01 - 25:03
    从今天开始,你就可以开始在Gemini API里
  • 25:03 - 25:06
    使用这种文字转语音功能了
  • 25:11 - 25:14
    今天稍后,Live API还将提供
  • 25:14 - 25:19
    2.5 Flash原生音频对话功能的预览版
  • 25:19 - 25:24
    让你能通过更自然流畅的方式直接与Gemini会话
  • 25:25 - 25:29
    它甚至能区分讲话人与背景噪音
  • 25:29 - 25:30
    从而判断合适的回复时机
  • 25:31 - 25:34
    Logan和Paige将在开发者主旨演讲中分享更多内容
  • 25:36 - 25:37
    其次
  • 25:37 - 25:41
    我们加强了针对间接提示注入等安全威胁的防护
  • 25:42 - 25:46
    让Gemini 2.5成为我们迄今为止最安全的模型
  • 25:47 - 25:50
    在2.5 Pro和Flash模型中
  • 25:50 - 25:52
    我们都添加了思考总结功能
  • 25:52 - 25:54
    可以通过Gemini API和Vertex AI来使用
  • 25:55 - 25:58
    思考总结功能会提取模型的原始思考过程
  • 25:58 - 26:03
    将其整理为清晰有序的格式,包含标题、重要细节
  • 26:03 - 26:06
    以及有关模型操作的信息,比如工具调用
  • 26:06 - 26:10
    这能让你更清晰地了解模型的思考过程
  • 26:10 - 26:16
    不但对高延迟任务特别有用,同时方便调试和使用
  • 26:18 - 26:20
    大家也呼吁提高模型处理效率
  • 26:20 - 26:24
    而现在,2.5 Flash的效率更胜以往
  • 26:24 - 26:28
    同等性能的情况下,使用的token更少
  • 26:29 - 26:32
    在实际测评中效率提升达22%
  • 26:34 - 26:38
    最后,我们为2.5 Flash引入了思考预算功能
  • 26:38 - 26:42
    让你能够在成本、延迟和输出质量之间取得平衡
  • 26:42 - 26:44
    由于大家的反响很好
  • 26:44 - 26:47
    我们将思考预算功能添加到了2.5 Pro之中
  • 26:48 - 26:52
    并将在未来几周内随同我们的正式版模型一同发布
  • 26:53 - 26:54
    借助思考预算功能
  • 26:54 - 26:57
    你可以更好地掌控模型使用多少token进行思考
  • 26:57 - 26:58
    然后再给出回答
  • 26:59 - 27:01
    也可以直接关闭思考功能
  • 27:03 - 27:05
    之前Demis提到过
  • 27:05 - 27:08
    Gemini 2.5 Pro有着超强的编码能力
  • 27:08 - 27:13
    所以接下来,我想展示一下如何将构思落地
  • 27:15 - 27:19
    如果你参观过纽约市的美国自然历史博物馆
  • 27:19 - 27:22
    一定记得那里精彩的展品
  • 27:22 - 27:24
    为了让大家能够看到这些展品
  • 27:24 - 27:27
    我让2.5 Pro在Google AI Studio中
  • 27:27 - 27:28
    编写了一个简单的Web应用
  • 27:29 - 27:30
    用于分享一些照片以及详细信息
  • 27:31 - 27:33
    这是该应用目前为止的模样
  • 27:34 - 27:37
    不过我还想进一步加强其互动性
  • 27:37 - 27:39
    我还在就设计思路集思广益
  • 27:40 - 27:41
    不过已经有了一些想法
  • 27:42 - 27:44
    大家都看到过像这样的情况吧?
  • 27:44 - 27:45
    某人找到你
  • 27:45 - 27:48
    给你看在餐巾纸上勾勒出的“绝妙”点子
  • 27:49 - 27:52
    作为PM,我常常就是拿着餐巾纸的这个人
  • 27:54 - 27:56
    常规的二维网页设计已经不简单
  • 27:57 - 27:59
    但我想进一步实现三维设计
  • 28:00 - 28:03
    我知道转为三维并不容易
  • 28:03 - 28:06
    需要学习许许多多新知识
  • 28:06 - 28:11
    比如设置场景、相机、光线等
  • 28:12 - 28:14
    但幸运的是,2.5 Pro可以帮到我
  • 28:15 - 28:17
    这里我要做的是
  • 28:18 - 28:23
    把刚才展示的球体图片添加进来
  • 28:25 - 28:30
    输入提示,让2.5 Pro根据此图片更新我的代码
  • 28:32 - 28:34
    我们让2.5 Pro开始工作
  • 28:34 - 28:36
    可以看到,它开始思考
  • 28:37 - 28:40
    并根据我的要求制定了一份计划
  • 28:41 - 28:43
    稍后会将其应用于我的原有代码库
  • 28:44 - 28:46
    Gemini是一种多模态模型
  • 28:47 - 28:49
    因此能理解这张抽象的球体草图
  • 28:49 - 28:52
    通过编程生成精美的三维动画
  • 28:52 - 28:54
    再将其应用于我的原有应用
  • 28:55 - 28:57
    此过程大概需要两分钟
  • 28:57 - 29:01
    为节省时间,我们将以类似烘焙节目的形式来展示
  • 29:01 - 29:03
    我直接切换到另外一个标签页
  • 29:03 - 29:06
    在这场主旨演讲开始之前,我运行了相同的提示
  • 29:06 - 29:09
    这就是Gemini生成的结果
  • 29:17 - 29:21
    我们把一张粗略的草图直接变成了代码
  • 29:21 - 29:23
    更新了多个文件
  • 29:24 - 29:27
    而且可以看到,它思考了37秒时间
  • 29:27 - 29:29
    你也可以看到它的思考变化过程
  • 29:29 - 29:31
    以及它更新了哪些文件
  • 29:32 - 29:34
    这一切都是在AI Studio中完成的
  • 29:34 - 29:36
    所以在完成原型设计之后
  • 29:36 - 29:40
    我就可以直接用Gemini API密钥部署代码
  • 29:41 - 29:43
    这是我们的最终版应用在Chrome中的效果
  • 29:45 - 29:47
    看看这些动画
  • 29:48 - 29:53
    我不需要有多精深的Three.js库知识
  • 29:53 - 29:56
    也不必钻研复杂的三维算法,就做成了这样的作品
  • 29:57 - 29:59
    如果要亲自动手来做,我可能永远也没法实现
  • 30:00 - 30:04
    但这里,我只用一张草图就做出来了
  • 30:05 - 30:09
    我可以利用多模态,让整个体验更加丰富
  • 30:09 - 30:13
    我用2.5 Flash给每张照片添加了一个问题
  • 30:13 - 30:15
    邀请你进一步了解相关信息
  • 30:17 - 30:19
    但如果它能说话会怎样呢?
  • 30:20 - 30:23
    这时我们就可以用到Gemini的原生音频功能
  • 30:25 - 30:26
    这是一只穿山甲
  • 30:26 - 30:30
    它的鳞片由角蛋白构成,就像你的指甲一样
  • 30:31 - 30:33
    哇!现在它支持语音功能了
  • 30:34 - 30:38
    你可以听到,如何在应用中添加富有表现力的音频
  • 30:38 - 30:40
    在分享更多内容之前
  • 30:41 - 30:43
    我想以另一个好玩的设计来结束演示
  • 30:43 - 30:46
    这也是通过2.5 Pro编码实现的
  • 30:56 - 30:58
    我们在Google AI Studio提供了起始代码
  • 30:58 - 31:00
    让大家都可以在本演示的基础上进行二次开发
  • 31:00 - 31:02
    欢迎大家去尝试
  • 31:03 - 31:04
    这个演示仅仅是一个例子
  • 31:05 - 31:08
    证明Gemini 2.5必将大幅改变我们的构建方式
  • 31:08 - 31:11
    改变你利用非凡的功能
  • 31:11 - 31:16
    在自己的应用中集成视觉、语音和编码的方式
  • 31:17 - 31:20
    你可以在自己喜爱的IDE平台
  • 31:21 - 31:23
    以及各种Google产品中使用2.5 Pro
  • 31:23 - 31:28
    例如Android Studio、Firebase Studio
    Gemini Code Assist
  • 31:28 - 31:31
    以及我们最新的异步编码智能体Jules
  • 31:39 - 31:42
    你只需提交任务,剩下的就交给Jules来处理
  • 31:42 - 31:44
    修复bug,执行更新
  • 31:45 - 31:48
    它与GitHub集成,可以独立运行
  • 31:49 - 31:51
    Jules能够处理大型代码库中的复杂任务
  • 31:52 - 31:53
    这些任务过去需要数小时才能完成
  • 31:53 - 31:56
    比如更新较早版本的Node.js
  • 31:56 - 32:01
    它能在几分钟内完成规划步骤、修改文件等任务
  • 32:02 - 32:04
    今天,我很高兴地宣布
  • 32:04 - 32:05
    Jules将开启公开Beta版测试
  • 32:06 - 32:08
    所有人都可以通过jules.google注册
  • 32:15 - 32:20
    正如Demis所说,我们一直在创新优化模型的方法
  • 32:20 - 32:23
    包括提高模型的效率和性能
  • 32:24 - 32:29
    我们率先采用扩散技术,革新了图像和视频的生成
  • 32:30 - 32:34
    扩散模型可通过逐步优化噪声来生成输出
  • 32:35 - 32:40
    现在,我们正借助最新研究模型将扩散应用于文本
  • 32:41 - 32:44
    这样有助于提升处理编辑等任务的能力
  • 32:44 - 32:46
    包括在数学和编码等应用场景中
  • 32:47 - 32:49
    因为它不只是从左到右线性生成内容
  • 32:49 - 32:51
    还能够快速反复试验解决方案
  • 32:52 - 32:54
    并在生成过程中不断纠错
  • 32:56 - 33:01
    Gemini Diffusion是一种领先的文本扩散实验模型
  • 33:01 - 33:06
    利用并行生成技术,实现超低延迟
  • 33:07 - 33:10
    例如,我们今天发布的Gemini Diffusion版本
  • 33:11 - 33:13
    生成速度是我们目前速度最快的模型
  • 33:13 - 33:17
    2.0 Flash-Lite的五倍
  • 33:17 - 33:19
    而编码能力却旗鼓相当
  • 33:20 - 33:22
    以这个数学问题为例
  • 33:22 - 33:23
    准备,开始!
  • 33:26 - 33:27
    眨眼间整个过程就完成了
  • 33:34 - 33:39
    之前我们加快了速度,但这次我们会放慢一点
  • 33:44 - 33:47
    看到模型如何一步步计算出39这个答案,感觉很棒
  • 33:49 - 33:51
    此模型目前正在小范围测试
  • 33:52 - 33:55
    我们会继续探索各种方法
  • 33:55 - 33:57
    降低所有Gemini模型的延迟
  • 33:58 - 34:01
    并即将推出速度更快的2.5 Flash-Lite模型
  • 34:02 - 34:04
    更多有关Gemini未来发展的信息
  • 34:05 - 34:06
    请Demis与大家进一步分享
  • 34:14 - 34:15
    谢谢你,Tulsi
  • 34:16 - 34:21
    我们一直在不懈探索Gemini 2.5思考功能的边界
  • 34:22 - 34:24
    使用AlphaGo的经验告诉我们
  • 34:24 - 34:28
    给模型更多思考时间,其回答质量会得到改善
  • 34:29 - 34:32
    如今,我们进一步优化了2.5 Pro
  • 34:32 - 34:36
    引入了名为Deep Think的新模式
  • 34:37 - 34:41
    它能将模型性能发挥到极致,带来突破性的成果
  • 34:42 - 34:46
    Deep Think采用了思考与推理领域的前沿研究
  • 34:46 - 34:48
    包括平行技术
  • 34:49 - 34:52
    目前为止,我们看到的性能堪称惊艳
  • 34:53 - 34:56
    在目前难度最高的数学基准测试USAMO 2025中
  • 34:56 - 34:59
    它的评分十分亮眼
  • 34:59 - 35:01
    在LiveCodeBench中也处于领先水平
  • 35:01 - 35:04
    这是一项针对竞赛级编码的高难度基准测试
  • 35:05 - 35:08
    Gemini从一开始就具备原生多模态能力
  • 35:08 - 35:12
    所以自然在衡量此能力的主要基准中表现同样出色
  • 35:13 - 35:14
    这一基准是:MMMU
  • 35:15 - 35:19
    因为我们正在通过2.5 Pro Deep Think来引领前沿技术
  • 35:19 - 35:23
    我们需要额外花一些时间来进行更多前沿安全评估
  • 35:23 - 35:26
    并从安全专家那里获取更多意见
  • 35:26 - 35:29
    因此,我们将通过Gemini API
  • 35:29 - 35:31
    向可信测试员开放此功能
  • 35:32 - 35:34
    以便在大规模推出此功能前获取反馈意见
  • 35:35 - 35:38
    今天稍后,Josh会更详细地给大家介绍
  • 35:39 - 35:40
    我们针对2.5 Pro Deep Think的计划
  • 35:42 - 35:43
    过去十年
  • 35:44 - 35:47
    我们为现代AI纪元的到来做了很多基础工作
  • 35:48 - 35:51
    从我们开创性地发明了Transformer架构
  • 35:51 - 35:54
    它如今已成为所有大语言模型的基础
  • 35:55 - 35:58
    到打造AlphaGo和AlphaZero等智能体系统
  • 35:58 - 36:03
    我们将继续拓展基础研究的深度和广度
  • 36:03 - 36:05
    探索下一个重大突破
  • 36:05 - 36:08
    满足人们对通用人工智能的需要
  • 36:10 - 36:14
    Gemini如今已是卓尔不凡的多模态基础模型
  • 36:14 - 36:16
    但我们依然脚步未停
  • 36:16 - 36:18
    竭力将其打造成所谓的“世界模型”
  • 36:19 - 36:22
    待到那时,它将能够通过模拟世界的方方面面
  • 36:22 - 36:26
    制定计划和构想全新体验,就像人类的大脑一样
  • 36:27 - 36:30
    这一直是我个人的热情所在
  • 36:30 - 36:32
    早在我为《主题公园》等模拟游戏
  • 36:32 - 36:34
    开发AI的早期职业生涯中
  • 36:34 - 36:36
    我就已经开始探索虚拟世界
  • 36:37 - 36:40
    多年来,我们一直向这个方向迈进
  • 36:40 - 36:45
    从训练智能体掌握围棋和《星际争霸》等复杂游戏
  • 36:45 - 36:48
    到最近推出的Genie 2模型
  • 36:48 - 36:51
    它仅通过一张图片作为提示
  • 36:51 - 36:54
    就能生成可交互的三维模拟环境
  • 36:56 - 36:58
    大家已经可以看到这些功能正在逐渐显现
  • 36:58 - 37:01
    例如Gemini能够运用对世界的认知和推理能力
  • 37:01 - 37:03
    来呈现自然万物
  • 37:04 - 37:06
    还有我们先进的视频模型Veo
  • 37:06 - 37:09
    它对基本物理规律有着深刻理解
  • 37:09 - 37:12
    比如重力、光线和材料的属性
  • 37:13 - 37:15
    Veo令人惊叹的地方在于
  • 37:15 - 37:19
    它能在所有帧中保持高度的准确性和连贯性
  • 37:19 - 37:22
    即使提示脑洞大开,它也知道该怎么做
  • 37:22 - 37:25
    比如这个用救生筏生成的人
  • 37:27 - 37:31
    理解物理环境对于机器人技术也至关重要
  • 37:32 - 37:34
    AI系统需要具备世界模型
  • 37:34 - 37:36
    才能在现实世界中高效地运作
  • 37:38 - 37:41
    我们微调了一个专用模型,Gemini Robotics
  • 37:41 - 37:43
    它可以教机器人完成各种实用任务
  • 37:43 - 37:47
    例如抓取物体、执行指令和动态适应新的任务
  • 37:48 - 37:52
    在场的各位,可以在AI展示区中体验这些机器人
  • 37:59 - 38:01
    将Gemini打造成完善的世界模型
  • 38:02 - 38:05
    对于解锁新型AI至关重要
  • 38:06 - 38:08
    比如能够为日常生活提供帮助的AI
  • 38:08 - 38:11
    智能且理解你所处情境的AI
  • 38:11 - 38:15
    以及能够跨设备为你制定计划并采取行动的AI
  • 38:16 - 38:18
    我们对Gemini应用的终极愿景
  • 38:19 - 38:22
    就是将其打造成一个通用型的AI助理
  • 38:23 - 38:26
    让它成为富有个性、主动思考、功能强大的AI
  • 38:26 - 38:30
    以及我们迈向通用人工智能的重要里程碑
  • 38:30 - 38:34
    这要从我们去年在Project Astra中
    首次探索的功能开始
  • 38:35 - 38:38
    包括视频理解、屏幕共享和记忆等功能
  • 38:39 - 38:43
    过去一年,我们一直在将这些功能引入Gemini Live
  • 38:44 - 38:46
    以便更多人今天就能体验到
  • 38:47 - 38:51
    当然,我们也会不断改进,并探索新的前沿创新
  • 38:52 - 38:56
    比如通过原生音频升级语音输出,使其变得更自然
  • 38:57 - 39:00
    我们改进了记忆功能,并增加了计算机控件
  • 39:00 - 39:01
    我们来看一下
  • 39:02 - 39:05
    我现在向大家展示的是
    Project Astra的最新研究原型
  • 39:05 - 39:07
    下面来看看它如何帮我修自行车
  • 39:08 - 39:11
    [Project Astra]
    [行动智能+Gemini]
  • 39:11 - 39:15
    上网查查Huffy山地自行车的用户手册
  • 39:16 - 39:18
    已找到一份用户手册
  • 39:18 - 39:20
    你想要什么信息?
  • 39:20 - 39:23
    好,现在向下滚动页面,找到刹车系统的相关章节
  • 39:24 - 39:26
    好的,正在为你查找相应页面
  • 39:26 - 39:28
    这颗螺丝可能滑牙了
  • 39:28 - 39:31
    能否上YouTube找个修复教程视频?
  • 39:32 - 39:34
    没问题,正在打开YouTube
  • 39:37 - 39:38
    这个视频看起来不错
  • 39:38 - 39:40
    将橡皮筋套在螺丝头上
  • 39:41 - 39:42
    噢,不错,谢谢
  • 39:42 - 39:44
    查下我跟自行车店的往来邮件
  • 39:44 - 39:46
    看看我需要哪种规格的六角螺母?
  • 39:47 - 39:50
    好的,Bicycle Habitat的邮件显示
  • 39:50 - 39:53
    你的链轮需要一个3/8英寸的内六角螺母
  • 39:53 - 39:54
    我已经帮你标出了相应的工具盒
  • 39:55 - 39:58
    我好像需要一个备用的张力螺丝
  • 39:58 - 40:00
    能否联系最近的五金店确认是否有货?
  • 40:01 - 40:02
    好的,正在联系对方
  • 40:03 - 40:05
    稍后我会告诉你具体库存信息
  • 40:05 - 40:07
    我的刹车片有磨损了
  • 40:07 - 40:08
    麻烦再查一下用户手册
  • 40:08 - 40:10
    看看上面有没有提到刹车片?
  • 40:10 - 40:13
    用户手册的第24页显示
  • 40:13 - 40:15
    要去吃午饭吗?
  • 40:15 - 40:17
    好,再等我五分钟
  • 40:18 - 40:19
    你刚才说到哪了?
  • 40:19 - 40:24
    刚才说到,第24页第2节有相关说明
  • 40:24 - 40:26
    介绍了如何更换刹车片
  • 40:26 - 40:27
    之前说的那个电话有进展了吗?
  • 40:28 - 40:30
    嗯,我刚和五金店通完电话
  • 40:30 - 40:33
    他们确认张力螺丝还有库存
  • 40:33 - 40:34
    要我下一个自取订单吗?
  • 40:35 - 40:38
    能否展示几款适合我的自行车用的狗篮?
  • 40:38 - 40:41
    没问题,乐意效劳,稍等片刻
  • 40:42 - 40:44
    看看这几款怎么样
  • 40:44 - 40:46
    我觉得特别适合Zuco
  • 40:47 - 40:49
    [行动智能+Gemini]
  • 40:49 - 40:53
    [电脑控制/重点标示/通话助理/知识接地
    原生音频/主动思考/聚焦讲话人/个性化购物]
  • 40:57 - 41:01
    通用AI助理将帮助我们处理各种任务
  • 41:01 - 41:06
    它会处理琐碎的行政工作
    并给出令人愉快的新推荐
  • 41:06 - 41:09
    从而提高我们的效率,丰富我们的生活
  • 41:10 - 41:13
    我们正向可信测试员收集这些新功能的反馈意见
  • 41:14 - 41:16
    并致力于将它们引入Gemini Live
  • 41:16 - 41:18
    提供新的搜索体验
  • 41:18 - 41:20
    以及面向开发者的Live API
  • 41:20 - 41:23
    还有Android XR眼镜等全新形态的设备
  • 41:24 - 41:26
    今天后面还会有更详细的介绍
  • 41:28 - 41:29
    在我整个职业生涯中
  • 41:29 - 41:32
    核心都是关于如何利用AI来推动知识进步
  • 41:32 - 41:33
    以及加速科学发现
  • 41:34 - 41:36
    Google DeepMind长期以来都在致力于
  • 41:36 - 41:40
    将AI应用于近乎每个科学领域
  • 41:40 - 41:42
    仅在过去一年
  • 41:42 - 41:45
    我们就已经在多个领域取得了巨大突破
  • 41:45 - 41:47
    包括数学、生命科学等领域
  • 41:48 - 41:49
    我们构建了AlphaProof
  • 41:49 - 41:52
    它可以解决奥林匹克数学竞赛中银牌水平的问题
  • 41:53 - 41:56
    Co-Scientist,它可以与研究人员协作
  • 41:56 - 41:59
    帮助他们开发和测试新的假设
  • 41:59 - 42:01
    我们还刚发布了AlphaEvolve
  • 42:02 - 42:05
    它可以发现新的科学知识,并加速AI本身的训练
  • 42:07 - 42:09
    在生命科学领域,我们构建了AMIE
  • 42:10 - 42:13
    一个可以帮助临床医生进行医疗诊断的研究系统
  • 42:14 - 42:15
    AlphaFold 3
  • 42:15 - 42:19
    能够预测所有生命体的分子结构和相互作用
  • 42:19 - 42:22
    以及Isomorphic Labs,它以AlphaFold为基础
  • 42:22 - 42:27
    致力于用AI来革新药物研发流程
  • 42:27 - 42:30
    未来有望帮助攻克多种全球性疾病
  • 42:31 - 42:33
    短短几年时间
  • 42:33 - 42:37
    AlphaFold就已经在科学界产生了深远影响
  • 42:37 - 42:40
    它已成为生物学及医学研究的标配工具
  • 42:40 - 42:43
    全球超过250万的研究人员
  • 42:43 - 42:45
    正在其关键工作中使用这一工具
  • 42:46 - 42:48
    在发展通用人工智能的道路上
  • 42:49 - 42:52
    我始终坚信,如果以安全和负责任的方式进行
  • 42:52 - 42:55
    AI有望加速科学发现进程
  • 42:55 - 42:59
    并成为有史以来最有益的技术
  • 43:06 - 43:11
    回想起来,真是不可思议,就在几年前
  • 43:11 - 43:16
    大家今天看到的这些尖端技术还跟魔法一样
  • 43:17 - 43:22
    看到这些技术为搜索和Gemini等产品的新体验赋能
  • 43:22 - 43:25
    并且共同在日常生活中帮助人们,真是令人兴奋
  • 43:26 - 43:29
    例如,我们最近与Aira建立了合作关系
  • 43:29 - 43:34
    这家公司帮助盲人和低视力人群探索世界
  • 43:34 - 43:36
    方法是将该人群通过视频
  • 43:36 - 43:38
    与人工“视觉翻译”连接起来
  • 43:38 - 43:40
    利用Astra技术
  • 43:40 - 43:44
    我们设计了一个帮助更多人获得此类协助的原型
  • 43:45 - 43:47
    我们正在持续收集用户反馈
  • 43:47 - 43:52
    同时Aira的翻译人员也在积极监督安全性及可靠性
  • 43:58 - 44:01
    凭借这项技术以及我们所有的开创性工作
  • 44:01 - 44:05
    我们正在打造更具个性、更主动、更强大的AI
  • 44:06 - 44:09
    从而丰富我们的生活、加速科学进程
  • 44:10 - 44:14
    并开启一个充满发现和奇迹的黄金时代
  • 44:18 - 44:22
    我记得我小时候经常弹吉他到天黑
  • 44:22 - 44:26
    来证明即使我看不见,也可以弹吉他
  • 44:28 - 44:32
    我在大概四岁左右被诊断出患有视网膜色素变性症
  • 44:32 - 44:35
    我的视力水平不断恶化
  • 44:36 - 44:41
    但面对视力逐渐模糊的现实
  • 44:42 - 44:45
    音乐便是我的解药
  • 44:46 - 44:48
    玩音乐让我倍感自由
  • 44:50 - 44:53
    如果Project Astra能助我更独立地生活
  • 44:53 - 44:55
    那真是再好不过了
  • 44:59 - 45:01
    就拿旅游来说,我非常喜欢旅游
  • 45:01 - 45:05
    因为可以走出去,去从未到过的地方,结识新朋友
  • 45:05 - 45:08
    但这确实变得越来越困难
  • 45:08 - 45:09
    你好
  • 45:09 - 45:13
    嗨,我来拍摄周围环境
  • 45:13 - 45:16
    你能告诉我这个绿色房间里有什么吗?
  • 45:16 - 45:19
    你面向的墙壁上贴有一个指示牌
  • 45:19 - 45:22
    写着“Wi-Fi network: TheGreyEagle”
  • 45:22 - 45:24
    密码是“livemusic”
  • 45:24 - 45:28
    非常感谢。你能告诉我麦克风架在哪儿吗?
  • 45:28 - 45:30
    没问题,非常乐意为你提供帮助
  • 45:30 - 45:31
    我可以打开你的手电筒吗?
  • 45:32 - 45:33
    当然可以
  • 45:34 - 45:37
    这面墙上有一些盘绕的电缆
  • 45:37 - 45:40
    视频右上方位置应该就是麦克风架
  • 45:43 - 45:46
    我能做的最有力量的事就是登上舞台
  • 45:46 - 45:48
    拿起吉他,尽情演奏
  • 45:48 - 45:53
    让人们意识到,看不看得见
  • 45:53 - 45:55
    残疾与否,并不能决定一切
  • 45:55 - 45:58
    如果Project Astra能助我一臂之力
  • 45:58 - 45:59
    我将全力支持它
  • 46:00 - 46:02
    祝你演出愉快
  • 46:02 - 46:03
    [前往goo.gle/AstraVI注册加入视觉翻译等候名单]
  • 46:11 - 46:12
    谢谢你,Demis
  • 46:12 - 46:17
    Project Astra在无障碍功能方面的潜力让人惊艳
  • 46:18 - 46:20
    这又是一个激动人心的例子
  • 46:20 - 46:23
    说明AI可以推动我们一直以来的使命
  • 46:23 - 46:28
    即:整理全球信息,让所有人都能访问并从中受益
  • 46:29 - 46:32
    要说最能体现我们使命的产品,非Google搜索莫属
  • 46:33 - 46:37
    正是因为搜索,我们几十年前就开始投资AI
  • 46:37 - 46:39
    也正是通过搜索,我们得以将AI的益处惠及大众
  • 46:40 - 46:42
    满足人类好奇心
  • 46:42 - 46:45
    Gemini模型正在让Google搜索
  • 46:45 - 46:48
    变得更智能、更真实、更个性化
  • 46:49 - 46:53
    我们取得了不俗的进步
    AI概览就是一个绝佳的例证
  • 46:53 - 46:55
    自去年I/O大会推出以来
  • 46:56 - 46:59
    该功能已覆盖200多个国家/地区
  • 46:59 - 47:02
    每月服务超15亿用户
  • 47:02 - 47:04
    随着人们使用AI概览
  • 47:04 - 47:08
    我们发现他们对搜索结果更满意
    并且搜索频率更高
  • 47:09 - 47:12
    在我们的主要市场,如美国、印度
  • 47:12 - 47:16
    在AI概览的推动下,查询类型
  • 47:16 - 47:18
    实现了超过10%的增长
  • 47:19 - 47:24
    最令人振奋的是,这种增长势头与日俱增
  • 47:24 - 47:28
    这是搜索领域过去十年最成功的产品之一
  • 47:36 - 47:41
    AI概览也是推动Google智能镜头
    视觉搜索增长的最强劲动力之一
  • 47:42 - 47:45
    智能镜头的搜索量同比增长65%
  • 47:45 - 47:49
    今年已有超千亿次视觉搜索
  • 47:50 - 47:52
    在我们最新的Gemini模型发布后
    不仅用户查询量显著增加
  • 47:52 - 47:57
    而且他们还在尝试更为复杂的查询
  • 47:57 - 47:59
    AI概览达到了用户期待的
  • 48:00 - 48:02
    搜索质量与准确程度
  • 48:03 - 48:05
    并拥有行业领先的响应速度
  • 48:06 - 48:09
    为满足端到端AI搜索体验需求
  • 48:09 - 48:12
    我们正推出全新AI模式
  • 48:13 - 48:17
    这是对搜索的全面重构
    同时搭配更先进的推理能力
  • 48:18 - 48:23
    你可以向AI模式提出更长、更复杂的查询
    就像这样
  • 48:23 - 48:30
    实际上,用户查询长度已是传统搜索的2到3倍
  • 48:30 - 48:34
    而且我们支持多轮追问
  • 48:34 - 48:39
    所有这些今天正式上线
    将作为新标签页整合到搜索中
  • 48:39 - 48:43
    我个人高频使用后发现
    它彻底改变了我的搜索方式
  • 48:43 - 48:47
    很高兴宣布AI模式今日起
  • 48:47 - 48:49
    面向全美用户开放
  • 48:56 - 49:00
    AI模式将率先为Google搜索
    引入我们的前沿技术
  • 49:00 - 49:07
    本周起,我们最智能的模型系列Gemini 2.5
    将接入Google搜索
  • 49:07 - 49:09
    带来更丰富的功能
  • 49:09 - 49:10
    接下来有请Liz
  • 49:22 - 49:23
    Sundar,谢谢
  • 49:24 - 49:28
    短短一年时间
    用户使用Google搜索的方式就发生了巨大变化
  • 49:29 - 49:34
    以前,用户在Google上搜索时
    常常会问这样的问题
  • 49:35 - 49:38
    但现在,用户的问题变成了这样
  • 49:39 - 49:42
    用户的问题更长,也更复杂了
  • 49:43 - 49:46
    正如Sundar刚才所说,问题数量也大大增加了
  • 49:47 - 49:50
    用户正在亲身体验AI赋能的搜索
  • 49:50 - 49:54
    我们将Gemini模型的先进功能
  • 49:54 - 49:58
    与Google搜索对网络和世界信息的深刻理解
    结合在一起
  • 49:59 - 50:02
    现在,你会发现你可以提出任何问题
  • 50:02 - 50:08
    更智能、更个性化的代理式搜索功能
    将可以处理你最棘手的问题
  • 50:08 - 50:10
    并帮助你完成任务
  • 50:11 - 50:13
    这就是Google搜索的未来
  • 50:14 - 50:17
    它将超越信息本身,变得越来越智能
  • 50:18 - 50:22
    大家已经开始看到AI概览将这一切变为现实
  • 50:22 - 50:24
    而AI模式更是将它们提升到了新高度
  • 50:26 - 50:30
    AI模式是以Gemini 2.5为核心的变革性搜索体验
  • 50:31 - 50:35
    它是我们功能最强大的AI搜索
    能够应对任何问题
  • 50:36 - 50:38
    正如Sundar所说
  • 50:38 - 50:43
    从今天开始
    我们将在美国全面推出AI模式
  • 50:50 - 50:54
    它会以新标签页的形式直接出现在搜索页面中
    大家也可以从搜索栏进入AI模式
  • 50:55 - 51:00
    AI模式将带来我们最精华的AI功能
  • 51:01 - 51:02
    但还不止于此
  • 51:02 - 51:04
    从它可窥见未来的广阔前景
  • 51:05 - 51:10
    未来,我们将逐步推出大量AI模型、先进的功能
  • 51:10 - 51:13
    并会直接整合到核心搜索体验中
  • 51:13 - 51:19
    今天就是起点
    我们带来了为AI模式和AI概览提供支持的模型
  • 51:20 - 51:24
    大家在搜索框中就可以直接提出最难的问题
  • 51:25 - 51:27
    今天,我们将带大家全面了解AI模式
  • 51:27 - 51:30
    看看它如何运作,如何变得越来越强大
  • 51:31 - 51:32
    尤其是在个人使用场景
  • 51:32 - 51:36
    深度研究、复杂分析、可视化
  • 51:36 - 51:39
    实时多模态以及购物新方式等方面
  • 51:39 - 51:42
    亮点很多,因为AI模式的功能很强大
  • 51:43 - 51:49
    下面,我们具体来说一下
    首先,使用AI模式,你可以随心所欲地提问
  • 51:49 - 51:52
    大家可以看到,搜索功能会立即开始工作
  • 51:52 - 51:56
    生成回答,将所有信息整合在一起
  • 51:57 - 52:01
    包括你可能从未发现的内容和创作者的链接
  • 52:01 - 52:05
    以及包含评分等实用信息的商家和企业的链接
  • 52:06 - 52:09
    Google搜索使用AI动态地调整整个界面
  • 52:10 - 52:15
    灵活组合文字、图片、链接,甚至是地图
  • 52:15 - 52:16
    只为更好地回答你的问题
  • 52:17 - 52:19
    你可以追问,就像跟人对话一样
  • 52:20 - 52:22
    现在,AI模式不仅仅是提供信息
  • 52:23 - 52:26
    更将搜索带到了全新的智能水平
  • 52:27 - 52:31
    这一切之所以能实现
    得益于称之为查询扇出的技术
  • 52:32 - 52:36
    其原理是
    Google搜索会识别需要高级推理的问题
  • 52:37 - 52:39
    并调用定制版的Gemini
  • 52:39 - 52:42
    将问题分解为若干子主题
  • 52:42 - 52:46
    然后替你同时发起大量查询
  • 52:47 - 52:52
    它会在整个网络进行搜索,深度远超传统搜索
  • 52:53 - 52:56
    它还会利用我们所有的实时信息数据集
  • 52:56 - 53:01
    例如知识图谱、购物信息图谱
    以及本例中涉及的本地数据
  • 53:01 - 53:06
    这其中包含地图社区中,5亿多贡献者的数据洞见
  • 53:07 - 53:10
    Google搜索会整合所有信息给出回答
    并进行自我检查
  • 53:10 - 53:13
    确保符合我们对信息质量的高标准要求
  • 53:14 - 53:18
    如果发现任何不足,它会发起更多搜索来弥补
  • 53:19 - 53:21
    这意味着,在AI模式下
  • 53:21 - 53:25
    你只需搜索一次,就能快速获得所有这些信息
  • 53:27 - 53:30
    现在来看看AI模式即将增加的新功能
    这些功能会先在实验室中进行测试
  • 53:32 - 53:36
    不久之后,AI模式将能根据你以往的搜索记录
  • 53:36 - 53:39
    提供个性化的建议,从而使回答更具针对性
  • 53:40 - 53:44
    你还可以选择关联其他的Google应用
    首先是Gmail
  • 53:45 - 53:47
    我们称之为个人使用场景
  • 53:47 - 53:50
    关联之后
    AI模式可以引入你的个人使用场景来提供帮助
  • 53:51 - 53:54
    现在,根据你最近的酒店预订和搜索记录
  • 53:55 - 53:56
    它能推断出你更喜欢户外的座位
  • 53:57 - 54:00
    由于你订阅了这些画廊简报
  • 54:00 - 54:03
    它就会推荐一些精彩的艺术展
    方便你在当地停留期间参观
  • 54:04 - 54:05
    但还不止这些
  • 54:06 - 54:09
    如果你的航班和酒店确认邮件都在收件箱里
  • 54:09 - 54:13
    它还会推荐你在纳什维尔时刚好能参加的活动
  • 54:13 - 54:15
    推荐你在停留期间的周边好去处
  • 54:16 - 54:20
    你会发现,AI模式中的个人使用场景功能
    可以将Google搜索变成为你量身定制的工具
  • 54:20 - 54:23
    专门为你提供推荐内容
  • 54:24 - 54:26
    这一切始终都由你掌控
  • 54:26 - 54:29
    你可以随时选择关联或解除关联
  • 54:30 - 54:33
    个人使用场景将于今年夏天在AI模式中上线
  • 54:41 - 54:44
    另外,我们将针对需要更深入解答的问题
  • 54:45 - 54:48
    为AI模式引入Deep Research功能
  • 54:49 - 54:52
    大家已经在使用Google搜索来剖析某个主题
  • 54:52 - 54:54
    而这项功能将研究的深度和广度又提升了一个级别
  • 54:55 - 54:58
    所以我们称之为Deep Search
  • 54:59 - 55:02
    Deep Search同样采用前面提到的查询扇出技术
  • 55:02 - 55:04
    但功能更强
  • 55:04 - 55:08
    它可以替你发起数十次甚至数百次搜索
  • 55:09 - 55:12
    它会对所有分散的信息进行分析推理
  • 55:12 - 55:16
    并在几分钟内生成一份
    带有完整引用信息的专家级报告
  • 55:17 - 55:18
    报告中会包含网页链接
  • 55:19 - 55:21
    方便你进一步探索和采取行动
  • 55:22 - 55:26
    这是我们构建AI模式的核心理念
  • 55:26 - 55:29
    以及我们对搜索领域中AI运用的一贯思考
  • 55:30 - 55:33
    因为我们坚信,AI将成为Web有史以来
  • 55:33 - 55:35
    最强大的发现引擎
  • 55:36 - 55:39
    帮助人们发现网络中更多有价值的信息
  • 55:39 - 55:42
    找到令人惊叹且高度相关的内容
  • 55:43 - 55:46
    大家已经开始感受到搜索变得越来越智能
  • 55:46 - 55:48
    但精彩远不止于此
  • 55:49 - 55:50
    接下来,我把时间交给Rajan
  • 55:50 - 55:53
    他将介绍AI模式如何帮助他分析
  • 55:54 - 55:56
    他热爱的一个体育领域里的复杂数据
  • 56:07 - 56:11
    Liz,谢谢你!我是一个狂热的棒球迷
  • 56:11 - 56:15
    最近关于这种叫做“鱼雷球棒”的新型球棒
    引起了很多讨论
  • 56:15 - 56:17
    为不太关注棒球的朋友解释一下
  • 56:17 - 56:22
    这是一种新型球棒
    它的特点是将更多重量集中在最佳击球点
  • 56:22 - 56:27
    正如大家所见
    我一直在研究这种球棒是否真的对比赛产生了影响
  • 56:27 - 56:30
    现在,我想知道数据会怎么说
  • 56:30 - 56:32
    于是,我向Google搜索提出了一个问题
  • 56:32 - 56:35
    请显示目前使用鱼雷球棒的知名球员
  • 56:36 - 56:39
    在本赛季和上赛季的打击率和上垒率
  • 56:40 - 56:43
    这个问题并不简单,包含了多重维度
  • 56:43 - 56:46
    Google搜索需要识别哪些是知名球员
  • 56:47 - 56:50
    谁在使用鱼雷球棒,并整合他们的赛季数据
  • 56:51 - 56:55
    但它马上给出了非常实用的回答
    其中还有容易理解的表格
  • 56:56 - 56:58
    而且,数据新鲜、精准
  • 56:58 - 57:02
    因为它使用的是我们持续更新的体育数据
  • 57:02 - 57:04
    甚至精确到最近一次好球
  • 57:05 - 57:07
    Google搜索甚至还提供了重要的背景信息
  • 57:07 - 57:10
    比如“目前赛季仍处于早期阶段”
  • 57:10 - 57:15
    我继续追问:这些球员本赛季击出多少支本垒打?
  • 57:15 - 57:18
    瞬间就获得了一张图表
  • 57:19 - 57:21
    这正好印证了Liz刚才提到的
  • 57:21 - 57:26
    AI模式能够为每个回答动态生成合适的界面
  • 57:27 - 57:31
    Google搜索确定
    最适合呈现这些信息的方式是图表
  • 57:31 - 57:37
    因此生成了图表
    就像Google搜索里内置了一个专属体育分析师
  • 57:37 - 57:42
    针对体育和金融问题的复杂数据分析和可视化功能
  • 57:42 - 57:44
    将在今年夏天上线
  • 57:50 - 57:55
    说了这么多棒球,我都想去现场看比赛了
  • 57:55 - 57:58
    比如说,下一场就去看
  • 57:58 - 58:01
    但是,购买好票总是让人头大
  • 58:02 - 58:04
    这里很高兴地告诉大家
  • 58:04 - 58:09
    我们正将Project Mariner的代理式功能
    整合到AI模式中
  • 58:10 - 58:14
    大家已经看到AI模式正变得更加智能和个性化
  • 58:14 - 58:18
    现在可以开始看到Google搜索正变得更加主动
  • 58:18 - 58:22
    它能帮我完成任务,但仍由我保持掌控权
  • 58:23 - 58:24
    我会告诉它
  • 58:24 - 58:29
    “找两张这周六红人队比赛下层看台的平价门票”
  • 58:30 - 58:31
    Google搜索启动查询扇出
  • 58:32 - 58:36
    同时扫描多个网站,分析上百个潜在的门票选项
  • 58:36 - 58:41
    按我提出的所有条件填写表单
    不用我去做这些繁琐的工作
  • 58:42 - 58:44
    然后将所有信息汇总在一起
  • 58:44 - 58:48
    基于搜索结果进行推理,分析实时票价和库存
  • 58:49 - 58:53
    然后,像这样,任务就完成了
  • 58:53 - 58:56
    它给出了不错的门票选项,还有实用的背景信息
  • 58:57 - 58:59
    我可以在此基础上做出明智的决定
  • 59:00 - 59:03
    这些座位看起来视野良好,价格合理
  • 59:04 - 59:06
    Google搜索已代我完成了大量步骤填写这些信息
  • 59:06 - 59:08
    并提供了链接,引导我完成结账
  • 59:09 - 59:10
    定下这些门票
  • 59:18 - 59:20
    Google搜索很快将能够帮助处理这类任务
  • 59:21 - 59:26
    首先覆盖的是活动门票、餐厅预订和本地生活服务预约
  • 59:28 - 59:31
    接下来,让我们聊聊多模态技术
  • 59:32 - 59:35
    从多模态搜索这个概念还不怎么流行的时候
  • 59:35 - 59:36
    我们就一直是这个领域的方向引领者
  • 59:37 - 59:41
    回到2017年,我们就是在这个讲台上
    宣布推出了Google智能镜头
  • 59:41 - 59:45
    此后我们不断优化,让所见即所搜更加便捷
  • 59:46 - 59:49
    只需用Google智能镜头拍照或使用圈定即搜
  • 59:49 - 59:52
    就能立即获得AI概览
  • 59:53 - 59:54
    Sundar刚才提到过
  • 59:54 - 59:56
    视觉搜索目前正呈现出燎原之势
  • 59:56 - 59:58
    今天我很激动地宣布
  • 59:58 - 60:02
    每月有超过15亿用户使用Google智能镜头
  • 60:08 - 60:11
    现在,我们正围绕多模态迈出重大的一步
  • 60:12 - 60:16
    将Project Astra的实时功能引入AI模式
  • 60:17 - 60:21
    想想那些对话交流一下,就会变得超级简单的问题
  • 60:21 - 60:23
    而且自己的意图还能得到准确的展示
  • 60:23 - 60:25
    比如家庭DIY维修
  • 60:26 - 60:28
    棘手的学校作业,或是学习新技能
  • 60:29 - 60:31
    我们称之为实时搜索
  • 60:31 - 60:33
    现在利用摄像头
  • 60:33 - 60:36
    Google搜索能随着用户来回走动
  • 60:36 - 60:39
    实时感知他们看到的画面,并提供有用信息
  • 60:39 - 60:42
    就像在与Google搜索进行视频通话
  • 60:43 - 60:47
    我有三个孩子,他们每分钟能问上百万个问题
  • 60:47 - 60:49
    随着暑假临近
  • 60:50 - 60:53
    我和团队决定对实时搜索进行终极测试
  • 60:53 - 60:57
    帮助我们和孩子们解决些新问题
  • 60:58 - 61:02
    上周末,我们与我的家人在家里录制了演示
  • 61:02 - 61:03
    一起看下吧
  • 61:04 - 61:07
    看起来你们准备做有趣的科学实验
  • 61:07 - 61:09
    好的。准备好了吗?
  • 61:09 - 61:10
    -好了
    -好的
  • 61:11 - 61:13
    -你准备好开始实验了吗?
    -好了
  • 61:13 - 61:17
    能猜出我要做什么实验吗?我有双氧水
  • 61:17 - 61:18
    洗洁精和酵母
  • 61:18 - 61:20
    你可能要做大象牙膏实验
  • 61:21 - 61:23
    我知道哪颗草莓可以吃了
  • 61:23 - 61:25
    我在想办法让遥控器工作
  • 61:25 - 61:29
    看来有人准备种下青豆幼苗
  • 61:29 - 61:31
    把压力调到每平方英寸50磅左右
  • 61:31 - 61:33
    但不要超过每平方英寸90磅
  • 61:33 - 61:36
    我混合了小苏打,接下来做什么?
  • 61:36 - 61:39
    看起来有人把手指伸进肉桂水里了
  • 61:39 - 61:41
    如何让实验更壮观?
  • 61:41 - 61:43
    可以尝试不同的催化剂
  • 61:43 - 61:45
    碘化钾是个好选择
  • 61:46 - 61:47
    哇!为什么会这样?
  • 61:47 - 61:49
    成熟的草莓也会有甜香味
  • 61:50 - 61:52
    顶部绿叶应新鲜、有活力
  • 61:52 - 61:54
    化学反应进行得很顺利
  • 61:54 - 61:56
    -太棒了!谢谢!
  • 61:58 - 61:59
    -再来一次可以吗?
  • 61:59 - 62:04
    小伙子,怎么洗掉衣服上的草莓渍?
  • 62:05 - 62:07
    尝试用一汤匙白醋
  • 62:07 - 62:09
    加半茶匙洗衣液
  • 62:24 - 62:30
    通过AI模式
    我们正在带来全新Google智能购物体验
  • 62:31 - 62:32
    前面提到过
  • 62:33 - 62:38
    AI模式整合了网络信息和实时数据
  • 62:38 - 62:42
    在这种情况下
    这意味着既可通过Google图片获得视觉灵感
  • 62:43 - 62:49
    又能获得购物信息图谱提供的
    海量商品和零售商数据
  • 62:49 - 62:55
    其中包含超过500亿条持续更新的商品详情
  • 62:56 - 62:58
    我来演示一下这是如何实现的
  • 62:59 - 63:02
    我一直在为我的客厅寻找一块新地毯
  • 63:03 - 63:06
    因此,我给出提示:我家有一个浅灰色的沙发
  • 63:07 - 63:09
    想找一块能让房间看起来更明亮的地毯
  • 63:10 - 63:13
    我首先需要的是视觉灵感
  • 63:14 - 63:18
    Google搜索根据我的喜好
    动态生成了一个可浏览的图片拼接图
  • 63:19 - 63:23
    并显示了一些可购买的商品
  • 63:24 - 63:28
    其中就有我常用品牌的地毯
    以及风格更现代的选项
  • 63:28 - 63:31
    因为我经常搜索这类风格的物品
  • 63:32 - 63:38
    这些推荐虽好,但大多数在我家恐怕连一天都撑不过
  • 63:39 - 63:40
    于是我补充道
  • 63:43 - 63:47
    家里有四个活泼的孩子,他们经常带朋友来玩
  • 63:48 - 63:52
    Google搜索立刻意识到了那种杂乱的场面
  • 63:52 - 63:57
    于是推荐了采用耐用材质的短绒地毯或可水洗地毯
  • 63:57 - 63:59
    还附上了一些可直接购买的产品
  • 64:01 - 64:03
    不过我对地毯并不专业
  • 64:03 - 64:06
    好在Google搜索贴心地指出了需要考虑的事项
  • 64:06 - 64:09
    并提供了后续实用建议
  • 64:10 - 64:15
    原本需要几周的研究,现在只需几分钟
  • 64:16 - 64:21
    可以想象,这种全新的AI模式体验
  • 64:21 - 64:23
    对购物需求会有多实用
  • 64:24 - 64:27
    说到购物,我需要几件夏天穿的新裙子
  • 64:28 - 64:31
    Google搜索给了我一些不错的选择
  • 64:31 - 64:36
    但现在我遇到了经典网购难题
  • 64:37 - 64:41
    那就是完全不知道这些款式穿在我身上会是什么样
  • 64:42 - 64:45
    于是,我们将推出一项新的试穿功能
  • 64:45 - 64:48
    帮用户虚拟试穿
  • 64:48 - 64:52
    感受款式在身上的效果
  • 64:53 - 64:54
    我来实时演示一下
  • 64:56 - 65:02
    在一通搜索之后,我找到一条喜欢的蓝裙子
  • 65:03 - 65:06
    然后点击这个按钮试穿
  • 65:06 - 65:10
    系统提示我上传照片,并引导我进入相册
  • 65:11 - 65:12
    我有很多照片
  • 65:12 - 65:16
    于是打算选一张清晰的全身照
  • 65:17 - 65:19
    处理就开始了
  • 65:20 - 65:23
    在等待系统处理的时候
    我想介绍下背后的技术原理
  • 65:24 - 65:27
    为了打造这种规模化运作的试穿功能
  • 65:28 - 65:30
    我们需要深度理解人体结构
  • 65:31 - 65:33
    及服装在人体上的呈现效果
  • 65:33 - 65:36
    为此,我们构建了一个专门针对时尚行业训练的
  • 65:37 - 65:39
    定制图片生成模型
  • 65:40 - 65:41
    哇,处理完成了!
  • 65:50 - 65:54
    必须说实时演示成功的感觉太棒了
  • 65:56 - 65:58
    我们来继续聊背后的原理
  • 65:58 - 66:01
    该技术整合了先进的3D形体理解能力
  • 66:02 - 66:06
    能更精准地感知形状与深度
  • 66:06 - 66:09
    从而更好地呈现人体轮廓
  • 66:09 - 66:12
    这种体验完全基于你的照片
  • 66:12 - 66:16
    而非预先拍摄的图片或跟你不像的模特
  • 66:17 - 66:20
    对于你心仪的服饰
  • 66:20 - 66:27
    AI模型能够呈现面料褶皱、延展和垂坠感
  • 66:28 - 66:32
    这是一项业内领先的技术,可大规模应用
  • 66:32 - 66:34
    借助它,我们能以直观的方式
  • 66:34 - 66:39
    呈现数十亿服装产品
    在不同体型的人群身上的穿着效果
  • 66:39 - 66:41
    大家可以看到
  • 66:41 - 66:44
    这个功能让我真实感受到了裙子上身的效果
  • 66:45 - 66:48
    选好裙子后
  • 66:48 - 66:51
    Google搜索还能通过全新代理式结账功能
  • 66:52 - 66:55
    按目标价位帮我购买
  • 66:55 - 66:58
    现在回到这件裙子的页面
  • 66:58 - 67:02
    我想点击按钮,跟踪价格
  • 67:03 - 67:05
    选择尺码后
  • 67:06 - 67:07
    设定目标价
  • 67:07 - 67:10
    我打算设成50美元左右
  • 67:12 - 67:14
    跟踪功能马上启动
  • 67:14 - 67:18
    Google搜索现在将持续监测销售该裙子的网站
  • 67:18 - 67:21
    在价格降到位时通知我
  • 67:21 - 67:25
    现在我们退出实时演示
  • 67:25 - 67:27
    这里我施展一点魔法
  • 67:28 - 67:30
    假设价格现在降到位了
  • 67:31 - 67:35
    此时系统会推送类似画面中的通知
  • 67:36 - 67:37
    我确认购买后
  • 67:37 - 67:42
    结账智能体会将尺码和颜色合适的裙子
    添加到购物车中
  • 67:42 - 67:46
    我可以选择核对所有支付与配送信息
  • 67:46 - 67:49
    或直接授权智能体完成购买
  • 67:58 - 68:04
    只需点按一下,Google搜索就能
    使用Google Pay安全地代我完成购买
  • 68:04 - 68:06
    当然,从灵感激发到最终购买
  • 68:07 - 68:10
    整个流程全程由我主导
  • 68:11 - 68:13
    我们的全新智能功能
  • 68:13 - 68:18
    将最好的购物体验与顶尖AI技术
    融合在了Google搜索中
  • 68:19 - 68:22
    全新可视化购物及结账功能
  • 68:22 - 68:24
    将在未来几个月内逐步推出
  • 68:24 - 68:29
    虚拟试穿功能即日起可在实验室版本中体验
  • 68:36 - 68:38
    现在把时间交还给Liz
  • 68:46 - 68:49
    感谢Vidhya!正如Sundar所说
  • 68:49 - 68:52
    本周晚些时候即将迎来重大升级
  • 68:52 - 68:59
    Gemini 2.5定制版将集成到AI模式和AI概览中
  • 68:59 - 69:02
    这意味着,Google搜索迎来了新篇章
  • 69:03 - 69:05
    受益于此,AI概览将会把AI的实用性
  • 69:06 - 69:08
    带给核心Google搜索体验的每一个用户
  • 69:09 - 69:10
    正如你今天所见
  • 69:11 - 69:14
    AI模式是一种彻底重构的AI搜索
  • 69:14 - 69:18
    集成了我们最前沿的AI特性和功能
  • 69:18 - 69:22
    我们很激动,Google搜索迎来了新篇章
  • 69:22 - 69:27
    毫不夸张地说,用户可以真正地问它任何事
  • 69:28 - 69:30
    从最简单到最棘手的问题
  • 69:30 - 69:34
    最深的研究、个性化购物需求
  • 69:34 - 69:36
    希望代劳的琐事
  • 69:37 - 69:39
    只需提问,即可获得响应
  • 69:42 - 69:47
    好戏开场!我的魅力自然流露
  • 69:48 - 69:51
    我的风格如此惊艳,让所有人都为之震撼
  • 69:51 - 69:53
    等等!我感觉妙不可言
  • 69:54 - 69:57
    来吧,展示你如何舞动
    舞动、舞动,释放自我
  • 69:57 - 69:59
    我用崭新视角迎接挑战
  • 69:59 - 70:01
    将热情点燃,让全场沸腾
  • 70:01 - 70:03
    我们将激情调到最高点,就是这样,来吧!
  • 70:04 - 70:05
    舞动、舞动,释放精彩
  • 70:05 - 70:07
    来吧,尽情展现你的独特魅力
  • 70:07 - 70:09
    我还应该做些什么来让它更坚固?
  • 70:09 - 70:12
    为了让它更坚固
    建议在设计中运用更多三角形结构
  • 70:14 - 70:16
    已经足够完美了
  • 70:16 - 70:19
    尽情沐浴在聚光灯下,因为你值得闪耀
  • 70:20 - 70:24
    F-A-B-U-L-O-U-S,每一天都光芒四射
  • 70:24 - 70:25
    想要就来追求,勇敢出击
  • 70:25 - 70:29
    无意冒犯,只为精彩舞动
    舞动、舞动,释放精彩
  • 70:29 - 70:33
    我带来崭新的创意风格
    将热情点燃,让全场沸腾
  • 70:33 - 70:35
    我们把热情推向极致
  • 70:35 - 70:37
    就是这样,舞动、舞动,释放精彩
  • 70:37 - 70:40
    来吧,尽情展现你的独特魅力,让我大声喊出
  • 70:40 - 70:42
    就是这样,太棒了!
  • 70:43 - 70:45
    舞动、舞动,释放精彩
  • 70:45 - 70:47
    我带来崭新的创意风格
  • 70:47 - 70:49
    将热情点燃,让全场沸腾
  • 70:49 - 70:53
    我们把热情推向极致
    来吧,舞动、舞动,释放精彩
  • 70:53 - 70:58
    来吧,尽情展现你的独特魅力,光芒四射!
  • 70:58 - 71:00
    每一天都耀眼夺目
  • 71:00 - 71:01
    想要就来追求,勇敢出击
  • 71:01 - 71:03
    无意冒犯,只为精彩——等等!
  • 71:18 - 71:21
    多年来,人们一直致力于构建
  • 71:21 - 71:25
    一种不仅能给出回应,而且具有理解能力的AI助理
  • 71:25 - 71:28
    一个不仅仅等待用户提问,而是能够提前预判需求的助理
  • 71:29 - 71:32
    一个真正能为用户赋能的通用助理
  • 71:33 - 71:36
    今天,我们正朝着这个方向迈出新步伐
  • 71:37 - 71:39
    而Gemini应用正是我们实现这一目标的工具
  • 71:40 - 71:47
    我们的目标是将Gemini打造成
    最个性化、最主动、最强大的AI助理
  • 71:47 - 71:50
    而这一切始于个性化
  • 71:51 - 71:55
    如果你的AI助理真正属于你
    完全为你定制,会怎样?
  • 71:55 - 72:01
    它能学习你的特点、你的偏好
    你的项目、你的生活场景
  • 72:01 - 72:03
    而你始终处于主导地位
  • 72:04 - 72:06
    在你授权的情况下
  • 72:06 - 72:08
    你可以与它分享你所有的Google信息
  • 72:09 - 72:10
    使其成为你的延伸
  • 72:11 - 72:14
    我们将这项功能称为“个人使用场景”
  • 72:14 - 72:18
    我们已经实现了让用户与Gemini分享搜索记录
  • 72:18 - 72:22
    这样它就能知道用户曾经搜索过哪些食谱
  • 72:22 - 72:24
    并据此生成这样的回答
  • 72:25 - 72:26
    很快,你还可以添加
  • 72:26 - 72:30
    你在各种Google服务中的更多个人使用场景
  • 72:30 - 72:33
    让Gemini为你提供专属帮助
  • 72:34 - 72:36
    如果你选择启用这个功能
  • 72:36 - 72:38
    将始终掌控自己的体验
  • 72:38 - 72:40
    启用后,你可以随时查看和管理自己的信息
  • 72:40 - 72:43
    关联或解除关联各种Google应用
  • 72:44 - 72:49
    这种个性化将孕育主动型AI助理
  • 72:49 - 72:51
    带来革命性改变
  • 72:52 - 72:55
    要知道,目前大多数AI都是被动反应式的
  • 72:55 - 72:57
    你问一句,它答一句
  • 72:57 - 73:00
    但如果它能预见即将发生的事情
  • 73:00 - 73:03
    在你问它之前就帮你做好准备呢?
  • 73:04 - 73:05
    假设你是一名学生
  • 73:05 - 73:07
    你的物理考试即将来临
  • 73:07 - 73:09
    Gemini能提前一周在你的日历上圈出这场考试
  • 73:09 - 73:12
    而不是让你手忙脚乱地准备
  • 73:12 - 73:14
    它并不只是提醒你而已
  • 73:14 - 73:16
    它会为你提供个性化测验
  • 73:17 - 73:18
    这些测验整合了你的课堂材料
  • 73:18 - 73:22
    教授的讲义,甚至是你手写笔记的照片
  • 73:22 - 73:23
    这不仅仅是有用
  • 73:24 - 73:25
    这会让人感觉就像魔法一样神奇
  • 73:26 - 73:28
    再更进一步
  • 73:28 - 73:30
    设想Gemini能够基于你的兴趣
  • 73:30 - 73:34
    制作个性化讲解视频
  • 73:34 - 73:37
    帮助你更好地理解学习主题
  • 73:38 - 73:40
    例如,Gemini了解到我喜欢骑行
  • 73:41 - 73:46
    它就会用自行车相关的类比来为我讲解热力学原理
  • 73:46 - 73:48
    这就是Gemini的发展方向
  • 73:49 - 73:50
    而这一切之所以成为可能
  • 73:51 - 73:54
    都要归功于底层模型的强大能力
  • 73:55 - 73:59
    上个月,我们发布了最新的Gemini 2.5 Pro模型
  • 73:59 - 74:01
    这不只是一次升级,而是一次飞跃
  • 74:02 - 74:05
    人们正在用它创造出非凡的成果
  • 74:05 - 74:06
    他们不仅仅是进行氛围编程
  • 74:06 - 74:11
    而是能在几分钟内创造出
    完整的游戏和功能齐全的网站
  • 74:11 - 74:14
    他们只需要在脑海中构思,就能让创意变为现实
  • 74:14 - 74:17
    而且这很有趣,无论是第一次编写软件
  • 74:17 - 74:21
    还是使用Veo模型创建视频,或者生成和编辑图像
  • 74:21 - 74:23
    这些技能现在成了每个人都能掌握的“超能力”
  • 74:24 - 74:29
    因此,个性化、主动性、强大功能
  • 74:30 - 74:32
    这三个方面是AI辅助的前沿领域
  • 74:32 - 74:34
    而借助Gemini 2.5 Pro
  • 74:34 - 74:36
    我们在这三个方面都取得了重大进展
  • 74:38 - 74:39
    接下来,我们来详细了解一下
  • 74:39 - 74:42
    这些功能如何在Gemini应用中实现
  • 74:43 - 74:44
    我们今天将推出五项新功能
  • 74:45 - 74:47
    首先,我们来看看Gemini Live
  • 74:48 - 74:52
    许多用户对其自然流畅的交互和对话方式赞不绝口
  • 74:53 - 74:57
    它支持150多个国家/地区的45种以上的语言
  • 74:57 - 74:59
    它是如此直观、如此富有互动性
  • 75:00 - 75:01
    以至于用户与它的对话时长
  • 75:01 - 75:05
    是Gemini应用中文本对话的五倍
  • 75:05 - 75:07
    从我的个人经验来说
  • 75:07 - 75:11
    它非常适合在早上开车上班的路上
    交流讨论、梳理思路
  • 75:12 - 75:13
    正如Sundar提到的
  • 75:13 - 75:15
    Gemini Live现在增加了
  • 75:15 - 75:18
    出色的相机和屏幕共享功能
  • 75:18 - 75:20
    而从今天起
  • 75:20 - 75:22
    你可以在Gemini移动应用中免费使用这些功能
  • 75:22 - 75:23
    并同时支持Android和iOS设备
  • 75:30 - 75:31
    在接下来的几周内
  • 75:31 - 75:34
    你将能够把Gemini Live连接到你喜爱的部分应用中
  • 75:34 - 75:37
    如日历、地图、Keep和Tasks
  • 75:37 - 75:40
    这样一来,你只需将摄像头对准邀请内容
  • 75:40 - 75:43
    就能让Gemini立即将其添加到日历中
  • 75:44 - 75:48
    或者,在面对室友手写的潦草购物清单时
  • 75:48 - 75:52
    Gemini Live能够将那些潦草的笔记
    转换成Google Keep中的整洁列表
  • 75:53 - 75:57
    我们为Gemini Live规划了众多令人期待的新功能
  • 75:57 - 76:01
    这些功能正在刚才展示的Project Astra中进行原型设计
  • 76:02 - 76:03
    当这些功能成熟后
  • 76:03 - 76:06
    我们会在Gemini Live中推出,让所有人都能使用
  • 76:07 - 76:10
    由于Gemini和Android合作紧密
  • 76:10 - 76:12
    这些创新功能中的大部分
  • 76:12 - 76:16
    会在整个生态系统中的Android设备上大放异彩
  • 76:16 - 76:17
    所以,敬请期待未来的更多更新!
  • 76:18 - 76:23
    实时交互确实很棒,但有时候,你需要深入挖掘
  • 76:23 - 76:25
    梳理一些复杂的内容
  • 76:26 - 76:28
    这就是Deep Research的用武之地
  • 76:28 - 76:31
    从今天起,你可以在使用Deep Research时
  • 76:31 - 76:34
    上传自己的文件来指导研究智能体
  • 76:34 - 76:37
    这也是用户呼声最高的一项功能
  • 76:37 - 76:41
    很快,你还能够将Deep Research
    与Google云端硬盘和Gmail连接
  • 76:42 - 76:44
    以便轻松地从中导入信息
  • 76:45 - 76:48
    假如你获得了一份精彩、翔实的研究报告
  • 76:48 - 76:52
    比如这份关于彗星在太空中运行轨迹的科学分析
  • 76:53 - 76:57
    但要如何才能让它变得易于理解又能吸引读者呢?
  • 76:58 - 77:00
    以及如何分享这些精彩内容呢?
  • 77:01 - 77:02
    这就是Canvas大显身手的时刻
  • 77:02 - 77:06
    Canvas是Gemini提供的交互式协同创作空间
  • 77:06 - 77:07
    现在借助Canvas
  • 77:08 - 77:12
    只需轻轻一点就能转换报告格式
  • 77:12 - 77:16
    你可以将它转换成动态网页、信息图、实用测验
  • 77:16 - 77:19
    甚至是支持45种语言的自定义播客
  • 77:20 - 77:22
    要想更进一步,你可以在Canvas中通过氛围编程
  • 77:22 - 77:27
    创建各种精彩内容,让它按照你的想法不断完善作品
  • 77:28 - 77:30
    直到创造出你脑海中的构想
  • 77:31 - 77:33
    例如,我们的一位Google同事
  • 77:33 - 77:37
    仅仅是描述了自己的构想,然后与Gemini展开协作
  • 77:37 - 77:40
    便创造出了这个精确的交互式彗星运行模拟
  • 77:41 - 77:43
    现在,你也可以分享这样的应用
  • 77:43 - 77:47
    让其他人也能一起查看、修改甚至二次创作
  • 77:48 - 77:51
    这种能够转化任何内容的能力
  • 77:51 - 77:53
    开创了使用Gemini的全新方式
  • 77:55 - 77:58
    今天,我们还将推出Gemini的另一种全新使用方式
  • 77:58 - 78:01
    Chrome中的Gemini
  • 78:02 - 78:07
    它将成为你在桌面端浏览网页时的AI助理
  • 78:08 - 78:10
    最棒的是
  • 78:10 - 78:15
    它能直接理解你当前浏览的页面内容
  • 78:15 - 78:17
    只要你想到任何问题,都能获得针对性的解答
  • 78:18 - 78:21
    我个人最喜欢用它来对比一长串的评价内容
  • 78:21 - 78:23
    比如这个露营网站
  • 78:24 - 78:25
    从本周开始
  • 78:25 - 78:27
    我们将向美国地区的Gemini订阅者
  • 78:27 - 78:29
    推出Chrome中的Gemini
  • 78:36 - 78:39
    至此,我们已经体验了测验、Gemini Live对话
  • 78:39 - 78:42
    学习了彗星和露营地的知识
  • 78:42 - 78:43
    现在,我们来创造一些内容
  • 78:44 - 78:45
    从今天起
  • 78:45 - 78:50
    Google旗下最先进、功能最强大的图像生成模型
  • 78:50 - 78:51
    正式在Gemini应用上推出
  • 78:52 - 78:56
    它叫做Imagen 4,这是又一次重大飞跃
  • 79:00 - 79:06
    生成的图像更加饱满,色彩更加细腻,细节更为精细
  • 79:06 - 79:08
    例如各种场景中的阴影层次
  • 79:09 - 79:11
    以及照片中栩栩如生的水滴效果
  • 79:11 - 79:14
    经过长期的研究
  • 79:14 - 79:16
    我可以肯定地说,这些模型生成的图像质量
  • 79:17 - 79:21
    已经实现了从“不错”到“出色”再到“惊艳”的飞跃
  • 79:22 - 79:26
    Imagen 4在文字和排版方面也有很大提升
  • 79:26 - 79:29
    之前的模型虽然能生成不错的图像
  • 79:30 - 79:33
    但在图像中加入文字时总会出现瑕疵
  • 79:33 - 79:37
    举个例子,假设我想创建一张音乐节海报
  • 79:38 - 79:40
    将那只Chrome恐龙作为主角
  • 79:40 - 79:44
    Imagen 4不仅能够准确呈现文本内容和正确拼写
  • 79:44 - 79:47
    它还能做出富有创意的设计决策
  • 79:47 - 79:49
    比如在字体中融入恐龙骨骼元素
  • 79:49 - 79:53
    调整文字间距、字号大小和整体布局
  • 79:53 - 79:55
    创造出这张很棒的海报
  • 79:55 - 80:00
    总之,图像质量更高、生成速度更快、文字效果更好
  • 80:00 - 80:05
    这样一来,你就可以制作海报、派对邀请函等内容
  • 80:06 - 80:08
    借助原生图像生成功能
  • 80:08 - 80:11
    你还可以直接在应用中轻松编辑这些图像
  • 80:12 - 80:16
    我们还开发了一个快速版本的Imagen 4
  • 80:16 - 80:18
    我们非常期待你能亲自体验它
  • 80:18 - 80:23
    它的速度是我们先前模型的十倍
  • 80:23 - 80:25
    让你能够快速尝试和完善各种创意
  • 80:26 - 80:28
    最后,我想向大家展示一项新内容
  • 80:29 - 80:30
    这些生成的图像的确很棒
  • 80:31 - 80:35
    但要讲述一个完整的故事有时需要动作和声音的配合
  • 80:36 - 80:38
    去年12月,我们发布的Veo 2模型
  • 80:38 - 80:42
    重新定义了整个行业的视频生成标准
  • 80:42 - 80:46
    如果你注意到了Demis昨天发布的煎炒洋葱视频
  • 80:46 - 80:48
    就能猜到我们还有更多新鲜出炉的惊喜
  • 80:49 - 80:53
    今天,我很高兴地宣布推出我们最先进的模型
  • 80:54 - 80:55
    Veo 3
  • 81:02 - 81:05
    与今天发布的其他内容一样
  • 81:05 - 81:07
    它从今天起就已开放使用
  • 81:12 - 81:14
    视觉质量更加出色
  • 81:14 - 81:18
    对物理规律的理解更加强大
  • 81:18 - 81:24
    但这次质的飞跃在于,Veo 3实现了原生音频生成
  • 81:24 - 81:31
    这意味着Veo 3能够生成音效
  • 81:31 - 81:34
    背景音,甚至对话
  • 81:35 - 81:38
    只需输入提示,你的角色就会开口说话
  • 81:39 - 81:43
    这是森林中一只睿智的老猫头鹰与一只紧张的小獾
  • 81:43 - 81:44
    敬请聆听
  • 81:54 - 81:56
    他们今天留下了一个球
  • 81:57 - 81:59
    它能弹得比我跳得还高!
  • 82:00 - 82:02
    这是什么神奇的魔法?
  • 82:15 - 82:19
    很酷吧?Veo不仅添加了森林的声音
  • 82:19 - 82:20
    还添加了对话
  • 82:21 - 82:27
    内容创作正在进入结合音频和视频生成的新时代
  • 82:27 - 82:29
    无论是画面还是声音都栩栩如生
  • 82:29 - 82:31
    让人感觉身临其境
  • 82:31 - 82:35
    在这个视频中,就像真的坐在这艘船上
  • 82:37 - 82:39
    这片海洋,是一股无与伦比的力量
  • 82:39 - 82:41
    一种未被驯服的野性力量
  • 82:42 - 82:43
    她指挥着你的每一次划桨
  • 82:44 - 82:45
    伴随着每一道破浪的闪光
  • 82:53 - 82:56
    如此逼真的画面、丰富的情感表达
  • 82:56 - 83:00
    匹配的口型,以及背景中的海洋
  • 83:00 - 83:03
    作为一款强大的创意工具
  • 83:03 - 83:06
    Veo的发展速度令人叹为观止
  • 83:07 - 83:09
    我们一直在与电影行业密切合作
  • 83:10 - 83:13
    共同探索Veo的可能性,直至做好发布的准备
  • 83:13 - 83:15
    稍后也将为大家分享更多具体内容
  • 83:16 - 83:18
    以上就是Gemini的更新内容
  • 83:19 - 83:22
    从今天起,Gemini Live的各项功能
  • 83:22 - 83:25
    在Android和iOS上完全免费提供
  • 83:25 - 83:29
    Deep Research和Canvas迎来了迄今为止最大的更新
  • 83:29 - 83:31
    正如之前介绍的
  • 83:31 - 83:34
    支持多步骤操作的Agent Mode也即将推出
  • 83:34 - 83:38
    我们推出了Chrome中的Gemini,帮助你浏览网页
  • 83:38 - 83:40
    你可以使用全新的Imagen 4和Veo 3模型
  • 83:40 - 83:45
    创建令人惊叹的图像和音画结合的视频
  • 83:45 - 83:48
    所有这些功能都将在Gemini应用中整合
  • 83:48 - 83:54
    助力我们打造最个性化、最主动、最强大的AI助理
  • 83:55 - 83:57
    接下来,Jason将为大家详细介绍
  • 83:57 - 84:01
    这些生成模型如何为创意表达开启全新可能
  • 84:01 - 84:02
    有请Jason
  • 84:12 - 84:13
    谢谢,Josh
  • 84:14 - 84:18
    无论你是创作者、音乐人还是电影制作人
  • 84:19 - 84:22
    生成式媒体技术正在拓展创意表达的可能性
  • 84:22 - 84:26
    通过与艺术家和创作者一直以来的密切合作
  • 84:26 - 84:30
    我们开发了能够赋能其创作过程的技术
  • 84:31 - 84:35
    例如,我们与音乐人合作开发了Music AI Sandbox
  • 84:35 - 84:37
    这是一款专为音乐专业人士设计的工具
  • 84:37 - 84:39
    让他们能够在创作过程中
  • 84:39 - 84:42
    探索我们的音乐生成模型Lyria所带来的可能性
  • 84:42 - 84:46
    例如这段视频记录了音乐传奇人物、格莱美获奖歌手
  • 84:46 - 84:48
    作曲家Shankar Mahadevan
  • 84:48 - 84:51
    使用Music AI Sandbox和Lyria的场景
  • 84:52 - 84:57
    我是Shankar Mahadevan
    一名音乐作曲家、歌手、制作人
  • 84:57 - 84:58
    大家都说我笑口常开
  • 85:01 - 85:03
    使用Sandbox的体验非常棒
  • 85:03 - 85:07
    我们输入需求后,它生成了一段背景音乐
  • 85:08 - 85:10
    我们在此基础上创作出了完整的歌曲
  • 85:15 - 85:17
    对一名音乐人而言,这是一个极具启发性的工具
  • 85:18 - 85:20
    就像你打开一扇门,发现了另一个空间
  • 85:20 - 85:23
    然后再开一扇门,发现更多可能性
  • 85:23 - 85:25
    AI就是这样,不断开启新视野
  • 85:51 - 85:52
    太棒了
  • 85:56 - 85:58
    我们最近推出的Lyria 2模型
  • 85:58 - 86:02
    可以生成高保真音乐和专业级音频
  • 86:02 - 86:04
    它生成的音乐旋律优美动听
  • 86:04 - 86:06
    还能编入独唱和合唱人声部分
  • 86:07 - 86:10
    它能够创作出富有表现力且层次丰富的内容
    例如接下来的这段音乐
  • 86:27 - 86:30
    Lyria 2从今天起正式向企业用户
  • 86:30 - 86:32
    和YouTube创作者和专业音乐人开放
  • 86:33 - 86:37
    这种协作理念不仅体现在我们构建的产品中
    也体现在我们的构建方式上
  • 86:38 - 86:40
    目前,无论是个人还是组织
  • 86:40 - 86:43
    都难以有效识别AI生成的图像
  • 86:44 - 86:50
    随着技术的进步和生成的音乐
    音频、图像、视频日益逼真
  • 86:50 - 86:52
    这一情况只会更加泛滥
  • 86:52 - 86:55
    因此,我们在这一领域持续创新
  • 86:56 - 86:59
    两年前,我们开创了SynthID技术
  • 86:59 - 87:02
    它能在生成的媒体内容中嵌入不可见的水印
  • 87:02 - 87:07
    到目前为止,已有超过100亿生成的内容带有水印
  • 87:08 - 87:10
    另外,我们也在进一步扩大合作伙伴关系
  • 87:10 - 87:13
    确保更多内容带有SynthID水印
  • 87:13 - 87:16
    同时让更多组织能够检测到水印
  • 87:16 - 87:20
    最后,我们还简化了水印的检测机制
  • 87:20 - 87:23
    我们新推出的SynthID检测器能够识别
  • 87:23 - 87:27
    图像、音频、文本或视频是否含有SynthID水印
  • 87:27 - 87:30
    即使只是部分内容被标记也能识别
  • 87:31 - 87:34
    这一功能从今天起开始向早期测试员逐步开放
  • 87:40 - 87:43
    凭借广泛的合作,我们还开始探索Veo
  • 87:43 - 87:44
    在电影制作领域的应用
  • 87:45 - 87:49
    最近,我们与极富远见的导演Darren Aronofsky
  • 87:49 - 87:52
    及其创新故事创作公司Primordial Soup达成了合作
  • 87:52 - 87:55
    共同探索如何塑造Veo的能力以满足创作需求
  • 87:55 - 87:58
    让艺术家引领技术创新方向
  • 87:59 - 88:02
    通过这一合作,我们将世界顶尖的视频生成模型
  • 88:02 - 88:05
    交付给最杰出的电影制作人,推动技术突破
  • 88:06 - 88:09
    打造更具创意性和情感表现力的创作工具
  • 88:10 - 88:12
    在计划制作的三部短片中
  • 88:12 - 88:15
    第一部作品是导演Eliza McNitt的《ANCESTRA》
  • 88:16 - 88:17
    现在就让我们来一睹为快
  • 88:19 - 88:22
    电影本质上是一种深刻的人类行为
  • 88:22 - 88:24
    它能将人们与彼此的故事联系起来
  • 88:25 - 88:29
    它能够将我们从自己的经历中抽离出来
  • 88:29 - 88:31
    带我们踏上另一段旅程
  • 88:32 - 88:34
    我认为这一点永远不会改变
  • 88:34 - 88:39
    这个故事虽然跨越整个宇宙的历史长河
  • 88:39 - 88:41
    但本质上讲述的是一位母亲的经历
  • 88:41 - 88:45
    以及当她那有心脏缺陷的孩子刚出生时所发生的一切
  • 88:46 - 88:48
    我们拍摄了演员真实的情感表演
  • 88:48 - 88:53
    但同时也通过AI生成了
    那些用传统方式根本无法拍摄的画面
  • 88:54 - 88:57
    我想要婴儿紧握着母亲的手指那样的画面
  • 88:58 - 88:59
    展现他们之间那种幸福的时刻
  • 88:59 - 89:00
    是的
  • 89:02 - 89:04
    Veo是一个生成视频模型
  • 89:04 - 89:06
    但在我看来,它更像是一个全新的镜头
  • 89:06 - 89:08
    让我能够以不同方式想象身边的一切
  • 89:10 - 89:11
    探索这些模型的优势和局限
  • 89:11 - 89:18
    并尝试将它们打造成创作工具,这个过程非常有趣
  • 89:20 - 89:24
    老实说,我从未想过要讲述我出生那天的故事
  • 89:24 - 89:25
    但现在我们拍出来了
  • 89:32 - 89:33
    这原本只是一次普通的产检而已
  • 89:33 - 89:34
    紧急剖腹产!
  • 89:35 - 89:36
    胎儿有危险
  • 89:36 - 89:37
    我们这里需要帮助!
  • 89:37 - 89:38
    我们必须立刻手术
  • 89:38 - 89:40
    我的孩子能保住吗?
  • 89:40 - 89:41
    我们会尽一切努力
  • 89:41 - 89:42
    那我也会平安无事吗?
  • 89:43 - 89:45
    来自在你之前存在的每一个生命
  • 89:46 - 89:51
    来自为你的诞生而消亡的每一颗星辰
  • 90:09 - 90:10
    真是令人惊叹的杰作
  • 90:17 - 90:20
    Eliza巧妙地将真人实景表演
  • 90:20 - 90:25
    与Veo生成的内容,包括微观世界、宇宙景象
  • 90:25 - 90:27
    以及她自己作为新生儿的画面融为一体
  • 90:28 - 90:31
    这种方法开辟了全新的叙事可能性
  • 90:31 - 90:34
    使Eliza能够将宏大的电影视觉效果
  • 90:34 - 90:37
    和深厚的情感表达带入一个极为个人化的故事
  • 90:38 - 90:41
    这次合作也帮助我们塑造了Veo的功能
  • 90:41 - 90:44
    以满足像Eliza这样的故事创作者的需求
  • 90:44 - 90:47
    我们为电影制作人开发了多项新功能
  • 90:47 - 90:48
    所以当你创作视频时
  • 90:48 - 90:50
    无论你提供什么创作元素
  • 90:50 - 90:54
    角色、场景还是艺术风格
    Veo都能确保它们在整个创作过程中保持一致性
  • 90:55 - 90:57
    你还可以像真正的导演一样指挥Veo
  • 90:57 - 90:59
    提供精确的相机指令
  • 90:59 - 91:01
    让它沿着特定路径拍摄
  • 91:02 - 91:04
    这些功能将帮助电影制作人
  • 91:04 - 91:07
    用Veo顺畅地表达自己的创意
  • 91:08 - 91:10
    而我们的创新并未止步于此
  • 91:11 - 91:12
    下面请Josh重返舞台
  • 91:12 - 91:13
    为大家介绍更多内容
  • 91:21 - 91:22
    谢谢,Jason
  • 91:23 - 91:25
    在与创意社区合作的基础上
  • 91:25 - 91:30
    我们为创作者打造了一款全新的AI电影制作工具
  • 91:30 - 91:35
    它结合了Veo、Imagen和Gemini三大技术的精髓
  • 91:35 - 91:39
    一款源自创作者、为了创作者打造的工具
  • 91:40 - 91:43
    它的设计灵感源自创作者那种
  • 91:43 - 91:46
    完全沉浸在创作中思如泉涌的奇妙境界
  • 91:46 - 91:50
    我们将这款工具命名为Flow,从今天起正式推出
  • 91:50 - 91:52
    我来给大家展示一下它的运作方式
  • 91:54 - 91:56
    我们来看看我正在创作的一个项目
  • 91:56 - 91:58
    故事的主角是一位老爷爷
  • 91:58 - 92:02
    他正在一位鸟类朋友的帮助下制造一辆会飞的汽车
  • 92:02 - 92:03
    这些是我的素材
  • 92:04 - 92:06
    这位老人和他的汽车
  • 92:06 - 92:07
    借助简便的界面
  • 92:07 - 92:09
    你可以轻松将自己的图像上传到工具中
  • 92:10 - 92:12
    或者,你可以使用内置的Imagen
  • 92:12 - 92:14
    即时生成所需的图像
  • 92:14 - 92:19
    只需简单描述就能生成一张定制金色变速杆图像
  • 92:19 - 92:21
    看,相当不错
  • 92:22 - 92:26
    接下来,你可以开始把所有这些素材组合起来
  • 92:26 - 92:28
    只需输入一条提示
  • 92:28 - 92:32
    你可以描述想要的效果,包括非常精确的镜头控制
  • 92:32 - 92:35
    Flow能将所有素材安排到恰当的位置
  • 92:35 - 92:38
    我可以在场景构建器中继续进行调整迭代
  • 92:38 - 92:40
    接下来是最精彩的部分
  • 92:41 - 92:43
    如果我想继续拍摄场景的下一个镜头
  • 92:43 - 92:47
    只要点一下这个加号,新镜头就自动生成了
  • 92:47 - 92:50
    我只需用文字描述接下来想要呈现的场景内容
  • 92:50 - 92:53
    比如在后座加上一只3米高的鸡
  • 92:53 - 92:55
    Flow将完成剩下的工作
  • 92:55 - 92:58
    角色将保持一致,场景也将保持一致
  • 92:58 - 93:00
    整个过程行云流水
  • 93:00 - 93:03
    如果对有些地方不太满意,也没关系
  • 93:03 - 93:06
    你可以像使用其他视频剪辑工具一样
  • 93:07 - 93:09
    随时返回剪掉那些不合适的片段
  • 93:10 - 93:13
    但Flow还支持反向操作
  • 93:13 - 93:15
    你还可以用它来延长素材片段
  • 93:16 - 93:19
    这样,我就得到了我一直追求的理想收尾镜头
  • 93:20 - 93:23
    所有片段制作完毕后,我可以把它们下载下来
  • 93:24 - 93:26
    然后把它们导入我常用的视频剪辑软件
  • 93:26 - 93:28
    再加上一小段Lyria生成的配乐
  • 93:29 - 93:33
    就这样,老爷爷终于开上了自己的“飞车”
  • 93:56 - 93:58
    简直太棒了
  • 93:58 - 94:02
    接下来,让我们听听几位新锐AI电影制作人的心声
  • 94:02 - 94:04
    他们在Flow的开发过程中为我们提供了宝贵意见
  • 94:04 - 94:07
    他们分享了自己使用Flow的感受
  • 94:07 - 94:09
    以及他们如何让这一工具变得更出色
  • 94:09 - 94:10
    一起来看看吧
  • 94:13 - 94:15
    我不知道自己是否走在正确的道路上
  • 94:15 - 94:17
    但一直在努力探索
  • 94:18 - 94:22
    我不断探索,不断质疑
  • 94:22 - 94:24
    直到某一刻,有些东西悄然改变
  • 94:25 - 94:27
    我不再纠结于正确与否,只是专注去做
  • 94:30 - 94:35
    然后,那些散落的拼图开始慢慢归位
  • 94:39 - 94:42
    我的思维变得非常清晰
  • 94:42 - 94:47
    无数种可能在我脑海中闪现
  • 94:47 - 94:50
    就像穿越时空般奇妙
  • 94:50 - 94:52
    当我以上帝视角审视身为创作者的自己
  • 94:52 - 94:54
    以及我所创作的不同世界中的角色
  • 94:54 - 94:56
    我感觉这些角色仿佛有着自己的生命
  • 94:56 - 94:59
    尽管我知道故事情节的走向由我掌控
  • 95:00 - 95:02
    似乎在某个时刻
  • 95:02 - 95:04
    这些故事开始沿着自己的脉络逐渐展开
  • 95:05 - 95:09
    你知道,你的故事可以有无数种结局
  • 95:11 - 95:15
    用Flow创作的作品不是简单的素材堆砌
  • 95:16 - 95:20
    它就像花园里的花,肆意绽放
  • 95:21 - 95:25
    它自然生长,充满生命力,浑然天成
  • 95:26 - 95:28
    我没有刻意去安排什么
  • 95:28 - 95:31
    那些画面只是在等着我找到它们
  • 95:31 - 95:34
    当我有这种感觉时,我就知道自己找对了方向
  • 95:55 - 95:57
    真是叹为观止,听到这些电影制作人讲述
  • 95:57 - 95:59
    如何将不可思议的想象变为现实
  • 96:00 - 96:02
    我们希望通过我们的工具
  • 96:02 - 96:05
    让大家都能享受这种自由构建、挥洒创意的感觉
  • 96:06 - 96:08
    所以我很激动地宣布
  • 96:08 - 96:11
    今天,我们将升级Google的两大AI订阅方案
  • 96:12 - 96:14
    我们将推出Google AI Pro
  • 96:14 - 96:17
    以及全新的Google AI Ultra
  • 96:18 - 96:21
    我们将面向全球推出Google AI Pro
  • 96:21 - 96:23
    相比Google AI的免费版本
  • 96:23 - 96:25
    你将拥有全套Google AI产品的使用权
  • 96:25 - 96:28
    并获享更高的用量限额和特殊功能
  • 96:28 - 96:31
    其中包括Gemini应用的Pro版本
  • 96:31 - 96:33
    也就是先前的Gemini Advanced
  • 96:34 - 96:36
    然后让我来介绍一下Google AI Ultra
  • 96:37 - 96:40
    它专门面向行业开拓者和先行者
  • 96:40 - 96:43
    以及Google前沿AI技术的尝鲜者
  • 96:44 - 96:47
    该方案将为用户提供最高用量限额
  • 96:47 - 96:49
    订阅者还可以抢先体验
  • 96:49 - 96:51
    Google发布的各项新产品和功能
  • 96:52 - 96:54
    Google AI Ultra今天仅面向美国推出
  • 96:54 - 96:56
    并将很快推广至全球
  • 96:57 - 96:59
    你可以把这个Ultra方案当成是
  • 96:59 - 97:01
    你专属的Google AI VIP通行证
  • 97:02 - 97:04
    订阅Google AI Ultra
  • 97:04 - 97:06
    你就能获得超高用量限额
  • 97:06 - 97:08
    等到2.5 Pro Deep Think模式推出后
  • 97:08 - 97:11
    还可以在Gemini应用中使用这种模式
  • 97:11 - 97:16
    你还可以抢先体验我们今天发布的Veo 3和Flow
  • 97:17 - 97:18
    该方案还附赠
  • 97:18 - 97:21
    YouTube Premium会员和海量存储空间
  • 97:21 - 97:25
    我们热切期待看到,借助这些全新订阅方案
  • 97:25 - 97:28
    你将构建、创造和挖掘出怎样的精彩
  • 97:28 - 97:30
    下面,让我们一同展望未来
  • 97:31 - 97:34
    探索我们将如何使用AI与现实世界互动
  • 97:34 - 97:36
    有请Shahram
  • 97:50 - 97:51
    大家好
  • 97:52 - 97:56
    此刻,Android平台正在发生许多激动人心的变化
  • 97:57 - 98:00
    在这个平台中,你将率先预见未来
  • 98:01 - 98:03
    在上周的Android Show上
  • 98:03 - 98:06
    我们公布了Android 16和Wear OS 6
  • 98:06 - 98:10
    全新的大胆设计和重大更新
  • 98:11 - 98:15
    当然,Android也是体验Google AI的绝佳平台
  • 98:16 - 98:19
    你今天看到的许多Gemini突破性创新
  • 98:19 - 98:21
    都会在不久之后登陆Android
  • 98:22 - 98:25
    你现已可以通过电源按钮立即访问Gemini
  • 98:26 - 98:29
    它能理解你的意图和上下文,并随时为你提供帮助
  • 98:30 - 98:33
    Android不止是手机系统
  • 98:33 - 98:36
    更是一个完整的设备生态系统
  • 98:36 - 98:38
    在接下来的几个月
  • 98:38 - 98:43
    我们将把Gemini引入你的手表、汽车仪表盘
  • 98:43 - 98:44
    甚至电视
  • 98:45 - 98:46
    无论你身在何处
  • 98:47 - 98:51
    都会有一位有用的AI助理伴你左右,让你的生活更轻松
  • 98:52 - 98:54
    那么,要不要尝试一些新兴的设备形态
  • 98:54 - 98:59
    让我们以全新方式体验AI助理?
  • 98:59 - 99:03
    这正是我们打造Android XR的原因
  • 99:10 - 99:14
    它是首个在Gemini时代构建的Android平台
  • 99:14 - 99:19
    支持不同应用场景的各种设备
  • 99:19 - 99:23
    从头戴设备到智能眼镜,以及其他各种智能设备
  • 99:24 - 99:27
    我们认为,没有哪种扩展现实设备是万能的
  • 99:27 - 99:30
    你在一天当中会用到不同的设备
  • 99:31 - 99:36
    比如,在看电影、玩游戏或处理工作时
  • 99:36 - 99:39
    你想要的是沉浸式头戴设备
  • 99:39 - 99:43
    但外出时,你会想要一副轻便的智能眼镜
  • 99:43 - 99:47
    让你不用掏出手机就能获得及时的信息
  • 99:48 - 99:52
    我们携手三星共同打造了Android XR
  • 99:52 - 99:55
    并与高通合作,针对骁龙处理器对其进行了优化
  • 99:56 - 99:59
    自从去年Android XR开发者预览版发布以来
  • 100:00 - 100:03
    已有数百名开发者在为该平台构建应用
  • 100:03 - 100:06
    我们也在为Android XR重新构建
  • 100:06 - 100:08
    你喜爱的各种Google应用
  • 100:08 - 100:10
    由于它是Android系统
  • 100:10 - 100:13
    所以你的手机和平板应用也与它兼容
  • 100:14 - 100:16
    今天,我想跟大家分享
  • 100:16 - 100:22
    Gemini如何颠覆头戴设备和智能眼镜用户的体验
  • 100:23 - 100:24
    在这些设备上
  • 100:24 - 100:29
    AI助理会以更丰富的方式理解你的上下文和意图
  • 100:29 - 100:31
    全天候为你提供支持
  • 100:32 - 100:34
    让我们从头戴设备中的Gemini说起
  • 100:35 - 100:40
    这是三星的Project Moohan,首款Android XR设备
  • 100:47 - 100:50
    Moohan提供无限延展的屏幕空间
  • 100:50 - 100:53
    让你在Gemini的陪伴下尽情探索各种应用
  • 100:53 - 100:55
    Android XR还集成了Google地图
  • 100:55 - 100:57
    只要告诉Gemini你想去哪里
  • 100:58 - 101:01
    它就能带你“瞬间传送”到世界任何角落
  • 101:01 - 101:05
    你可以和AI助理谈论你看到的一切
  • 101:06 - 101:10
    并让它调出你想要探索的视频和网站
  • 101:11 - 101:15
    我们都希望能买到自己支持球队的季票
  • 101:16 - 101:20
    想象一下,当你使用Moohan在MLB应用上观看球赛
  • 101:20 - 101:21
    你将仿佛置身现场
  • 101:22 - 101:25
    还可以一边观赛一边和Gemini讨论球员和比赛数据
  • 101:27 - 101:32
    三星的Project Moohan将于今年晚些时候发售
  • 101:32 - 101:36
    我们迫切期待你们能亲身体验这款设备
  • 101:37 - 101:41
    现在,让我们把注意力转向智能眼镜
  • 101:41 - 101:46
    众所周知,我们在智能眼镜领域耕耘超过十年
  • 101:46 - 101:47
    从未停下脚步
  • 101:48 - 101:53
    搭载Android XR的智能眼镜满载先进科技
  • 101:53 - 101:56
    但无比轻盈,适合全天佩戴
  • 101:57 - 101:59
    眼镜内置镜头和麦克风
  • 101:59 - 102:03
    让Gemini能够“看到”和“听到”这个世界
  • 102:03 - 102:08
    扬声器则让你可以与AI对话、播放音乐或接听电话
  • 102:08 - 102:10
    你也可以通过镜片内置显示屏
  • 102:11 - 102:14
    以私密的方式在需要时查看有用的信息
  • 102:16 - 102:17
    这款眼镜可以与你的手机连接
  • 102:17 - 102:21
    让你不用动手也能访问应用
  • 102:22 - 102:26
    这一切都让智能眼镜成为天然适合AI的设备形态
  • 102:26 - 102:30
    让Gemini的强大功能随时伴你左右
  • 102:30 - 102:33
    所以,与摘下眼镜才能变身的超人不同
  • 102:33 - 102:36
    戴上这款智能眼镜,你就能获得“超能力”
  • 102:38 - 102:42
    好了,谁想看Android XR眼镜的最新演示?
  • 102:48 - 102:53
    让我们看看它在最忙乱的环境中表现如何
  • 102:54 - 102:55
    比如…I/O大会的后台
  • 102:56 - 102:59
    我们的“超级女侠”Nishtha就在后台
  • 102:59 - 103:02
    她将向我们展示这款眼镜在真实环境中的使用效果
  • 103:02 - 103:05
    我现在就给她发个消息,然后我们马上开始
  • 103:09 - 103:10
    大家好!
  • 103:11 - 103:13
    现在,你们应该能在大屏幕上看到
  • 103:13 - 103:16
    我通过Android XR智能眼镜镜片看到的一切
  • 103:16 - 103:18
    比如这杯美味的咖啡
  • 103:19 - 103:20
    还有Shahram刚刚发来的这条消息
  • 103:20 - 103:22
    让我们看看他说了什么
  • 103:24 - 103:26
    很好,现在就是见证奇迹的时刻
  • 103:26 - 103:28
    我要启动Gemini,开始演示
  • 103:30 - 103:32
    给Shahram发一条消息,告诉他我已经开始了
  • 103:32 - 103:34
    然后把我的通知静音
  • 103:37 - 103:39
    好的,我已经给他发了消息
  • 103:39 - 103:41
    并且把你所有的通知静音了
  • 103:41 - 103:42
    很好
  • 103:43 - 103:44
    嘿,Nishtha!
  • 103:44 - 103:45
    嘿,Dieter!
  • 103:45 - 103:49
    你的灯亮着,看来我们已经开始直播了?
  • 103:49 - 103:51
    是的,我们已经和I/O大会的工作人员连上线了
  • 103:52 - 103:55
    大家好。从这个视角看I/O大会,真是太棒了!
  • 103:55 - 103:56
    Nishtha,你答应过我
  • 103:56 - 103:59
    只要我来帮忙,就送我一副Android XR眼镜
  • 104:00 - 104:01
    说话算数吗?
  • 104:01 - 104:02
    当然!
  • 104:02 - 104:03
    待会结束后我们去喝杯咖啡
  • 104:03 - 104:04
    我会把你的智能眼镜带过去!
  • 104:04 - 104:05
    太棒了!待会见!祝你演示顺利
  • 104:05 - 104:06
    谢谢
  • 104:06 - 104:10
    大家可以看到,我们在后台,这里真是热闹非凡
  • 104:10 - 104:14
    那是职业篮球运动员Giannis戴着我们的眼镜吗?
  • 104:15 - 104:16
    我太喜欢这眼镜了!
  • 104:16 - 104:19
    它解放了我的双手,让我随时能来个双手击掌
  • 104:19 - 104:23
    太棒了,我继续来展示这副眼镜的功能
  • 104:24 - 104:26
    今天一整天,我都对这面照片墙很好奇
  • 104:27 - 104:31
    比如这是什么乐队,他们和这个地方有什么联系?
  • 104:37 - 104:39
    这是Counting Crows
  • 104:39 - 104:41
    一支来自旧金山湾区的传奇摇滚乐队
  • 104:41 - 104:43
    他们在Shoreline Amphitheatre演出过很多次
  • 104:44 - 104:46
    这里通常被视为是他们的返乡主场
  • 104:46 - 104:50
    天哪!你能给我看看他们在这里演出时的照片吗?
  • 104:53 - 104:56
    当然,这有一张,想让我播放一首他们的歌曲吗?
  • 104:56 - 104:59
    好啊,我可以一边听一边走向舞台
  • 105:03 - 105:06
    太好了!请听Counting Crows的《Under the Aurora》
  • 105:07 - 105:10
    好了,大家准备好一睹这副眼镜的风采了吗?
  • 105:10 - 105:12
    让我们欢迎Nishtha!
  • 105:14 - 105:15
    Nishtha,欢迎欢迎!
  • 105:15 - 105:16
    大家好!
  • 105:19 - 105:22
    谢谢你为我们带来这段星光熠熠的幕后之旅
  • 105:22 - 105:24
    对了,你现在要约Dieter去喝咖啡吗?
  • 105:24 - 105:28
    当然…刚刚工作人员在后台给了我一杯超棒的咖啡
  • 105:28 - 105:30
    所以让来我试试一些好玩的功能
  • 105:31 - 105:35
    Gemini,刚刚那杯咖啡上的咖啡店名字是什么?
  • 105:38 - 105:40
    嗯…可能是Bloomsgiving
  • 105:40 - 105:41
    据我所知
  • 105:41 - 105:43
    那是卡斯特罗街上一家充满活力的咖啡馆
  • 105:43 - 105:45
    记性真好
  • 105:51 - 105:53
    你能给我看看那家咖啡馆的照片吗?
  • 105:53 - 105:54
    我想看看那里的氛围
  • 105:57 - 105:58
    没问题
  • 105:58 - 106:00
    这些是来自Google地图的照片,请问有帮助吗?
  • 106:00 - 106:01
    哦,我知道那个地方
  • 106:01 - 106:05
    它是一家花店,同时也卖咖啡,但它在市中心
  • 106:05 - 106:08
    好吧,Gemini,我走过去需要多久?
  • 106:12 - 106:13
    正在获取路线
  • 106:14 - 106:16
    步行过去大概需要1小时
  • 106:16 - 106:17
    好吧
  • 106:18 - 106:20
    也许我可以走过去,顺便刷点步数
  • 106:20 - 106:24
    眼镜上会直接显示完整3D地图和导航,会很轻松
  • 106:34 - 106:39
    帮我约Dieter今天下午3点在那家咖啡馆喝咖啡
  • 106:43 - 106:44
    我马上发出邀请
  • 106:44 - 106:45
    希望你们享受愉快的咖啡时光
  • 106:46 - 106:50
    如你们所见,Gemini帮助Nishtha搜索她看到的东西
  • 106:50 - 106:53
    记住咖啡杯这种细节
  • 106:54 - 106:56
    为她安排日程、甚至为她导航
  • 106:56 - 106:59
    而Nishtha全程都不用掏出手机
  • 107:00 - 107:02
    其实我现在也戴着这副眼镜
  • 107:03 - 107:05
    它相当于是我的个人提词器
  • 107:05 - 107:07
    而且它的镜片还带度数,所以我能看清你们
  • 107:09 - 107:11
    Nishtha,这是智能眼镜的高光时刻
  • 107:11 - 107:12
    我们把这一刻记录下来吧
  • 107:12 - 107:13
    好的
  • 107:13 - 107:15
    大家准备好,我们快速合个影
  • 107:15 - 107:17
    让我们把后台的明星也请上来!
  • 107:19 - 107:20
    这是Dieter
  • 107:23 - 107:25
    Janice来了
  • 107:25 - 107:27
    Gemini,帮我拍张照
  • 107:36 - 107:39
    Gemini,帮我拍张照,保存到我的收藏夹里
  • 107:47 - 107:49
    拍得真好!
  • 107:56 - 107:58
    我是个彻头彻尾的追星族
  • 107:59 - 108:01
    好的,还有最后一件事
  • 108:01 - 108:05
    之前,Sundar展示了实时翻译已经发展到什么程度
  • 108:06 - 108:08
    现在让我们看看它在智能眼镜上的表现
  • 108:09 - 108:12
    这个演示很有挑战,但我们试试吧!
  • 108:14 - 108:18
    Nishtha和我要用各自的母语交谈
  • 108:18 - 108:20
    Nishtha说印地语
  • 108:20 - 108:23
    我说波斯语,虽然我说得很烂
  • 108:23 - 108:27
    你们会在大屏幕上看到我俩眼镜上的实时画面
  • 108:27 - 108:29
    这样你们都可以明白我们在说什么
  • 108:29 - 108:32
    我们会实时显示英语译文
  • 108:33 - 108:37
    好吧,我们试试,但愿一切顺利
  • 108:38 - 108:43
    [波斯语]
  • 108:43 - 108:46
    [波斯语]
  • 108:51 - 108:57
    [印地语]
  • 109:00 - 109:04
    [波斯语]
  • 109:05 - 109:10
    [波斯语]
  • 109:17 - 109:18
    我们之前没说错,确实演示有风险
  • 109:21 - 109:22
    让我们…
  • 109:39 - 109:39
    感谢Nishtha
  • 109:40 - 109:42
    带我们领略了Android XR智能眼镜的魅力
  • 109:47 - 109:49
    有了这些Android XR设备
  • 109:49 - 109:52
    就好像身边有一位非常得力的助理
  • 109:52 - 109:56
    它将为我们带来怎样的精彩?让我们拭目以待
  • 109:57 - 109:58
    这还不是全部
  • 109:58 - 110:02
    我们正在与三星深化合作
  • 110:02 - 110:06
    将Android XR从头戴设备扩展到智能眼镜
  • 110:07 - 110:11
    我们正在创建软件和参考硬件平台
  • 110:11 - 110:13
    以便生态系统中的伙伴们能够与我们一起
  • 110:13 - 110:15
    打造出强大的智能眼镜
  • 110:16 - 110:20
    我们的眼镜原型目前正在由可信测试员试用
  • 110:21 - 110:25
    今年晚些时候,你们就可以开始为这款眼镜开发应用了
  • 110:27 - 110:29
    我们知道,智能眼镜必须足够时尚
  • 110:29 - 110:31
    你才会愿意全天佩戴
  • 110:32 - 110:35
    因此,今天,我们很高兴地宣布
  • 110:36 - 110:39
    Gentle Monster和Warby Parker
  • 110:39 - 110:41
    将成为我们的首批眼镜制造商合作伙伴
  • 110:42 - 110:44
    与我们一同打造搭载Android XR的时尚眼镜
  • 110:52 - 110:55
    我们希望你能戴上符合你个人品味的眼镜
  • 110:56 - 110:58
    这些还仅仅是开始
  • 110:58 - 111:01
    我热切期待你们亲自体验Android XR
  • 111:01 - 111:04
    在接下来的几个月,我们还会有更多精彩与大家分享
  • 111:04 - 111:06
    谢谢大家
  • 111:21 - 111:23
    这些XR眼镜实在太棒了!
  • 111:24 - 111:28
    就在我们眼前,研究成果转化成了现实应用
  • 111:28 - 111:31
    好的,我们的演讲已经接近尾声
  • 111:31 - 111:33
    今天你们听到了很多关于Elo评分
  • 111:34 - 111:37
    基准测试和先进性能的内容
  • 111:37 - 111:40
    但我知道大家还在等着看另外一项数据
  • 111:41 - 111:42
    那就是AI统计的词频数据
  • 111:43 - 111:46
    那么,让我们来看这最后一个排行榜
  • 111:47 - 111:51
    看起来,又有新选手入围了
  • 111:52 - 111:53
    Gemini领先
  • 111:54 - 111:56
    以95次的成绩胜出
  • 111:58 - 111:59
    非常令人振奋
  • 112:03 - 112:06
    言归正传,以上就是我们今天分享的所有内容
  • 112:07 - 112:12
    从新产品发布、产品扩展,到未来展望
  • 112:13 - 112:16
    AI带来了前所未有的机遇
  • 112:17 - 112:21
    未来的关键就在你们这些开发者和技术创新者手中
  • 112:21 - 112:26
    你们将推动这项技术的普及,让更多人能从中受益
  • 112:26 - 112:30
    最后,我想跟大家分享几个给我带来激励的真实案例
  • 112:30 - 112:33
    首先是加州居民以及世界各地的人们
  • 112:34 - 112:35
    最关心的问题——野火
  • 112:36 - 112:39
    想必有许多人都认识野火的受灾者
  • 112:40 - 112:44
    野火的发生往往很突然,并在几分钟内失控蔓延
  • 112:44 - 112:47
    因此,野火检测的速度和精度至关重要
  • 112:48 - 112:50
    我们正在与一群了不起的合作伙伴一起
  • 112:51 - 112:53
    构建一个名为FireSat的项目
  • 112:53 - 112:58
    它是一个卫星星座,利用多光谱卫星图像和AI
  • 112:59 - 113:02
    旨在提供近乎实时的野火观测数据
  • 113:02 - 113:04
    看看这个分辨率
  • 113:04 - 113:08
    它可以探测到面积小至25平方米的火灾
  • 113:08 - 113:11
    大约相当于一个单车位车库的大小
  • 113:11 - 113:13
    我们的第一颗卫星现已入轨
  • 113:14 - 113:15
    项目全面投入运行后
  • 113:16 - 113:19
    图像更新频率将大幅提高
  • 113:19 - 113:21
    从目前的每12小时更新一次
  • 113:21 - 113:23
    缩短到每20分钟更新一次
  • 113:32 - 113:35
    在其他类型的应急响应中,速度同样至关重要
  • 113:35 - 113:37
    例如,在海伦飓风期间
  • 113:37 - 113:40
    Wing与沃尔玛、红十字会合作
  • 113:41 - 113:43
    用无人机投送物资,为救援工作提供了支持
  • 113:44 - 113:45
    在AI的帮助下
  • 113:45 - 113:48
    我们能够根据实时需求将食物、药品等关键物资
  • 113:49 - 113:53
    投放到北卡罗来纳州的一个基督教青年会避难所
  • 113:53 - 113:57
    可以想象这在其他社区的救灾行动中会有多大帮助
  • 113:58 - 114:00
    我们也正在积极努力扩大这一技术的应用范围
  • 114:01 - 114:05
    这些都是AI目前造福社会的例子
  • 114:05 - 114:07
    尤其令人鼓舞的是
  • 114:07 - 114:12
    今天的研究成果将在短短几年内成为现实
  • 114:12 - 114:16
    无论是构建下一代实用机器人
  • 114:17 - 114:19
    为世界致死率最高的疾病寻找治疗方法
  • 114:20 - 114:23
    还是推进纠错量子计算机的发展
  • 114:24 - 114:29
    或是打造能将乘客安全送达
    任何地点的全自动驾驶汽车
  • 114:29 - 114:34
    所有这些都极有可能在几年内实现,而不是几十年
  • 114:34 - 114:35
    真是令人向往
  • 114:35 - 114:39
    这种利用AI改善生活的机会并不是我在想当然
  • 114:40 - 114:42
    最近的一次经历让我深有体会
  • 114:43 - 114:45
    当时我和父母一起到旧金山旅游
  • 114:46 - 114:47
    与许多其他游客一样
  • 114:47 - 114:50
    他们想做的第一件事就是体验Waymo的自动驾驶
  • 114:51 - 114:52
    我以前也坐过Waymo
  • 114:52 - 114:58
    但看着我八十多岁的父亲坐在前排那种惊讶的表情
  • 114:58 - 115:01
    我从全新的视角看到了科技进步的影响
  • 115:01 - 115:05
    它让我看到,科技拥有多么不可思议的力量
  • 115:05 - 115:08
    它能激发灵感、造福所有人、并推动我们前进
  • 115:09 - 115:10
    我迫不及待想看看
  • 115:10 - 115:13
    接下来我们会共同创造出怎样的精彩成果
  • 115:13 - 115:14
    谢谢大家
  • 115:26 - 115:29
    Flow为我开启了无限可能
  • 115:29 - 115:31
    那是什么样的魔法?
  • 115:31 - 115:35
    AI模式是自搜索引擎发明以来最伟大的革命
  • 115:35 - 115:38
    只需准确地告诉Gemini你想要构建什么
  • 115:38 - 115:39
    它就会为你搞定
  • 115:39 - 115:40
    天哪
  • 115:40 - 115:43
    你可以用Gemini 2.5 Pro编程
  • 115:43 - 115:45
    实在太好用了
  • 115:45 - 115:47
    Project Mariner将改变我们使用浏览器的方式
  • 115:47 - 115:50
    它是一个能帮你处理事务的AI智能体
  • 115:50 - 115:53
    Notebook LMS思维导图颠覆了我们学习的方式
  • 115:53 - 115:56
    为什么无论我走到哪,这个人都在跟踪我?
  • 115:56 - 115:58
    那是你的影子
  • 115:58 - 115:59
    等等,你要右转
  • 116:01 - 116:04
    AI正在彻底改变我们对抗野火的方式
  • 116:04 - 116:07
    生成式媒体正在拓展创造力的边界
  • 116:08 - 116:09
    我第一次看到这个的时候,感觉就像魔法一样
  • 116:10 - 116:11
    它不仅仅是又一项工具
  • 116:11 - 116:12
    它颠覆了一切
  • 116:12 - 116:13
    简直让我大开眼界
  • 116:13 - 116:15
    AI的潜力近乎无限
Title:
GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD
Video Language:
English

Chinese, Simplified subtitles

Incomplete

Revisions Compare revisions