GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD
-
0:02 - 0:07[文字转视频]
[用广角镜头呈现数字10形状的在轨运行空间站] -
0:11 - 0:17[使用Imagen和Veo生成]
-
1:12 - 1:14这地方要大开眼界了
-
1:14 - 1:16[使用Veo3生成]
-
1:20 - 1:27[音乐]
-
1:35 - 1:39醒醒吧孩子,我们都深陷白日梦
-
1:39 - 1:43十四岁的年华,一直在向世界低头
-
1:43 - 1:48却还是在做有礼貌的乖孩子
-
1:49 - 1:51音乐在你的灵魂里激荡
-
1:52 - 1:55别放弃,音乐在你的灵魂里激荡
-
1:56 - 1:58最后一支舞马上开场
-
1:58 - 2:00这世界终会变好
-
2:00 - 2:04别放弃,你还有好好生活的理由
-
2:04 - 2:09别忘记,付出几分,收获几何
-
2:09 - 2:13[欢迎参加Google I/O大会]
-
2:15 - 2:17我就要回家了
-
2:17 - 2:21你是最棒的,现在就让我看到
-
2:22 - 2:25凌晨四点,我们在奇迹一英里上狂奔
-
2:25 - 2:29身无分文,但还是有型有格
-
2:30 - 2:34好棒的视频,看来大家的制作过程应该很开心
-
2:35 - 2:36大家上午好
-
2:36 - 2:38欢迎参加Google I/O大会
-
2:43 - 2:46欢迎亲临Shoreline会场的各位
-
2:46 - 2:50以及世界各地在线上观看的观众
-
2:50 - 2:53有人告诉我,Gemini季从今天起拉开序幕
-
2:54 - 2:56我倒没觉得这有什么特别
-
2:56 - 2:58因为对Google来说,每一天都是Gemini季
-
3:00 - 3:04在I/O大会前的几周,我们通常不会有太多动作
-
3:04 - 3:08因为我们想把最好的模型留到这个舞台上来展示
-
3:09 - 3:10但在Gemini时代
-
3:10 - 3:13我们也会在三月随便选个周二
-
3:13 - 3:16发布我们最智能的模型
-
3:16 - 3:18或是非凡的突破
-
3:18 - 3:20就像在大会一周前发布AlphaEvolve那样
-
3:21 - 3:24只想尽快将我们最好的模型交到你的手中
-
3:24 - 3:27让你尽快体验到我们的产品
-
3:27 - 3:30为此,我们的发布频率远超以往
-
3:31 - 3:32自上届I/O大会至今
-
3:32 - 3:34我们发布了十多种模型和研究突破
-
3:35 - 3:40以及二十多种重要AI产品和功能
-
3:41 - 3:45模型的快速进步让我振奋不已
-
3:45 - 3:47从这张图表就能看出阶跃式的发展
-
3:48 - 3:51Elo分数用来衡量进步的尺度
-
3:51 - 3:53从第一代Gemini Pro至今
-
3:53 - 3:55这项成绩提升了300多分
-
3:56 - 3:59如今,Gemini 2.5 Pro
-
3:59 - 4:02横扫LMArena排行榜的所有类别
-
4:10 - 4:12在许多基准测试中都表现突出
-
4:13 - 4:16在编程方面,我们也在快速进步
-
4:16 - 4:20更新版的2.5 Pro在WebDev Arena中一马当先
-
4:20 - 4:25Elo分数比上一个版本高142分
-
4:25 - 4:28这款模型在各大主流编程平台上备受追捧
-
4:28 - 4:30感谢所有人的支持
-
4:30 - 4:33在领先AI代码编辑器cursor中
-
4:34 - 4:37Gemini成为年度发展速度最快的模型
-
4:37 - 4:42每分钟都有数十万行代码用它生成
-
4:43 - 4:46最后这个里程碑或许最令人动容
-
4:46 - 4:48至少在某些圈子里是如此
-
4:48 - 4:52几周前,Gemini成功通关《宝可梦蓝》
-
4:56 - 4:59集齐全部八枚徽章,挺进“冠军之路”
-
4:59 - 5:02打败了四天王和联盟冠军
-
5:03 - 5:06这让我们离实现API又近了一步
-
5:06 - 5:09不过我们说的是“人工宝可梦智能”
-
5:14 - 5:18所有这些进步都由我们卓越的基础设施提供支持
-
5:18 - 5:21它是我们全栈式AI方法的基石
-
5:21 - 5:26我们的第七代TPU Ironwood采用前沿设计
-
5:26 - 5:28为大规模思考和推理赋能助力
-
5:29 - 5:32其性能达到上一代的十倍
-
5:33 - 5:38能迸发出每个pod 42.5 exaFLOPS的强大算力
-
5:38 - 5:39令人赞叹
-
5:40 - 5:43Google Cloud客户今年稍后就能切身体会它的实力
-
5:47 - 5:50凭借始于底层TPU的基础设施实力
-
5:50 - 5:54我们提供了速度更出众的模型
-
5:54 - 5:57在LMArena排行榜的顶尖模型中
-
5:57 - 5:59Gemini跻身前三
-
5:59 - 6:02凭借最高的每秒生成token数
-
6:03 - 6:07以及大幅下降的模型价格取得骄人成绩
-
6:07 - 6:10在价格与性能之间权衡并不容易
-
6:11 - 6:13然而,我们一次又一次地做到了
-
6:13 - 6:17以最有效的价格点提供出色的模型
-
6:17 - 6:20Google不仅在这个帕累托最优边界中先人一步
-
6:20 - 6:22更从根本上改变了它
-
6:23 - 6:28让每个人都能随时随地享受更好的智能体验
-
6:29 - 6:31我们的努力收获了积极的回应
-
6:31 - 6:33AI采用速度远超以往
-
6:34 - 6:38作为进步的标志之一,在去年此时
-
6:38 - 6:45我们所有产品和API
每个月的token处理总量是9.7万亿 -
6:45 - 6:49而如今,每月token处理量达到了480万亿
-
6:50 - 6:53短短一年,接近50倍的增幅
-
6:59 - 7:03我们各类开发者AI工具的采用已成浪潮
-
7:04 - 7:06在Google AI Studio和Vertex AI中
-
7:06 - 7:11有700多万名开发者在使用Gemini API进行开发
-
7:11 - 7:14达到去年召开I/O大会时的五倍多
-
7:14 - 7:16自去年以来
-
7:16 - 7:20Gemini在Vertex AI中的使用量增加到40多倍
-
7:21 - 7:23我们的产品也在越来越多地采用AI
-
7:24 - 7:28Gemini应用的月活用户数已超过4亿
-
7:28 - 7:31增长幅度和参与度都在强势增长
-
7:31 - 7:33尤其是2.5版的模型
-
7:34 - 7:37对于在Gemini应用中使用2.5 Pro模型的用户
-
7:37 - 7:39使用量增长了45%
-
7:40 - 7:43稍后你会听到许多与Gemini应用有关的消息
-
7:44 - 7:46在搜索领域,我们也看到了十分惊人的发展势头
-
7:47 - 7:52AI概览的月用户量现已超过15亿
-
7:53 - 7:56也就是说,通过Google搜索使用生成式AI的用户量
-
7:57 - 8:00超过全球其他任何产品
-
8:01 - 8:06除了AI概览之外,AI模式也是搜索领域的一大进步
-
8:07 - 8:09稍后我们会分享更多相关信息
-
8:10 - 8:12所有这些进步都指向一件事
-
8:12 - 8:16我们身处AI平台变革的新阶段
-
8:16 - 8:19数十载的研究成果转化为实用工具
-
8:19 - 8:21惠及普罗大众
-
8:22 - 8:24我想分享三个例子
-
8:24 - 8:27证明研究如何彻底改变我们当今的产品
-
8:28 - 8:32分别是Project Starline、Astra和Mariner
-
8:33 - 8:34在几年前的I/O大会上
-
8:35 - 8:37我们公布了Project Starline
-
8:37 - 8:38这是我们突破性的3D视频技术
-
8:39 - 8:42让你在与千里之外的人交流时
-
8:43 - 8:44也能有共处一室的感觉
-
8:45 - 8:47我们不断改进相关技术
-
8:47 - 8:50今天,我们终于准备好开启它的下一篇章
-
8:51 - 8:52隆重介绍Google Beam
-
8:53 - 8:57全新的AI优先型视频沟通平台
-
8:58 - 9:01Beam运用全新的先进视频模型
-
9:01 - 9:06将2D视频流转化为栩栩如生的3D体验
-
9:07 - 9:12在幕后,六摄像头阵列从不同角度拍摄你的影像
-
9:13 - 9:17这些视频流随后会通过AI合并在一起
-
9:17 - 9:20生成3D光场显示,展示你的立体形象
-
9:20 - 9:23它能实现毫米级精度的头部跟踪
-
9:24 - 9:27以及每秒60帧的实时渲染
-
9:28 - 9:33成就高度自然流畅、沉浸感十足的对话体验
-
9:34 - 9:37我们热切期待将这项技术带给大家
-
9:37 - 9:39并为此与惠普开展了合作
-
9:39 - 9:41首款Google Beam设备
-
9:41 - 9:45将于今年晚些时候与首批客户见面
-
9:46 - 9:49从现在起的几周内,惠普会分享大量相关资讯
-
9:49 - 9:50敬请关注
-
9:57 - 9:59多年来,我们一直在不懈努力
-
9:59 - 10:02将Starline的底层技术整合到Google Meet中
-
10:03 - 10:07其中包括帮助打破语言壁垒的实时语音翻译
-
10:08 - 10:11这个例子展示了在南美洲预定度假屋
-
10:11 - 10:14而你又不会讲当地语言时
-
10:14 - 10:16这项功能的实用价值
-
10:16 - 10:17我们一起来看看吧
-
10:19 - 10:20嗨,Camilla
-
10:20 - 10:23我来打开语音翻译功能
-
10:25 - 10:27终于能跟你直接对话了,太棒了
-
10:27 - 10:31[西班牙语翻译]
-
10:32 - 10:34[西班牙语回答]
-
10:34 - 10:36你会很开心的
-
10:36 - 10:38我相信你也一定会爱上这座城市
-
10:38 - 10:42这间房所在的社区环境很好,还能俯瞰山景
-
10:43 - 10:44听起来真不错
-
10:45 - 10:50[西班牙语翻译]
-
10:51 - 10:53[西班牙语回答]
-
10:53 - 10:55附近就有公交车
-
10:55 - 11:00不过我推荐你租辆车,这样去野外玩更方便
-
11:01 - 11:03听起来不错
-
11:03 - 11:04[西班牙语翻译]
-
11:12 - 11:15如你所见,语音翻译惟妙惟肖地模仿了
-
11:15 - 11:18讲话人的语气、模式甚至是表达方式
-
11:19 - 11:24我们距离自然流畅的跨语言沟通又近了一步
-
11:25 - 11:28我们现已直接将这种实时语音翻译功能
-
11:28 - 11:30直接整合到Google Meet中
-
11:31 - 11:35订阅者从现在起即可使用英语与西班牙语互译功能
-
11:35 - 11:39在未来几周内,我们还会推出更多语言的翻译功能
-
11:39 - 11:43实时翻译功能将于今年晚些时候面向企业用户开放
-
11:50 - 11:52另一个在往届I/O舞台上正式亮相的
-
11:52 - 11:55早期研究项目是Project Astra
-
11:55 - 12:02专门探索通用型AI助手未来理解你身边世界的能力
-
12:02 - 12:04我们正在将其整合到Google产品中
-
12:05 - 12:06Gemini Live现已整合
-
12:06 - 12:10Project Astra的相机和屏幕共享功能
-
12:10 - 12:13支持就你看到的任何事物展开对话
-
12:13 - 12:15人们正在将它用于各种用途
-
12:15 - 12:17无论是为工作面试做练习
-
12:18 - 12:19还是为备战马拉松而训练
-
12:20 - 12:23我们始终高度重视可信测试员的反馈
-
12:23 - 12:26还有一些不那么“可信”的测试员
-
12:26 - 12:27一起来看看吧
-
12:30 - 12:32好漂亮的敞篷车
-
12:33 - 12:36我觉得你把垃圾车误认成敞篷车了
-
12:36 - 12:38我还能帮你些什么?
-
12:38 - 12:40这个细长的建筑物怎么杵在我家门口?
-
12:40 - 12:43这是路灯,不是建筑物
-
12:43 - 12:47这些棕榈树怎么这么矮?看着让人有点担心
-
12:47 - 12:50它们并不矮,其实很高的
-
12:51 - 12:52帅气的敞篷车
-
12:52 - 12:54还是垃圾车
-
12:54 - 12:55还有别的事吗?
-
12:55 - 12:58为什么总有人把快递放到我的草坪上?
-
12:59 - 13:02那不是快递,是个变电箱
-
13:02 - 13:05我走路的时候,这个人怎么一直跟踪我
-
13:06 - 13:09没人在跟踪你,那只是你的影子
-
13:17 - 13:20Gemini真的特别擅长给你挑错
-
13:21 - 13:27即日起,此功能面向所有Android和iOS用户开放
-
13:34 - 13:38再说说我们的研究原型Project Mariner
-
13:38 - 13:42这种智能体可以与Web交互并完成各种任务
-
13:43 - 13:45我们跳出原有思维模式,将智能体视为一种系统
-
13:45 - 13:51集先进AI模型的智能和访问工具的能力于一身
-
13:51 - 13:55它们可以自主帮你执行操作,而且完全由你掌控
-
13:55 - 13:59使用计算机是智能体的一项重要能力
-
13:59 - 14:03让智能体能够与浏览器和其他软件交互
-
14:03 - 14:05并对其执行操作
-
14:05 - 14:10Project Mariner是测试计算机使用能力的初步尝试
-
14:10 - 14:14去年12月,我们将其作为早期研究原型发布
-
14:14 - 14:16自那之后取得了长足进展
-
14:17 - 14:20首先,我们引入了多任务处理能力
-
14:20 - 14:23它如今能同时管理多达10个任务
-
14:24 - 14:27其次,它使用了一项名为“示教与重复”的功能
-
14:28 - 14:30你只要向它展示一次任务
-
14:31 - 14:34它就能学会在将来为类似任务做计划
-
14:35 - 14:38我们将通过Gemini API向开发者提供
-
14:38 - 14:41Project Mariner的计算机使用能力
-
14:42 - 14:45Automation Anywhere和UiPath等可信测试方
-
14:45 - 14:48已经开始使用它构建产品
-
14:48 - 14:51我们将于今年夏季将其提供给更广泛的用户
-
14:52 - 14:54为了推动智能体生态系统繁荣发展
-
14:54 - 14:56我们需要开发更广泛的工具组合
-
14:56 - 14:58计算机使用能力就是这项工作的一环
-
14:58 - 15:00这方面的例子有我们的开放智能体间协议
-
15:00 - 15:03让智能体能够彼此对话
-
15:03 - 15:05我们在Cloud Next大会上发布了这种协议
-
15:05 - 15:08获得了60多家技术合作伙伴的支持
-
15:08 - 15:10这个数字还有望继续增长
-
15:10 - 15:14还有Anthropic推出的模型上下文协议
-
15:14 - 15:17让智能体可以访问其他服务
-
15:17 - 15:19今天,我们要激动万分地宣布
-
15:19 - 15:24Gemini SDK现已兼容MCP工具
-
15:29 - 15:34这些技术将协同运作,让智能体更实用
-
15:34 - 15:37我们已经开始将代理式功能添加到
-
15:37 - 15:39Chrome、Google搜索和Gemini应用中
-
15:39 - 15:43我来展示一下Gemini应用中最让我们激动的功能
-
15:43 - 15:45我们称之为智能体模式
-
15:46 - 15:50假设你想在奥斯汀给自己和两名室友找间公寓
-
15:50 - 15:53你们每个人每月的预算是1200美元
-
15:53 - 15:55希望公寓里有洗衣机、干衣机
-
15:55 - 15:57或者至少附近要有间洗衣店
-
15:57 - 16:01通常情况下,你要花很多时间去浏览无数房源
-
16:02 - 16:05但有了智能体模式,Gemini应用可以为你效力
-
16:05 - 16:08它在后台访问Zillow等网站
-
16:08 - 16:11查找符合你的条件的房源
-
16:11 - 16:14并在需要时使用Project Mariner
-
16:14 - 16:16调整极其细致的过滤条件
-
16:17 - 16:20如果有你想具体了解的公寓,Gemini会使用MCP
-
16:21 - 16:25访问房源,甚至可以帮你安排行程
-
16:25 - 16:29只要你需要,它就会不断浏览查找新房源
-
16:30 - 16:32让你可以腾出时间去做自己想做的事情
-
16:32 - 16:34比如规划乔迁派对
-
16:34 - 16:36这对Zillow这样的公司特别有用
-
16:36 - 16:40能够带来新客源并提高转化率
-
16:40 - 16:44Gemini应用中智能体模式的实验版本
-
16:44 - 16:46即将面向订阅者开放
-
16:47 - 16:49这是一个崭露头角的全新领域
-
16:49 - 16:51我们很激动能亲身探索
-
16:51 - 16:56如何将智能体的优势带给用户和更广泛的生态系统
-
16:58 - 17:00要将研究成果落地,我们最好的方案就是
-
17:01 - 17:04保证它在你的实际环境中拥有真正的实用价值
-
17:04 - 17:08这正是个性定制的用武之地
-
17:09 - 17:13为此,我们推出了个人使用场景功能
-
17:14 - 17:15在征得你的许可之后
-
17:15 - 17:17Gemini模型可在你的各Google应用之间
-
17:17 - 17:19使用相关背景信息
-
17:20 - 17:22并且采用一种保护隐私、高度透明
-
17:22 - 17:24完全由你掌控的方式
-
17:24 - 17:26我来展示一个Gmail中的例子
-
17:27 - 17:30你可能很熟悉我们依托AI技术的智能回复功能
-
17:31 - 17:33其受欢迎的程度甚至令人有几分意外
-
17:33 - 17:37如果AI生成的回复能效仿你的口吻,那该有多好
-
17:37 - 17:40这就是个性化智能回复背后的理念
-
17:41 - 17:44假设朋友写信给我,向我寻求建议
-
17:45 - 17:50他打算到犹他州去自驾游,记得我曾自驾去过那里
-
17:51 - 17:53坦白说,如果我自己写回信
-
17:53 - 17:55只会寥寥几句带过,帮不上什么忙
-
17:55 - 17:56抱歉了,Felix
-
17:57 - 18:00但使用个性化智能回复,我就能成为知心好友
-
18:01 - 18:06因为Gemini会帮我做好几乎所有的“功课”
-
18:06 - 18:08查看我云端硬盘中的笔记
-
18:09 - 18:11查询旧电子邮件中的预订信息
-
18:11 - 18:14查找Google文档中的行程安排
-
18:14 - 18:16锡安国家公园之旅
-
18:17 - 18:20Gemini效仿我既往邮件中的问候语
-
18:21 - 18:26捕捉到了我的语气、风格和遣词用句的喜好
-
18:26 - 18:29随后自动生成回复
-
18:29 - 18:31我最欣赏的是它添加了贴心的细节
-
18:31 - 18:34比如将驾车时间控制在每天五小时以下
-
18:34 - 18:37还使用了我最喜欢的形容词:激动人心
-
18:39 - 18:40看起来不错
-
18:40 - 18:44或许简单修改几处,就可以点击“发送”了
-
18:44 - 18:48今年夏天,这项功能就会在Gmail中提供给订阅者
-
18:54 - 18:57可想而知,覆盖搜索、文档、Gemini
-
18:57 - 19:00及其他产品的个人使用场景功能会有多实用
-
19:01 - 19:06今天我谈到了智能、智能体和个性化
-
19:07 - 19:10这是我们将努力推进的几个前沿领域
-
19:10 - 19:13在整场主旨演讲中,你会听到更多例子
-
19:14 - 19:15但首先,我想请一个人
-
19:16 - 19:19详细分享有关推动我们未来创新的智能
-
19:20 - 19:23去年在介绍他的时候,我称他为Demis爵士
-
19:23 - 19:27今年,我们还可以在他的头衔里
加上“诺贝尔奖获得者” -
19:27 - 19:29Demis,请上台来
-
19:43 - 19:46大家好!很高兴能再次参加Google I/O大会
-
19:48 - 19:50我们身处一个重要的历史节点
-
19:51 - 19:54AI正在开启令人向往的全新未来
-
19:55 - 19:56这一年,我们在不懈的探索中前行
-
19:56 - 19:58收获了累累硕果
-
19:58 - 20:02正如Sundar所说,人们喜欢与Gemini 2.5交互
-
20:03 - 20:05我们见证了你们用它进行氛围编程
-
20:05 - 20:07一气呵成开发应用与游戏
-
20:08 - 20:10见证了你们用它强大的推理能力完成各种任务
-
20:10 - 20:14从拆解科学论文,到解析YouTube视频
-
20:14 - 20:16你们告诉我们,Gemini协作性强、洞见深刻,
-
20:16 - 20:19是真正的得力助手
-
20:20 - 20:25看到大家用它创造出的惊人成果,我们倍感振奋
-
20:27 - 20:30Gemini 2.5是我们迄今为止最智能的模型
-
20:30 - 20:32也是全球先进基础模型
-
20:33 - 20:37就在两周前,我们发布了升级后的2.5 Pro预览版
-
20:37 - 20:40让大家可以开始亲手尝试用它将创想化为现实
-
20:41 - 20:44大家的成果让我们大开眼界
-
20:44 - 20:49从将草图转化为交互式应用到模拟3D城市
-
20:50 - 20:52全新的2.5 Pro模型在热门编程排行榜
-
20:52 - 20:55WebDev Arena上一马当先
-
20:55 - 20:58现在,它又整合了LearnLM
-
20:58 - 21:00该系列模型的开发得到了教育专家的支持
-
21:01 - 21:04这让2.5 Pro也成为全球出色的学习辅助模型
-
21:05 - 21:08在LMArena的所有排行榜上独占鳌头
-
21:11 - 21:14Gemini Flash是我们极其高效的王牌模型
-
21:15 - 21:19因出色的速度和较低的成本备受开发者青睐
-
21:20 - 21:25今天我要激动地宣布推出更新版的2.5 Flash
-
21:25 - 21:28新版Flash模型几乎在每一个方面都有所改进
-
21:29 - 21:30在各类重要基准测试中都取得了更好的成绩
-
21:30 - 21:33包括推理、编程和长上下文
-
21:34 - 21:39实际上,它在LMArena排行榜上仅次于2.5 Pro
-
21:40 - 21:44我要很高兴地告诉大家,Flash将于六月初正式上线
-
21:44 - 21:46Pro紧随其后
-
21:53 - 21:56我们正在根据大家的反馈做出最终调整
-
21:56 - 21:59不过你现在可以在AI Studio
-
21:59 - 22:01Vertex AI和Gemini应用中试用预览版
-
22:03 - 22:07我们将一如既往,继续不懈前行,推动技术向前发展
-
22:07 - 22:10并对我们近期的研究突破感到十分欣喜
-
22:10 - 22:13稍后我会请Tulsee来与大家进一步分享
-
22:13 - 22:15不过首先,我们来看一下
-
22:15 - 22:17目前你可以用Gemini来做些什么
-
22:20 - 22:22[用Gemini可以做的30件事]
-
22:23 - 22:24[物理模拟]
-
22:24 - 22:25[自然模拟]
-
22:25 - 22:27[光学模拟]
-
22:27 - 22:28[谜题模拟]
-
22:29 - 22:30[将图片转变成代码]
-
22:32 - 22:33[将想法转变成3D模型]
-
22:36 - 22:38[为画作加入3D效果]
-
22:40 - 22:41[与AI共同创作]
-
22:41 - 22:42[发型设计]
-
22:43 - 22:46[给这只猫穿上礼服]
-
22:48 - 22:49[在积攒了几十年的文件中搜索内容]
-
22:49 - 22:50[菜谱]
-
22:51 - 22:53[在数小时长的视频中搜索内容]
-
22:54 - 22:55[建造机器人]
-
22:56 - 23:00[直接说话就能编程]
你能做个从我嘴里爆出一团圆形彩纸的特效吗? -
23:01 - 23:03我更新了草图
-
23:03 - 23:06[万物皆可AI:娱乐、学习、动画、可视化]
[创造、转录、练习、翻译、查询、表情符号] -
23:06 - 23:07[混音、计算、探索、理解、地图、解释]
-
23:07 - 23:10[生成千般内容]
[构想万种可能] -
23:11 - 23:13接下来我们做点什么?
-
23:13 - 23:15这里还有30个创意供你参考
-
23:16 - 23:19[使用Gemini开始构建]
[AI.Studio] -
23:35 - 23:36Demis,谢谢你!
-
23:36 - 23:39很高兴能借此机会告诉大家
-
23:39 - 23:41为了帮助像你一样的开发者
-
23:41 - 23:44更轻松地使用Gemini 2.5进行构建
-
23:45 - 23:47我们根据大家的反馈意见做出了多项改进
-
23:47 - 23:52其中包括:功能改进、安全性和透明度加强
-
23:52 - 23:55成本效益提升和可控性提升
-
23:56 - 24:01首先,除了Demis提到的新版2.5 Flash之外
-
24:01 - 24:05我们还推出了文字转语音功能的全新预览版
-
24:06 - 24:12基于原生音频输出提供
同类产品中首创的多讲话人支持 -
24:12 - 24:14可以支持两个人的语音
-
24:16 - 24:20这意味着模型可以通过
更富于表现力的方式进行对话交流 -
24:20 - 24:24能够捕捉我们言语表述之中的微妙之处
-
24:25 - 24:29甚至能无缝切换到低声耳语,就像这样
-
24:31 - 24:33它支持超过24种语言
-
24:34 - 24:37甚至能流畅自如地在不同语言之间切换
-
24:38 - 24:42模型可以在最初讲英语,然后
-
24:44 - 24:47[印地语]
-
24:49 - 24:50然后再切换回来
-
24:50 - 24:52而且声音丝毫不变
-
24:53 - 24:54不错吧?
-
25:01 - 25:03从今天开始,你就可以开始在Gemini API里
-
25:03 - 25:06使用这种文字转语音功能了
-
25:11 - 25:14今天稍后,Live API还将提供
-
25:14 - 25:192.5 Flash原生音频对话功能的预览版
-
25:19 - 25:24让你能通过更自然流畅的方式直接与Gemini会话
-
25:25 - 25:29它甚至能区分讲话人与背景噪音
-
25:29 - 25:30从而判断合适的回复时机
-
25:31 - 25:34Logan和Paige将在开发者主旨演讲中分享更多内容
-
25:36 - 25:37其次
-
25:37 - 25:41我们加强了针对间接提示注入等安全威胁的防护
-
25:42 - 25:46让Gemini 2.5成为我们迄今为止最安全的模型
-
25:47 - 25:50在2.5 Pro和Flash模型中
-
25:50 - 25:52我们都添加了思考总结功能
-
25:52 - 25:54可以通过Gemini API和Vertex AI来使用
-
25:55 - 25:58思考总结功能会提取模型的原始思考过程
-
25:58 - 26:03将其整理为清晰有序的格式,包含标题、重要细节
-
26:03 - 26:06以及有关模型操作的信息,比如工具调用
-
26:06 - 26:10这能让你更清晰地了解模型的思考过程
-
26:10 - 26:16不但对高延迟任务特别有用,同时方便调试和使用
-
26:18 - 26:20大家也呼吁提高模型处理效率
-
26:20 - 26:24而现在,2.5 Flash的效率更胜以往
-
26:24 - 26:28同等性能的情况下,使用的token更少
-
26:29 - 26:32在实际测评中效率提升达22%
-
26:34 - 26:38最后,我们为2.5 Flash引入了思考预算功能
-
26:38 - 26:42让你能够在成本、延迟和输出质量之间取得平衡
-
26:42 - 26:44由于大家的反响很好
-
26:44 - 26:47我们将思考预算功能添加到了2.5 Pro之中
-
26:48 - 26:52并将在未来几周内随同我们的正式版模型一同发布
-
26:53 - 26:54借助思考预算功能
-
26:54 - 26:57你可以更好地掌控模型使用多少token进行思考
-
26:57 - 26:58然后再给出回答
-
26:59 - 27:01也可以直接关闭思考功能
-
27:03 - 27:05之前Demis提到过
-
27:05 - 27:08Gemini 2.5 Pro有着超强的编码能力
-
27:08 - 27:13所以接下来,我想展示一下如何将构思落地
-
27:15 - 27:19如果你参观过纽约市的美国自然历史博物馆
-
27:19 - 27:22一定记得那里精彩的展品
-
27:22 - 27:24为了让大家能够看到这些展品
-
27:24 - 27:27我让2.5 Pro在Google AI Studio中
-
27:27 - 27:28编写了一个简单的Web应用
-
27:29 - 27:30用于分享一些照片以及详细信息
-
27:31 - 27:33这是该应用目前为止的模样
-
27:34 - 27:37不过我还想进一步加强其互动性
-
27:37 - 27:39我还在就设计思路集思广益
-
27:40 - 27:41不过已经有了一些想法
-
27:42 - 27:44大家都看到过像这样的情况吧?
-
27:44 - 27:45某人找到你
-
27:45 - 27:48给你看在餐巾纸上勾勒出的“绝妙”点子
-
27:49 - 27:52作为PM,我常常就是拿着餐巾纸的这个人
-
27:54 - 27:56常规的二维网页设计已经不简单
-
27:57 - 27:59但我想进一步实现三维设计
-
28:00 - 28:03我知道转为三维并不容易
-
28:03 - 28:06需要学习许许多多新知识
-
28:06 - 28:11比如设置场景、相机、光线等
-
28:12 - 28:14但幸运的是,2.5 Pro可以帮到我
-
28:15 - 28:17这里我要做的是
-
28:18 - 28:23把刚才展示的球体图片添加进来
-
28:25 - 28:30输入提示,让2.5 Pro根据此图片更新我的代码
-
28:32 - 28:34我们让2.5 Pro开始工作
-
28:34 - 28:36可以看到,它开始思考
-
28:37 - 28:40并根据我的要求制定了一份计划
-
28:41 - 28:43稍后会将其应用于我的原有代码库
-
28:44 - 28:46Gemini是一种多模态模型
-
28:47 - 28:49因此能理解这张抽象的球体草图
-
28:49 - 28:52通过编程生成精美的三维动画
-
28:52 - 28:54再将其应用于我的原有应用
-
28:55 - 28:57此过程大概需要两分钟
-
28:57 - 29:01为节省时间,我们将以类似烘焙节目的形式来展示
-
29:01 - 29:03我直接切换到另外一个标签页
-
29:03 - 29:06在这场主旨演讲开始之前,我运行了相同的提示
-
29:06 - 29:09这就是Gemini生成的结果
-
29:17 - 29:21我们把一张粗略的草图直接变成了代码
-
29:21 - 29:23更新了多个文件
-
29:24 - 29:27而且可以看到,它思考了37秒时间
-
29:27 - 29:29你也可以看到它的思考变化过程
-
29:29 - 29:31以及它更新了哪些文件
-
29:32 - 29:34这一切都是在AI Studio中完成的
-
29:34 - 29:36所以在完成原型设计之后
-
29:36 - 29:40我就可以直接用Gemini API密钥部署代码
-
29:41 - 29:43这是我们的最终版应用在Chrome中的效果
-
29:45 - 29:47看看这些动画
-
29:48 - 29:53我不需要有多精深的Three.js库知识
-
29:53 - 29:56也不必钻研复杂的三维算法,就做成了这样的作品
-
29:57 - 29:59如果要亲自动手来做,我可能永远也没法实现
-
30:00 - 30:04但这里,我只用一张草图就做出来了
-
30:05 - 30:09我可以利用多模态,让整个体验更加丰富
-
30:09 - 30:13我用2.5 Flash给每张照片添加了一个问题
-
30:13 - 30:15邀请你进一步了解相关信息
-
30:17 - 30:19但如果它能说话会怎样呢?
-
30:20 - 30:23这时我们就可以用到Gemini的原生音频功能
-
30:25 - 30:26这是一只穿山甲
-
30:26 - 30:30它的鳞片由角蛋白构成,就像你的指甲一样
-
30:31 - 30:33哇!现在它支持语音功能了
-
30:34 - 30:38你可以听到,如何在应用中添加富有表现力的音频
-
30:38 - 30:40在分享更多内容之前
-
30:41 - 30:43我想以另一个好玩的设计来结束演示
-
30:43 - 30:46这也是通过2.5 Pro编码实现的
-
30:56 - 30:58我们在Google AI Studio提供了起始代码
-
30:58 - 31:00让大家都可以在本演示的基础上进行二次开发
-
31:00 - 31:02欢迎大家去尝试
-
31:03 - 31:04这个演示仅仅是一个例子
-
31:05 - 31:08证明Gemini 2.5必将大幅改变我们的构建方式
-
31:08 - 31:11改变你利用非凡的功能
-
31:11 - 31:16在自己的应用中集成视觉、语音和编码的方式
-
31:17 - 31:20你可以在自己喜爱的IDE平台
-
31:21 - 31:23以及各种Google产品中使用2.5 Pro
-
31:23 - 31:28例如Android Studio、Firebase Studio
Gemini Code Assist -
31:28 - 31:31以及我们最新的异步编码智能体Jules
-
31:39 - 31:42你只需提交任务,剩下的就交给Jules来处理
-
31:42 - 31:44修复bug,执行更新
-
31:45 - 31:48它与GitHub集成,可以独立运行
-
31:49 - 31:51Jules能够处理大型代码库中的复杂任务
-
31:52 - 31:53这些任务过去需要数小时才能完成
-
31:53 - 31:56比如更新较早版本的Node.js
-
31:56 - 32:01它能在几分钟内完成规划步骤、修改文件等任务
-
32:02 - 32:04今天,我很高兴地宣布
-
32:04 - 32:05Jules将开启公开Beta版测试
-
32:06 - 32:08所有人都可以通过jules.google注册
-
32:15 - 32:20正如Demis所说,我们一直在创新优化模型的方法
-
32:20 - 32:23包括提高模型的效率和性能
-
32:24 - 32:29我们率先采用扩散技术,革新了图像和视频的生成
-
32:30 - 32:34扩散模型可通过逐步优化噪声来生成输出
-
32:35 - 32:40现在,我们正借助最新研究模型将扩散应用于文本
-
32:41 - 32:44这样有助于提升处理编辑等任务的能力
-
32:44 - 32:46包括在数学和编码等应用场景中
-
32:47 - 32:49因为它不只是从左到右线性生成内容
-
32:49 - 32:51还能够快速反复试验解决方案
-
32:52 - 32:54并在生成过程中不断纠错
-
32:56 - 33:01Gemini Diffusion是一种领先的文本扩散实验模型
-
33:01 - 33:06利用并行生成技术,实现超低延迟
-
33:07 - 33:10例如,我们今天发布的Gemini Diffusion版本
-
33:11 - 33:13生成速度是我们目前速度最快的模型
-
33:13 - 33:172.0 Flash-Lite的五倍
-
33:17 - 33:19而编码能力却旗鼓相当
-
33:20 - 33:22以这个数学问题为例
-
33:22 - 33:23准备,开始!
-
33:26 - 33:27眨眼间整个过程就完成了
-
33:34 - 33:39之前我们加快了速度,但这次我们会放慢一点
-
33:44 - 33:47看到模型如何一步步计算出39这个答案,感觉很棒
-
33:49 - 33:51此模型目前正在小范围测试
-
33:52 - 33:55我们会继续探索各种方法
-
33:55 - 33:57降低所有Gemini模型的延迟
-
33:58 - 34:01并即将推出速度更快的2.5 Flash-Lite模型
-
34:02 - 34:04更多有关Gemini未来发展的信息
-
34:05 - 34:06请Demis与大家进一步分享
-
34:14 - 34:15谢谢你,Tulsi
-
34:16 - 34:21我们一直在不懈探索Gemini 2.5思考功能的边界
-
34:22 - 34:24使用AlphaGo的经验告诉我们
-
34:24 - 34:28给模型更多思考时间,其回答质量会得到改善
-
34:29 - 34:32如今,我们进一步优化了2.5 Pro
-
34:32 - 34:36引入了名为Deep Think的新模式
-
34:37 - 34:41它能将模型性能发挥到极致,带来突破性的成果
-
34:42 - 34:46Deep Think采用了思考与推理领域的前沿研究
-
34:46 - 34:48包括平行技术
-
34:49 - 34:52目前为止,我们看到的性能堪称惊艳
-
34:53 - 34:56在目前难度最高的数学基准测试USAMO 2025中
-
34:56 - 34:59它的评分十分亮眼
-
34:59 - 35:01在LiveCodeBench中也处于领先水平
-
35:01 - 35:04这是一项针对竞赛级编码的高难度基准测试
-
35:05 - 35:08Gemini从一开始就具备原生多模态能力
-
35:08 - 35:12所以自然在衡量此能力的主要基准中表现同样出色
-
35:13 - 35:14这一基准是:MMMU
-
35:15 - 35:19因为我们正在通过2.5 Pro Deep Think来引领前沿技术
-
35:19 - 35:23我们需要额外花一些时间来进行更多前沿安全评估
-
35:23 - 35:26并从安全专家那里获取更多意见
-
35:26 - 35:29因此,我们将通过Gemini API
-
35:29 - 35:31向可信测试员开放此功能
-
35:32 - 35:34以便在大规模推出此功能前获取反馈意见
-
35:35 - 35:38今天稍后,Josh会更详细地给大家介绍
-
35:39 - 35:40我们针对2.5 Pro Deep Think的计划
-
35:42 - 35:43过去十年
-
35:44 - 35:47我们为现代AI纪元的到来做了很多基础工作
-
35:48 - 35:51从我们开创性地发明了Transformer架构
-
35:51 - 35:54它如今已成为所有大语言模型的基础
-
35:55 - 35:58到打造AlphaGo和AlphaZero等智能体系统
-
35:58 - 36:03我们将继续拓展基础研究的深度和广度
-
36:03 - 36:05探索下一个重大突破
-
36:05 - 36:08满足人们对通用人工智能的需要
-
36:10 - 36:14Gemini如今已是卓尔不凡的多模态基础模型
-
36:14 - 36:16但我们依然脚步未停
-
36:16 - 36:18竭力将其打造成所谓的“世界模型”
-
36:19 - 36:22待到那时,它将能够通过模拟世界的方方面面
-
36:22 - 36:26制定计划和构想全新体验,就像人类的大脑一样
-
36:27 - 36:30这一直是我个人的热情所在
-
36:30 - 36:32早在我为《主题公园》等模拟游戏
-
36:32 - 36:34开发AI的早期职业生涯中
-
36:34 - 36:36我就已经开始探索虚拟世界
-
36:37 - 36:40多年来,我们一直向这个方向迈进
-
36:40 - 36:45从训练智能体掌握围棋和《星际争霸》等复杂游戏
-
36:45 - 36:48到最近推出的Genie 2模型
-
36:48 - 36:51它仅通过一张图片作为提示
-
36:51 - 36:54就能生成可交互的三维模拟环境
-
36:56 - 36:58大家已经可以看到这些功能正在逐渐显现
-
36:58 - 37:01例如Gemini能够运用对世界的认知和推理能力
-
37:01 - 37:03来呈现自然万物
-
37:04 - 37:06还有我们先进的视频模型Veo
-
37:06 - 37:09它对基本物理规律有着深刻理解
-
37:09 - 37:12比如重力、光线和材料的属性
-
37:13 - 37:15Veo令人惊叹的地方在于
-
37:15 - 37:19它能在所有帧中保持高度的准确性和连贯性
-
37:19 - 37:22即使提示脑洞大开,它也知道该怎么做
-
37:22 - 37:25比如这个用救生筏生成的人
-
37:27 - 37:31理解物理环境对于机器人技术也至关重要
-
37:32 - 37:34AI系统需要具备世界模型
-
37:34 - 37:36才能在现实世界中高效地运作
-
37:38 - 37:41我们微调了一个专用模型,Gemini Robotics
-
37:41 - 37:43它可以教机器人完成各种实用任务
-
37:43 - 37:47例如抓取物体、执行指令和动态适应新的任务
-
37:48 - 37:52在场的各位,可以在AI展示区中体验这些机器人
-
37:59 - 38:01将Gemini打造成完善的世界模型
-
38:02 - 38:05对于解锁新型AI至关重要
-
38:06 - 38:08比如能够为日常生活提供帮助的AI
-
38:08 - 38:11智能且理解你所处情境的AI
-
38:11 - 38:15以及能够跨设备为你制定计划并采取行动的AI
-
38:16 - 38:18我们对Gemini应用的终极愿景
-
38:19 - 38:22就是将其打造成一个通用型的AI助理
-
38:23 - 38:26让它成为富有个性、主动思考、功能强大的AI
-
38:26 - 38:30以及我们迈向通用人工智能的重要里程碑
-
38:30 - 38:34这要从我们去年在Project Astra中
首次探索的功能开始 -
38:35 - 38:38包括视频理解、屏幕共享和记忆等功能
-
38:39 - 38:43过去一年,我们一直在将这些功能引入Gemini Live
-
38:44 - 38:46以便更多人今天就能体验到
-
38:47 - 38:51当然,我们也会不断改进,并探索新的前沿创新
-
38:52 - 38:56比如通过原生音频升级语音输出,使其变得更自然
-
38:57 - 39:00我们改进了记忆功能,并增加了计算机控件
-
39:00 - 39:01我们来看一下
-
39:02 - 39:05我现在向大家展示的是
Project Astra的最新研究原型 -
39:05 - 39:07下面来看看它如何帮我修自行车
-
39:08 - 39:11[Project Astra]
[行动智能+Gemini] -
39:11 - 39:15上网查查Huffy山地自行车的用户手册
-
39:16 - 39:18已找到一份用户手册
-
39:18 - 39:20你想要什么信息?
-
39:20 - 39:23好,现在向下滚动页面,找到刹车系统的相关章节
-
39:24 - 39:26好的,正在为你查找相应页面
-
39:26 - 39:28这颗螺丝可能滑牙了
-
39:28 - 39:31能否上YouTube找个修复教程视频?
-
39:32 - 39:34没问题,正在打开YouTube
-
39:37 - 39:38这个视频看起来不错
-
39:38 - 39:40将橡皮筋套在螺丝头上
-
39:41 - 39:42噢,不错,谢谢
-
39:42 - 39:44查下我跟自行车店的往来邮件
-
39:44 - 39:46看看我需要哪种规格的六角螺母?
-
39:47 - 39:50好的,Bicycle Habitat的邮件显示
-
39:50 - 39:53你的链轮需要一个3/8英寸的内六角螺母
-
39:53 - 39:54我已经帮你标出了相应的工具盒
-
39:55 - 39:58我好像需要一个备用的张力螺丝
-
39:58 - 40:00能否联系最近的五金店确认是否有货?
-
40:01 - 40:02好的,正在联系对方
-
40:03 - 40:05稍后我会告诉你具体库存信息
-
40:05 - 40:07我的刹车片有磨损了
-
40:07 - 40:08麻烦再查一下用户手册
-
40:08 - 40:10看看上面有没有提到刹车片?
-
40:10 - 40:13用户手册的第24页显示
-
40:13 - 40:15要去吃午饭吗?
-
40:15 - 40:17好,再等我五分钟
-
40:18 - 40:19你刚才说到哪了?
-
40:19 - 40:24刚才说到,第24页第2节有相关说明
-
40:24 - 40:26介绍了如何更换刹车片
-
40:26 - 40:27之前说的那个电话有进展了吗?
-
40:28 - 40:30嗯,我刚和五金店通完电话
-
40:30 - 40:33他们确认张力螺丝还有库存
-
40:33 - 40:34要我下一个自取订单吗?
-
40:35 - 40:38能否展示几款适合我的自行车用的狗篮?
-
40:38 - 40:41没问题,乐意效劳,稍等片刻
-
40:42 - 40:44看看这几款怎么样
-
40:44 - 40:46我觉得特别适合Zuco
-
40:47 - 40:49[行动智能+Gemini]
-
40:49 - 40:53[电脑控制/重点标示/通话助理/知识接地
原生音频/主动思考/聚焦讲话人/个性化购物] -
40:57 - 41:01通用AI助理将帮助我们处理各种任务
-
41:01 - 41:06它会处理琐碎的行政工作
并给出令人愉快的新推荐 -
41:06 - 41:09从而提高我们的效率,丰富我们的生活
-
41:10 - 41:13我们正向可信测试员收集这些新功能的反馈意见
-
41:14 - 41:16并致力于将它们引入Gemini Live
-
41:16 - 41:18提供新的搜索体验
-
41:18 - 41:20以及面向开发者的Live API
-
41:20 - 41:23还有Android XR眼镜等全新形态的设备
-
41:24 - 41:26今天后面还会有更详细的介绍
-
41:28 - 41:29在我整个职业生涯中
-
41:29 - 41:32核心都是关于如何利用AI来推动知识进步
-
41:32 - 41:33以及加速科学发现
-
41:34 - 41:36Google DeepMind长期以来都在致力于
-
41:36 - 41:40将AI应用于近乎每个科学领域
-
41:40 - 41:42仅在过去一年
-
41:42 - 41:45我们就已经在多个领域取得了巨大突破
-
41:45 - 41:47包括数学、生命科学等领域
-
41:48 - 41:49我们构建了AlphaProof
-
41:49 - 41:52它可以解决奥林匹克数学竞赛中银牌水平的问题
-
41:53 - 41:56Co-Scientist,它可以与研究人员协作
-
41:56 - 41:59帮助他们开发和测试新的假设
-
41:59 - 42:01我们还刚发布了AlphaEvolve
-
42:02 - 42:05它可以发现新的科学知识,并加速AI本身的训练
-
42:07 - 42:09在生命科学领域,我们构建了AMIE
-
42:10 - 42:13一个可以帮助临床医生进行医疗诊断的研究系统
-
42:14 - 42:15AlphaFold 3
-
42:15 - 42:19能够预测所有生命体的分子结构和相互作用
-
42:19 - 42:22以及Isomorphic Labs,它以AlphaFold为基础
-
42:22 - 42:27致力于用AI来革新药物研发流程
-
42:27 - 42:30未来有望帮助攻克多种全球性疾病
-
42:31 - 42:33短短几年时间
-
42:33 - 42:37AlphaFold就已经在科学界产生了深远影响
-
42:37 - 42:40它已成为生物学及医学研究的标配工具
-
42:40 - 42:43全球超过250万的研究人员
-
42:43 - 42:45正在其关键工作中使用这一工具
-
42:46 - 42:48在发展通用人工智能的道路上
-
42:49 - 42:52我始终坚信,如果以安全和负责任的方式进行
-
42:52 - 42:55AI有望加速科学发现进程
-
42:55 - 42:59并成为有史以来最有益的技术
-
43:06 - 43:11回想起来,真是不可思议,就在几年前
-
43:11 - 43:16大家今天看到的这些尖端技术还跟魔法一样
-
43:17 - 43:22看到这些技术为搜索和Gemini等产品的新体验赋能
-
43:22 - 43:25并且共同在日常生活中帮助人们,真是令人兴奋
-
43:26 - 43:29例如,我们最近与Aira建立了合作关系
-
43:29 - 43:34这家公司帮助盲人和低视力人群探索世界
-
43:34 - 43:36方法是将该人群通过视频
-
43:36 - 43:38与人工“视觉翻译”连接起来
-
43:38 - 43:40利用Astra技术
-
43:40 - 43:44我们设计了一个帮助更多人获得此类协助的原型
-
43:45 - 43:47我们正在持续收集用户反馈
-
43:47 - 43:52同时Aira的翻译人员也在积极监督安全性及可靠性
-
43:58 - 44:01凭借这项技术以及我们所有的开创性工作
-
44:01 - 44:05我们正在打造更具个性、更主动、更强大的AI
-
44:06 - 44:09从而丰富我们的生活、加速科学进程
-
44:10 - 44:14并开启一个充满发现和奇迹的黄金时代
-
44:18 - 44:22我记得我小时候经常弹吉他到天黑
-
44:22 - 44:26来证明即使我看不见,也可以弹吉他
-
44:28 - 44:32我在大概四岁左右被诊断出患有视网膜色素变性症
-
44:32 - 44:35我的视力水平不断恶化
-
44:36 - 44:41但面对视力逐渐模糊的现实
-
44:42 - 44:45音乐便是我的解药
-
44:46 - 44:48玩音乐让我倍感自由
-
44:50 - 44:53如果Project Astra能助我更独立地生活
-
44:53 - 44:55那真是再好不过了
-
44:59 - 45:01就拿旅游来说,我非常喜欢旅游
-
45:01 - 45:05因为可以走出去,去从未到过的地方,结识新朋友
-
45:05 - 45:08但这确实变得越来越困难
-
45:08 - 45:09你好
-
45:09 - 45:13嗨,我来拍摄周围环境
-
45:13 - 45:16你能告诉我这个绿色房间里有什么吗?
-
45:16 - 45:19你面向的墙壁上贴有一个指示牌
-
45:19 - 45:22写着“Wi-Fi network: TheGreyEagle”
-
45:22 - 45:24密码是“livemusic”
-
45:24 - 45:28非常感谢。你能告诉我麦克风架在哪儿吗?
-
45:28 - 45:30没问题,非常乐意为你提供帮助
-
45:30 - 45:31我可以打开你的手电筒吗?
-
45:32 - 45:33当然可以
-
45:34 - 45:37这面墙上有一些盘绕的电缆
-
45:37 - 45:40视频右上方位置应该就是麦克风架
-
45:43 - 45:46我能做的最有力量的事就是登上舞台
-
45:46 - 45:48拿起吉他,尽情演奏
-
45:48 - 45:53让人们意识到,看不看得见
-
45:53 - 45:55残疾与否,并不能决定一切
-
45:55 - 45:58如果Project Astra能助我一臂之力
-
45:58 - 45:59我将全力支持它
-
46:00 - 46:02祝你演出愉快
-
46:02 - 46:03[前往goo.gle/AstraVI注册加入视觉翻译等候名单]
-
46:11 - 46:12谢谢你,Demis
-
46:12 - 46:17Project Astra在无障碍功能方面的潜力让人惊艳
-
46:18 - 46:20这又是一个激动人心的例子
-
46:20 - 46:23说明AI可以推动我们一直以来的使命
-
46:23 - 46:28即:整理全球信息,让所有人都能访问并从中受益
-
46:29 - 46:32要说最能体现我们使命的产品,非Google搜索莫属
-
46:33 - 46:37正是因为搜索,我们几十年前就开始投资AI
-
46:37 - 46:39也正是通过搜索,我们得以将AI的益处惠及大众
-
46:40 - 46:42满足人类好奇心
-
46:42 - 46:45Gemini模型正在让Google搜索
-
46:45 - 46:48变得更智能、更真实、更个性化
-
46:49 - 46:53我们取得了不俗的进步
AI概览就是一个绝佳的例证 -
46:53 - 46:55自去年I/O大会推出以来
-
46:56 - 46:59该功能已覆盖200多个国家/地区
-
46:59 - 47:02每月服务超15亿用户
-
47:02 - 47:04随着人们使用AI概览
-
47:04 - 47:08我们发现他们对搜索结果更满意
并且搜索频率更高 -
47:09 - 47:12在我们的主要市场,如美国、印度
-
47:12 - 47:16在AI概览的推动下,查询类型
-
47:16 - 47:18实现了超过10%的增长
-
47:19 - 47:24最令人振奋的是,这种增长势头与日俱增
-
47:24 - 47:28这是搜索领域过去十年最成功的产品之一
-
47:36 - 47:41AI概览也是推动Google智能镜头
视觉搜索增长的最强劲动力之一 -
47:42 - 47:45智能镜头的搜索量同比增长65%
-
47:45 - 47:49今年已有超千亿次视觉搜索
-
47:50 - 47:52在我们最新的Gemini模型发布后
不仅用户查询量显著增加 -
47:52 - 47:57而且他们还在尝试更为复杂的查询
-
47:57 - 47:59AI概览达到了用户期待的
-
48:00 - 48:02搜索质量与准确程度
-
48:03 - 48:05并拥有行业领先的响应速度
-
48:06 - 48:09为满足端到端AI搜索体验需求
-
48:09 - 48:12我们正推出全新AI模式
-
48:13 - 48:17这是对搜索的全面重构
同时搭配更先进的推理能力 -
48:18 - 48:23你可以向AI模式提出更长、更复杂的查询
就像这样 -
48:23 - 48:30实际上,用户查询长度已是传统搜索的2到3倍
-
48:30 - 48:34而且我们支持多轮追问
-
48:34 - 48:39所有这些今天正式上线
将作为新标签页整合到搜索中 -
48:39 - 48:43我个人高频使用后发现
它彻底改变了我的搜索方式 -
48:43 - 48:47很高兴宣布AI模式今日起
-
48:47 - 48:49面向全美用户开放
-
48:56 - 49:00AI模式将率先为Google搜索
引入我们的前沿技术 -
49:00 - 49:07本周起,我们最智能的模型系列Gemini 2.5
将接入Google搜索 -
49:07 - 49:09带来更丰富的功能
-
49:09 - 49:10接下来有请Liz
-
49:22 - 49:23Sundar,谢谢
-
49:24 - 49:28短短一年时间
用户使用Google搜索的方式就发生了巨大变化 -
49:29 - 49:34以前,用户在Google上搜索时
常常会问这样的问题 -
49:35 - 49:38但现在,用户的问题变成了这样
-
49:39 - 49:42用户的问题更长,也更复杂了
-
49:43 - 49:46正如Sundar刚才所说,问题数量也大大增加了
-
49:47 - 49:50用户正在亲身体验AI赋能的搜索
-
49:50 - 49:54我们将Gemini模型的先进功能
-
49:54 - 49:58与Google搜索对网络和世界信息的深刻理解
结合在一起 -
49:59 - 50:02现在,你会发现你可以提出任何问题
-
50:02 - 50:08更智能、更个性化的代理式搜索功能
将可以处理你最棘手的问题 -
50:08 - 50:10并帮助你完成任务
-
50:11 - 50:13这就是Google搜索的未来
-
50:14 - 50:17它将超越信息本身,变得越来越智能
-
50:18 - 50:22大家已经开始看到AI概览将这一切变为现实
-
50:22 - 50:24而AI模式更是将它们提升到了新高度
-
50:26 - 50:30AI模式是以Gemini 2.5为核心的变革性搜索体验
-
50:31 - 50:35它是我们功能最强大的AI搜索
能够应对任何问题 -
50:36 - 50:38正如Sundar所说
-
50:38 - 50:43从今天开始
我们将在美国全面推出AI模式 -
50:50 - 50:54它会以新标签页的形式直接出现在搜索页面中
大家也可以从搜索栏进入AI模式 -
50:55 - 51:00AI模式将带来我们最精华的AI功能
-
51:01 - 51:02但还不止于此
-
51:02 - 51:04从它可窥见未来的广阔前景
-
51:05 - 51:10未来,我们将逐步推出大量AI模型、先进的功能
-
51:10 - 51:13并会直接整合到核心搜索体验中
-
51:13 - 51:19今天就是起点
我们带来了为AI模式和AI概览提供支持的模型 -
51:20 - 51:24大家在搜索框中就可以直接提出最难的问题
-
51:25 - 51:27今天,我们将带大家全面了解AI模式
-
51:27 - 51:30看看它如何运作,如何变得越来越强大
-
51:31 - 51:32尤其是在个人使用场景
-
51:32 - 51:36深度研究、复杂分析、可视化
-
51:36 - 51:39实时多模态以及购物新方式等方面
-
51:39 - 51:42亮点很多,因为AI模式的功能很强大
-
51:43 - 51:49下面,我们具体来说一下
首先,使用AI模式,你可以随心所欲地提问 -
51:49 - 51:52大家可以看到,搜索功能会立即开始工作
-
51:52 - 51:56生成回答,将所有信息整合在一起
-
51:57 - 52:01包括你可能从未发现的内容和创作者的链接
-
52:01 - 52:05以及包含评分等实用信息的商家和企业的链接
-
52:06 - 52:09Google搜索使用AI动态地调整整个界面
-
52:10 - 52:15灵活组合文字、图片、链接,甚至是地图
-
52:15 - 52:16只为更好地回答你的问题
-
52:17 - 52:19你可以追问,就像跟人对话一样
-
52:20 - 52:22现在,AI模式不仅仅是提供信息
-
52:23 - 52:26更将搜索带到了全新的智能水平
-
52:27 - 52:31这一切之所以能实现
得益于称之为查询扇出的技术 -
52:32 - 52:36其原理是
Google搜索会识别需要高级推理的问题 -
52:37 - 52:39并调用定制版的Gemini
-
52:39 - 52:42将问题分解为若干子主题
-
52:42 - 52:46然后替你同时发起大量查询
-
52:47 - 52:52它会在整个网络进行搜索,深度远超传统搜索
-
52:53 - 52:56它还会利用我们所有的实时信息数据集
-
52:56 - 53:01例如知识图谱、购物信息图谱
以及本例中涉及的本地数据 -
53:01 - 53:06这其中包含地图社区中,5亿多贡献者的数据洞见
-
53:07 - 53:10Google搜索会整合所有信息给出回答
并进行自我检查 -
53:10 - 53:13确保符合我们对信息质量的高标准要求
-
53:14 - 53:18如果发现任何不足,它会发起更多搜索来弥补
-
53:19 - 53:21这意味着,在AI模式下
-
53:21 - 53:25你只需搜索一次,就能快速获得所有这些信息
-
53:27 - 53:30现在来看看AI模式即将增加的新功能
这些功能会先在实验室中进行测试 -
53:32 - 53:36不久之后,AI模式将能根据你以往的搜索记录
-
53:36 - 53:39提供个性化的建议,从而使回答更具针对性
-
53:40 - 53:44你还可以选择关联其他的Google应用
首先是Gmail -
53:45 - 53:47我们称之为个人使用场景
-
53:47 - 53:50关联之后
AI模式可以引入你的个人使用场景来提供帮助 -
53:51 - 53:54现在,根据你最近的酒店预订和搜索记录
-
53:55 - 53:56它能推断出你更喜欢户外的座位
-
53:57 - 54:00由于你订阅了这些画廊简报
-
54:00 - 54:03它就会推荐一些精彩的艺术展
方便你在当地停留期间参观 -
54:04 - 54:05但还不止这些
-
54:06 - 54:09如果你的航班和酒店确认邮件都在收件箱里
-
54:09 - 54:13它还会推荐你在纳什维尔时刚好能参加的活动
-
54:13 - 54:15推荐你在停留期间的周边好去处
-
54:16 - 54:20你会发现,AI模式中的个人使用场景功能
可以将Google搜索变成为你量身定制的工具 -
54:20 - 54:23专门为你提供推荐内容
-
54:24 - 54:26这一切始终都由你掌控
-
54:26 - 54:29你可以随时选择关联或解除关联
-
54:30 - 54:33个人使用场景将于今年夏天在AI模式中上线
-
54:41 - 54:44另外,我们将针对需要更深入解答的问题
-
54:45 - 54:48为AI模式引入Deep Research功能
-
54:49 - 54:52大家已经在使用Google搜索来剖析某个主题
-
54:52 - 54:54而这项功能将研究的深度和广度又提升了一个级别
-
54:55 - 54:58所以我们称之为Deep Search
-
54:59 - 55:02Deep Search同样采用前面提到的查询扇出技术
-
55:02 - 55:04但功能更强
-
55:04 - 55:08它可以替你发起数十次甚至数百次搜索
-
55:09 - 55:12它会对所有分散的信息进行分析推理
-
55:12 - 55:16并在几分钟内生成一份
带有完整引用信息的专家级报告 -
55:17 - 55:18报告中会包含网页链接
-
55:19 - 55:21方便你进一步探索和采取行动
-
55:22 - 55:26这是我们构建AI模式的核心理念
-
55:26 - 55:29以及我们对搜索领域中AI运用的一贯思考
-
55:30 - 55:33因为我们坚信,AI将成为Web有史以来
-
55:33 - 55:35最强大的发现引擎
-
55:36 - 55:39帮助人们发现网络中更多有价值的信息
-
55:39 - 55:42找到令人惊叹且高度相关的内容
-
55:43 - 55:46大家已经开始感受到搜索变得越来越智能
-
55:46 - 55:48但精彩远不止于此
-
55:49 - 55:50接下来,我把时间交给Rajan
-
55:50 - 55:53他将介绍AI模式如何帮助他分析
-
55:54 - 55:56他热爱的一个体育领域里的复杂数据
-
56:07 - 56:11Liz,谢谢你!我是一个狂热的棒球迷
-
56:11 - 56:15最近关于这种叫做“鱼雷球棒”的新型球棒
引起了很多讨论 -
56:15 - 56:17为不太关注棒球的朋友解释一下
-
56:17 - 56:22这是一种新型球棒
它的特点是将更多重量集中在最佳击球点 -
56:22 - 56:27正如大家所见
我一直在研究这种球棒是否真的对比赛产生了影响 -
56:27 - 56:30现在,我想知道数据会怎么说
-
56:30 - 56:32于是,我向Google搜索提出了一个问题
-
56:32 - 56:35请显示目前使用鱼雷球棒的知名球员
-
56:36 - 56:39在本赛季和上赛季的打击率和上垒率
-
56:40 - 56:43这个问题并不简单,包含了多重维度
-
56:43 - 56:46Google搜索需要识别哪些是知名球员
-
56:47 - 56:50谁在使用鱼雷球棒,并整合他们的赛季数据
-
56:51 - 56:55但它马上给出了非常实用的回答
其中还有容易理解的表格 -
56:56 - 56:58而且,数据新鲜、精准
-
56:58 - 57:02因为它使用的是我们持续更新的体育数据
-
57:02 - 57:04甚至精确到最近一次好球
-
57:05 - 57:07Google搜索甚至还提供了重要的背景信息
-
57:07 - 57:10比如“目前赛季仍处于早期阶段”
-
57:10 - 57:15我继续追问:这些球员本赛季击出多少支本垒打?
-
57:15 - 57:18瞬间就获得了一张图表
-
57:19 - 57:21这正好印证了Liz刚才提到的
-
57:21 - 57:26AI模式能够为每个回答动态生成合适的界面
-
57:27 - 57:31Google搜索确定
最适合呈现这些信息的方式是图表 -
57:31 - 57:37因此生成了图表
就像Google搜索里内置了一个专属体育分析师 -
57:37 - 57:42针对体育和金融问题的复杂数据分析和可视化功能
-
57:42 - 57:44将在今年夏天上线
-
57:50 - 57:55说了这么多棒球,我都想去现场看比赛了
-
57:55 - 57:58比如说,下一场就去看
-
57:58 - 58:01但是,购买好票总是让人头大
-
58:02 - 58:04这里很高兴地告诉大家
-
58:04 - 58:09我们正将Project Mariner的代理式功能
整合到AI模式中 -
58:10 - 58:14大家已经看到AI模式正变得更加智能和个性化
-
58:14 - 58:18现在可以开始看到Google搜索正变得更加主动
-
58:18 - 58:22它能帮我完成任务,但仍由我保持掌控权
-
58:23 - 58:24我会告诉它
-
58:24 - 58:29“找两张这周六红人队比赛下层看台的平价门票”
-
58:30 - 58:31Google搜索启动查询扇出
-
58:32 - 58:36同时扫描多个网站,分析上百个潜在的门票选项
-
58:36 - 58:41按我提出的所有条件填写表单
不用我去做这些繁琐的工作 -
58:42 - 58:44然后将所有信息汇总在一起
-
58:44 - 58:48基于搜索结果进行推理,分析实时票价和库存
-
58:49 - 58:53然后,像这样,任务就完成了
-
58:53 - 58:56它给出了不错的门票选项,还有实用的背景信息
-
58:57 - 58:59我可以在此基础上做出明智的决定
-
59:00 - 59:03这些座位看起来视野良好,价格合理
-
59:04 - 59:06Google搜索已代我完成了大量步骤填写这些信息
-
59:06 - 59:08并提供了链接,引导我完成结账
-
59:09 - 59:10定下这些门票
-
59:18 - 59:20Google搜索很快将能够帮助处理这类任务
-
59:21 - 59:26首先覆盖的是活动门票、餐厅预订和本地生活服务预约
-
59:28 - 59:31接下来,让我们聊聊多模态技术
-
59:32 - 59:35从多模态搜索这个概念还不怎么流行的时候
-
59:35 - 59:36我们就一直是这个领域的方向引领者
-
59:37 - 59:41回到2017年,我们就是在这个讲台上
宣布推出了Google智能镜头 -
59:41 - 59:45此后我们不断优化,让所见即所搜更加便捷
-
59:46 - 59:49只需用Google智能镜头拍照或使用圈定即搜
-
59:49 - 59:52就能立即获得AI概览
-
59:53 - 59:54Sundar刚才提到过
-
59:54 - 59:56视觉搜索目前正呈现出燎原之势
-
59:56 - 59:58今天我很激动地宣布
-
59:58 - 60:02每月有超过15亿用户使用Google智能镜头
-
60:08 - 60:11现在,我们正围绕多模态迈出重大的一步
-
60:12 - 60:16将Project Astra的实时功能引入AI模式
-
60:17 - 60:21想想那些对话交流一下,就会变得超级简单的问题
-
60:21 - 60:23而且自己的意图还能得到准确的展示
-
60:23 - 60:25比如家庭DIY维修
-
60:26 - 60:28棘手的学校作业,或是学习新技能
-
60:29 - 60:31我们称之为实时搜索
-
60:31 - 60:33现在利用摄像头
-
60:33 - 60:36Google搜索能随着用户来回走动
-
60:36 - 60:39实时感知他们看到的画面,并提供有用信息
-
60:39 - 60:42就像在与Google搜索进行视频通话
-
60:43 - 60:47我有三个孩子,他们每分钟能问上百万个问题
-
60:47 - 60:49随着暑假临近
-
60:50 - 60:53我和团队决定对实时搜索进行终极测试
-
60:53 - 60:57帮助我们和孩子们解决些新问题
-
60:58 - 61:02上周末,我们与我的家人在家里录制了演示
-
61:02 - 61:03一起看下吧
-
61:04 - 61:07看起来你们准备做有趣的科学实验
-
61:07 - 61:09好的。准备好了吗?
-
61:09 - 61:10-好了
-好的 -
61:11 - 61:13-你准备好开始实验了吗?
-好了 -
61:13 - 61:17能猜出我要做什么实验吗?我有双氧水
-
61:17 - 61:18洗洁精和酵母
-
61:18 - 61:20你可能要做大象牙膏实验
-
61:21 - 61:23我知道哪颗草莓可以吃了
-
61:23 - 61:25我在想办法让遥控器工作
-
61:25 - 61:29看来有人准备种下青豆幼苗
-
61:29 - 61:31把压力调到每平方英寸50磅左右
-
61:31 - 61:33但不要超过每平方英寸90磅
-
61:33 - 61:36我混合了小苏打,接下来做什么?
-
61:36 - 61:39看起来有人把手指伸进肉桂水里了
-
61:39 - 61:41如何让实验更壮观?
-
61:41 - 61:43可以尝试不同的催化剂
-
61:43 - 61:45碘化钾是个好选择
-
61:46 - 61:47哇!为什么会这样?
-
61:47 - 61:49成熟的草莓也会有甜香味
-
61:50 - 61:52顶部绿叶应新鲜、有活力
-
61:52 - 61:54化学反应进行得很顺利
-
61:54 - 61:56-太棒了!谢谢!
-
61:58 - 61:59-再来一次可以吗?
-
61:59 - 62:04小伙子,怎么洗掉衣服上的草莓渍?
-
62:05 - 62:07尝试用一汤匙白醋
-
62:07 - 62:09加半茶匙洗衣液
-
62:24 - 62:30通过AI模式
我们正在带来全新Google智能购物体验 -
62:31 - 62:32前面提到过
-
62:33 - 62:38AI模式整合了网络信息和实时数据
-
62:38 - 62:42在这种情况下
这意味着既可通过Google图片获得视觉灵感 -
62:43 - 62:49又能获得购物信息图谱提供的
海量商品和零售商数据 -
62:49 - 62:55其中包含超过500亿条持续更新的商品详情
-
62:56 - 62:58我来演示一下这是如何实现的
-
62:59 - 63:02我一直在为我的客厅寻找一块新地毯
-
63:03 - 63:06因此,我给出提示:我家有一个浅灰色的沙发
-
63:07 - 63:09想找一块能让房间看起来更明亮的地毯
-
63:10 - 63:13我首先需要的是视觉灵感
-
63:14 - 63:18Google搜索根据我的喜好
动态生成了一个可浏览的图片拼接图 -
63:19 - 63:23并显示了一些可购买的商品
-
63:24 - 63:28其中就有我常用品牌的地毯
以及风格更现代的选项 -
63:28 - 63:31因为我经常搜索这类风格的物品
-
63:32 - 63:38这些推荐虽好,但大多数在我家恐怕连一天都撑不过
-
63:39 - 63:40于是我补充道
-
63:43 - 63:47家里有四个活泼的孩子,他们经常带朋友来玩
-
63:48 - 63:52Google搜索立刻意识到了那种杂乱的场面
-
63:52 - 63:57于是推荐了采用耐用材质的短绒地毯或可水洗地毯
-
63:57 - 63:59还附上了一些可直接购买的产品
-
64:01 - 64:03不过我对地毯并不专业
-
64:03 - 64:06好在Google搜索贴心地指出了需要考虑的事项
-
64:06 - 64:09并提供了后续实用建议
-
64:10 - 64:15原本需要几周的研究,现在只需几分钟
-
64:16 - 64:21可以想象,这种全新的AI模式体验
-
64:21 - 64:23对购物需求会有多实用
-
64:24 - 64:27说到购物,我需要几件夏天穿的新裙子
-
64:28 - 64:31Google搜索给了我一些不错的选择
-
64:31 - 64:36但现在我遇到了经典网购难题
-
64:37 - 64:41那就是完全不知道这些款式穿在我身上会是什么样
-
64:42 - 64:45于是,我们将推出一项新的试穿功能
-
64:45 - 64:48帮用户虚拟试穿
-
64:48 - 64:52感受款式在身上的效果
-
64:53 - 64:54我来实时演示一下
-
64:56 - 65:02在一通搜索之后,我找到一条喜欢的蓝裙子
-
65:03 - 65:06然后点击这个按钮试穿
-
65:06 - 65:10系统提示我上传照片,并引导我进入相册
-
65:11 - 65:12我有很多照片
-
65:12 - 65:16于是打算选一张清晰的全身照
-
65:17 - 65:19处理就开始了
-
65:20 - 65:23在等待系统处理的时候
我想介绍下背后的技术原理 -
65:24 - 65:27为了打造这种规模化运作的试穿功能
-
65:28 - 65:30我们需要深度理解人体结构
-
65:31 - 65:33及服装在人体上的呈现效果
-
65:33 - 65:36为此,我们构建了一个专门针对时尚行业训练的
-
65:37 - 65:39定制图片生成模型
-
65:40 - 65:41哇,处理完成了!
-
65:50 - 65:54必须说实时演示成功的感觉太棒了
-
65:56 - 65:58我们来继续聊背后的原理
-
65:58 - 66:01该技术整合了先进的3D形体理解能力
-
66:02 - 66:06能更精准地感知形状与深度
-
66:06 - 66:09从而更好地呈现人体轮廓
-
66:09 - 66:12这种体验完全基于你的照片
-
66:12 - 66:16而非预先拍摄的图片或跟你不像的模特
-
66:17 - 66:20对于你心仪的服饰
-
66:20 - 66:27AI模型能够呈现面料褶皱、延展和垂坠感
-
66:28 - 66:32这是一项业内领先的技术,可大规模应用
-
66:32 - 66:34借助它,我们能以直观的方式
-
66:34 - 66:39呈现数十亿服装产品
在不同体型的人群身上的穿着效果 -
66:39 - 66:41大家可以看到
-
66:41 - 66:44这个功能让我真实感受到了裙子上身的效果
-
66:45 - 66:48选好裙子后
-
66:48 - 66:51Google搜索还能通过全新代理式结账功能
-
66:52 - 66:55按目标价位帮我购买
-
66:55 - 66:58现在回到这件裙子的页面
-
66:58 - 67:02我想点击按钮,跟踪价格
-
67:03 - 67:05选择尺码后
-
67:06 - 67:07设定目标价
格 -
67:07 - 67:10我打算设成50美元左右
-
67:12 - 67:14跟踪功能马上启动
-
67:14 - 67:18Google搜索现在将持续监测销售该裙子的网站
-
67:18 - 67:21在价格降到位时通知我
-
67:21 - 67:25现在我们退出实时演示
-
67:25 - 67:27这里我施展一点魔法
-
67:28 - 67:30假设价格现在降到位了
-
67:31 - 67:35此时系统会推送类似画面中的通知
-
67:36 - 67:37我确认购买后
-
67:37 - 67:42结账智能体会将尺码和颜色合适的裙子
添加到购物车中 -
67:42 - 67:46我可以选择核对所有支付与配送信息
-
67:46 - 67:49或直接授权智能体完成购买
-
67:58 - 68:04只需点按一下,Google搜索就能
使用Google Pay安全地代我完成购买 -
68:04 - 68:06当然,从灵感激发到最终购买
-
68:07 - 68:10整个流程全程由我主导
-
68:11 - 68:13我们的全新智能功能
-
68:13 - 68:18将最好的购物体验与顶尖AI技术
融合在了Google搜索中 -
68:19 - 68:22全新可视化购物及结账功能
-
68:22 - 68:24将在未来几个月内逐步推出
-
68:24 - 68:29虚拟试穿功能即日起可在实验室版本中体验
-
68:36 - 68:38现在把时间交还给Liz
-
68:46 - 68:49感谢Vidhya!正如Sundar所说
-
68:49 - 68:52本周晚些时候即将迎来重大升级
-
68:52 - 68:59Gemini 2.5定制版将集成到AI模式和AI概览中
-
68:59 - 69:02这意味着,Google搜索迎来了新篇章
-
69:03 - 69:05受益于此,AI概览将会把AI的实用性
-
69:06 - 69:08带给核心Google搜索体验的每一个用户
-
69:09 - 69:10正如你今天所见
-
69:11 - 69:14AI模式是一种彻底重构的AI搜索
-
69:14 - 69:18集成了我们最前沿的AI特性和功能
-
69:18 - 69:22我们很激动,Google搜索迎来了新篇章
-
69:22 - 69:27毫不夸张地说,用户可以真正地问它任何事
-
69:28 - 69:30从最简单到最棘手的问题
-
69:30 - 69:34最深的研究、个性化购物需求
-
69:34 - 69:36希望代劳的琐事
-
69:37 - 69:39只需提问,即可获得响应
-
69:42 - 69:47好戏开场!我的魅力自然流露
-
69:48 - 69:51我的风格如此惊艳,让所有人都为之震撼
-
69:51 - 69:53等等!我感觉妙不可言
-
69:54 - 69:57来吧,展示你如何舞动
舞动、舞动,释放自我 -
69:57 - 69:59我用崭新视角迎接挑战
-
69:59 - 70:01将热情点燃,让全场沸腾
-
70:01 - 70:03我们将激情调到最高点,就是这样,来吧!
-
70:04 - 70:05舞动、舞动,释放精彩
-
70:05 - 70:07来吧,尽情展现你的独特魅力
-
70:07 - 70:09我还应该做些什么来让它更坚固?
-
70:09 - 70:12为了让它更坚固
建议在设计中运用更多三角形结构 -
70:14 - 70:16已经足够完美了
-
70:16 - 70:19尽情沐浴在聚光灯下,因为你值得闪耀
-
70:20 - 70:24F-A-B-U-L-O-U-S,每一天都光芒四射
-
70:24 - 70:25想要就来追求,勇敢出击
-
70:25 - 70:29无意冒犯,只为精彩舞动
舞动、舞动,释放精彩 -
70:29 - 70:33我带来崭新的创意风格
将热情点燃,让全场沸腾 -
70:33 - 70:35我们把热情推向极致
-
70:35 - 70:37就是这样,舞动、舞动,释放精彩
-
70:37 - 70:40来吧,尽情展现你的独特魅力,让我大声喊出
-
70:40 - 70:42就是这样,太棒了!
-
70:43 - 70:45舞动、舞动,释放精彩
-
70:45 - 70:47我带来崭新的创意风格
-
70:47 - 70:49将热情点燃,让全场沸腾
-
70:49 - 70:53我们把热情推向极致
来吧,舞动、舞动,释放精彩 -
70:53 - 70:58来吧,尽情展现你的独特魅力,光芒四射!
-
70:58 - 71:00每一天都耀眼夺目
-
71:00 - 71:01想要就来追求,勇敢出击
-
71:01 - 71:03无意冒犯,只为精彩——等等!
-
71:18 - 71:21多年来,人们一直致力于构建
-
71:21 - 71:25一种不仅能给出回应,而且具有理解能力的AI助理
-
71:25 - 71:28一个不仅仅等待用户提问,而是能够提前预判需求的助理
-
71:29 - 71:32一个真正能为用户赋能的通用助理
-
71:33 - 71:36今天,我们正朝着这个方向迈出新步伐
-
71:37 - 71:39而Gemini应用正是我们实现这一目标的工具
-
71:40 - 71:47我们的目标是将Gemini打造成
最个性化、最主动、最强大的AI助理 -
71:47 - 71:50而这一切始于个性化
-
71:51 - 71:55如果你的AI助理真正属于你
完全为你定制,会怎样? -
71:55 - 72:01它能学习你的特点、你的偏好
你的项目、你的生活场景 -
72:01 - 72:03而你始终处于主导地位
-
72:04 - 72:06在你授权的情况下
-
72:06 - 72:08你可以与它分享你所有的Google信息
-
72:09 - 72:10使其成为你的延伸
-
72:11 - 72:14我们将这项功能称为“个人使用场景”
-
72:14 - 72:18我们已经实现了让用户与Gemini分享搜索记录
-
72:18 - 72:22这样它就能知道用户曾经搜索过哪些食谱
-
72:22 - 72:24并据此生成这样的回答
-
72:25 - 72:26很快,你还可以添加
-
72:26 - 72:30你在各种Google服务中的更多个人使用场景
-
72:30 - 72:33让Gemini为你提供专属帮助
-
72:34 - 72:36如果你选择启用这个功能
-
72:36 - 72:38将始终掌控自己的体验
-
72:38 - 72:40启用后,你可以随时查看和管理自己的信息
-
72:40 - 72:43关联或解除关联各种Google应用
-
72:44 - 72:49这种个性化将孕育主动型AI助理
-
72:49 - 72:51带来革命性改变
-
72:52 - 72:55要知道,目前大多数AI都是被动反应式的
-
72:55 - 72:57你问一句,它答一句
-
72:57 - 73:00但如果它能预见即将发生的事情
-
73:00 - 73:03在你问它之前就帮你做好准备呢?
-
73:04 - 73:05假设你是一名学生
-
73:05 - 73:07你的物理考试即将来临
-
73:07 - 73:09Gemini能提前一周在你的日历上圈出这场考试
-
73:09 - 73:12而不是让你手忙脚乱地准备
-
73:12 - 73:14它并不只是提醒你而已
-
73:14 - 73:16它会为你提供个性化测验
-
73:17 - 73:18这些测验整合了你的课堂材料
-
73:18 - 73:22教授的讲义,甚至是你手写笔记的照片
-
73:22 - 73:23这不仅仅是有用
-
73:24 - 73:25这会让人感觉就像魔法一样神奇
-
73:26 - 73:28再更进一步
-
73:28 - 73:30设想Gemini能够基于你的兴趣
-
73:30 - 73:34制作个性化讲解视频
-
73:34 - 73:37帮助你更好地理解学习主题
-
73:38 - 73:40例如,Gemini了解到我喜欢骑行
-
73:41 - 73:46它就会用自行车相关的类比来为我讲解热力学原理
-
73:46 - 73:48这就是Gemini的发展方向
-
73:49 - 73:50而这一切之所以成为可能
-
73:51 - 73:54都要归功于底层模型的强大能力
-
73:55 - 73:59上个月,我们发布了最新的Gemini 2.5 Pro模型
-
73:59 - 74:01这不只是一次升级,而是一次飞跃
-
74:02 - 74:05人们正在用它创造出非凡的成果
-
74:05 - 74:06他们不仅仅是进行氛围编程
-
74:06 - 74:11而是能在几分钟内创造出
完整的游戏和功能齐全的网站 -
74:11 - 74:14他们只需要在脑海中构思,就能让创意变为现实
-
74:14 - 74:17而且这很有趣,无论是第一次编写软件
-
74:17 - 74:21还是使用Veo模型创建视频,或者生成和编辑图像
-
74:21 - 74:23这些技能现在成了每个人都能掌握的“超能力”
-
74:24 - 74:29因此,个性化、主动性、强大功能
-
74:30 - 74:32这三个方面是AI辅助的前沿领域
-
74:32 - 74:34而借助Gemini 2.5 Pro
-
74:34 - 74:36我们在这三个方面都取得了重大进展
-
74:38 - 74:39接下来,我们来详细了解一下
-
74:39 - 74:42这些功能如何在Gemini应用中实现
-
74:43 - 74:44我们今天将推出五项新功能
-
74:45 - 74:47首先,我们来看看Gemini Live
-
74:48 - 74:52许多用户对其自然流畅的交互和对话方式赞不绝口
-
74:53 - 74:57它支持150多个国家/地区的45种以上的语言
-
74:57 - 74:59它是如此直观、如此富有互动性
-
75:00 - 75:01以至于用户与它的对话时长
-
75:01 - 75:05是Gemini应用中文本对话的五倍
-
75:05 - 75:07从我的个人经验来说
-
75:07 - 75:11它非常适合在早上开车上班的路上
交流讨论、梳理思路 -
75:12 - 75:13正如Sundar提到的
-
75:13 - 75:15Gemini Live现在增加了
-
75:15 - 75:18出色的相机和屏幕共享功能
-
75:18 - 75:20而从今天起
-
75:20 - 75:22你可以在Gemini移动应用中免费使用这些功能
-
75:22 - 75:23并同时支持Android和iOS设备
-
75:30 - 75:31在接下来的几周内
-
75:31 - 75:34你将能够把Gemini Live连接到你喜爱的部分应用中
-
75:34 - 75:37如日历、地图、Keep和Tasks
-
75:37 - 75:40这样一来,你只需将摄像头对准邀请内容
-
75:40 - 75:43就能让Gemini立即将其添加到日历中
-
75:44 - 75:48或者,在面对室友手写的潦草购物清单时
-
75:48 - 75:52Gemini Live能够将那些潦草的笔记
转换成Google Keep中的整洁列表 -
75:53 - 75:57我们为Gemini Live规划了众多令人期待的新功能
-
75:57 - 76:01这些功能正在刚才展示的Project Astra中进行原型设计
-
76:02 - 76:03当这些功能成熟后
-
76:03 - 76:06我们会在Gemini Live中推出,让所有人都能使用
-
76:07 - 76:10由于Gemini和Android合作紧密
-
76:10 - 76:12这些创新功能中的大部分
-
76:12 - 76:16会在整个生态系统中的Android设备上大放异彩
-
76:16 - 76:17所以,敬请期待未来的更多更新!
-
76:18 - 76:23实时交互确实很棒,但有时候,你需要深入挖掘
-
76:23 - 76:25梳理一些复杂的内容
-
76:26 - 76:28这就是Deep Research的用武之地
-
76:28 - 76:31从今天起,你可以在使用Deep Research时
-
76:31 - 76:34上传自己的文件来指导研究智能体
-
76:34 - 76:37这也是用户呼声最高的一项功能
-
76:37 - 76:41很快,你还能够将Deep Research
与Google云端硬盘和Gmail连接 -
76:42 - 76:44以便轻松地从中导入信息
-
76:45 - 76:48假如你获得了一份精彩、翔实的研究报告
-
76:48 - 76:52比如这份关于彗星在太空中运行轨迹的科学分析
-
76:53 - 76:57但要如何才能让它变得易于理解又能吸引读者呢?
-
76:58 - 77:00以及如何分享这些精彩内容呢?
-
77:01 - 77:02这就是Canvas大显身手的时刻
-
77:02 - 77:06Canvas是Gemini提供的交互式协同创作空间
-
77:06 - 77:07现在借助Canvas
-
77:08 - 77:12只需轻轻一点就能转换报告格式
-
77:12 - 77:16你可以将它转换成动态网页、信息图、实用测验
-
77:16 - 77:19甚至是支持45种语言的自定义播客
-
77:20 - 77:22要想更进一步,你可以在Canvas中通过氛围编程
-
77:22 - 77:27创建各种精彩内容,让它按照你的想法不断完善作品
-
77:28 - 77:30直到创造出你脑海中的构想
-
77:31 - 77:33例如,我们的一位Google同事
-
77:33 - 77:37仅仅是描述了自己的构想,然后与Gemini展开协作
-
77:37 - 77:40便创造出了这个精确的交互式彗星运行模拟
-
77:41 - 77:43现在,你也可以分享这样的应用
-
77:43 - 77:47让其他人也能一起查看、修改甚至二次创作
-
77:48 - 77:51这种能够转化任何内容的能力
-
77:51 - 77:53开创了使用Gemini的全新方式
-
77:55 - 77:58今天,我们还将推出Gemini的另一种全新使用方式
-
77:58 - 78:01Chrome中的Gemini
-
78:02 - 78:07它将成为你在桌面端浏览网页时的AI助理
-
78:08 - 78:10最棒的是
-
78:10 - 78:15它能直接理解你当前浏览的页面内容
-
78:15 - 78:17只要你想到任何问题,都能获得针对性的解答
-
78:18 - 78:21我个人最喜欢用它来对比一长串的评价内容
-
78:21 - 78:23比如这个露营网站
-
78:24 - 78:25从本周开始
-
78:25 - 78:27我们将向美国地区的Gemini订阅者
-
78:27 - 78:29推出Chrome中的Gemini
-
78:36 - 78:39至此,我们已经体验了测验、Gemini Live对话
-
78:39 - 78:42学习了彗星和露营地的知识
-
78:42 - 78:43现在,我们来创造一些内容
-
78:44 - 78:45从今天起
-
78:45 - 78:50Google旗下最先进、功能最强大的图像生成模型
-
78:50 - 78:51正式在Gemini应用上推出
-
78:52 - 78:56它叫做Imagen 4,这是又一次重大飞跃
-
79:00 - 79:06生成的图像更加饱满,色彩更加细腻,细节更为精细
-
79:06 - 79:08例如各种场景中的阴影层次
-
79:09 - 79:11以及照片中栩栩如生的水滴效果
-
79:11 - 79:14经过长期的研究
-
79:14 - 79:16我可以肯定地说,这些模型生成的图像质量
-
79:17 - 79:21已经实现了从“不错”到“出色”再到“惊艳”的飞跃
-
79:22 - 79:26Imagen 4在文字和排版方面也有很大提升
-
79:26 - 79:29之前的模型虽然能生成不错的图像
-
79:30 - 79:33但在图像中加入文字时总会出现瑕疵
-
79:33 - 79:37举个例子,假设我想创建一张音乐节海报
-
79:38 - 79:40将那只Chrome恐龙作为主角
-
79:40 - 79:44Imagen 4不仅能够准确呈现文本内容和正确拼写
-
79:44 - 79:47它还能做出富有创意的设计决策
-
79:47 - 79:49比如在字体中融入恐龙骨骼元素
-
79:49 - 79:53调整文字间距、字号大小和整体布局
-
79:53 - 79:55创造出这张很棒的海报
-
79:55 - 80:00总之,图像质量更高、生成速度更快、文字效果更好
-
80:00 - 80:05这样一来,你就可以制作海报、派对邀请函等内容
-
80:06 - 80:08借助原生图像生成功能
-
80:08 - 80:11你还可以直接在应用中轻松编辑这些图像
-
80:12 - 80:16我们还开发了一个快速版本的Imagen 4
-
80:16 - 80:18我们非常期待你能亲自体验它
-
80:18 - 80:23它的速度是我们先前模型的十倍
-
80:23 - 80:25让你能够快速尝试和完善各种创意
-
80:26 - 80:28最后,我想向大家展示一项新内容
-
80:29 - 80:30这些生成的图像的确很棒
-
80:31 - 80:35但要讲述一个完整的故事有时需要动作和声音的配合
-
80:36 - 80:38去年12月,我们发布的Veo 2模型
-
80:38 - 80:42重新定义了整个行业的视频生成标准
-
80:42 - 80:46如果你注意到了Demis昨天发布的煎炒洋葱视频
-
80:46 - 80:48就能猜到我们还有更多新鲜出炉的惊喜
-
80:49 - 80:53今天,我很高兴地宣布推出我们最先进的模型
-
80:54 - 80:55Veo 3
-
81:02 - 81:05与今天发布的其他内容一样
-
81:05 - 81:07它从今天起就已开放使用
-
81:12 - 81:14视觉质量更加出色
-
81:14 - 81:18对物理规律的理解更加强大
-
81:18 - 81:24但这次质的飞跃在于,Veo 3实现了原生音频生成
-
81:24 - 81:31这意味着Veo 3能够生成音效
-
81:31 - 81:34背景音,甚至对话
-
81:35 - 81:38只需输入提示,你的角色就会开口说话
-
81:39 - 81:43这是森林中一只睿智的老猫头鹰与一只紧张的小獾
-
81:43 - 81:44敬请聆听
-
81:54 - 81:56他们今天留下了一个球
-
81:57 - 81:59它能弹得比我跳得还高!
-
82:00 - 82:02这是什么神奇的魔法?
-
82:15 - 82:19很酷吧?Veo不仅添加了森林的声音
-
82:19 - 82:20还添加了对话
-
82:21 - 82:27内容创作正在进入结合音频和视频生成的新时代
-
82:27 - 82:29无论是画面还是声音都栩栩如生
-
82:29 - 82:31让人感觉身临其境
-
82:31 - 82:35在这个视频中,就像真的坐在这艘船上
-
82:37 - 82:39这片海洋,是一股无与伦比的力量
-
82:39 - 82:41一种未被驯服的野性力量
-
82:42 - 82:43她指挥着你的每一次划桨
-
82:44 - 82:45伴随着每一道破浪的闪光
-
82:53 - 82:56如此逼真的画面、丰富的情感表达
-
82:56 - 83:00匹配的口型,以及背景中的海洋
-
83:00 - 83:03作为一款强大的创意工具
-
83:03 - 83:06Veo的发展速度令人叹为观止
-
83:07 - 83:09我们一直在与电影行业密切合作
-
83:10 - 83:13共同探索Veo的可能性,直至做好发布的准备
-
83:13 - 83:15稍后也将为大家分享更多具体内容
-
83:16 - 83:18以上就是Gemini的更新内容
-
83:19 - 83:22从今天起,Gemini Live的各项功能
-
83:22 - 83:25在Android和iOS上完全免费提供
-
83:25 - 83:29Deep Research和Canvas迎来了迄今为止最大的更新
-
83:29 - 83:31正如之前介绍的
-
83:31 - 83:34支持多步骤操作的Agent Mode也即将推出
-
83:34 - 83:38我们推出了Chrome中的Gemini,帮助你浏览网页
-
83:38 - 83:40你可以使用全新的Imagen 4和Veo 3模型
-
83:40 - 83:45创建令人惊叹的图像和音画结合的视频
-
83:45 - 83:48所有这些功能都将在Gemini应用中整合
-
83:48 - 83:54助力我们打造最个性化、最主动、最强大的AI助理
-
83:55 - 83:57接下来,Jason将为大家详细介绍
-
83:57 - 84:01这些生成模型如何为创意表达开启全新可能
-
84:01 - 84:02有请Jason
-
84:12 - 84:13谢谢,Josh
-
84:14 - 84:18无论你是创作者、音乐人还是电影制作人
-
84:19 - 84:22生成式媒体技术正在拓展创意表达的可能性
-
84:22 - 84:26通过与艺术家和创作者一直以来的密切合作
-
84:26 - 84:30我们开发了能够赋能其创作过程的技术
-
84:31 - 84:35例如,我们与音乐人合作开发了Music AI Sandbox
-
84:35 - 84:37这是一款专为音乐专业人士设计的工具
-
84:37 - 84:39让他们能够在创作过程中
-
84:39 - 84:42探索我们的音乐生成模型Lyria所带来的可能性
-
84:42 - 84:46例如这段视频记录了音乐传奇人物、格莱美获奖歌手
-
84:46 - 84:48作曲家Shankar Mahadevan
-
84:48 - 84:51使用Music AI Sandbox和Lyria的场景
-
84:52 - 84:57我是Shankar Mahadevan
一名音乐作曲家、歌手、制作人 -
84:57 - 84:58大家都说我笑口常开
-
85:01 - 85:03使用Sandbox的体验非常棒
-
85:03 - 85:07我们输入需求后,它生成了一段背景音乐
-
85:08 - 85:10我们在此基础上创作出了完整的歌曲
-
85:15 - 85:17对一名音乐人而言,这是一个极具启发性的工具
-
85:18 - 85:20就像你打开一扇门,发现了另一个空间
-
85:20 - 85:23然后再开一扇门,发现更多可能性
-
85:23 - 85:25AI就是这样,不断开启新视野
-
85:51 - 85:52太棒了
-
85:56 - 85:58我们最近推出的Lyria 2模型
-
85:58 - 86:02可以生成高保真音乐和专业级音频
-
86:02 - 86:04它生成的音乐旋律优美动听
-
86:04 - 86:06还能编入独唱和合唱人声部分
-
86:07 - 86:10它能够创作出富有表现力且层次丰富的内容
例如接下来的这段音乐 -
86:27 - 86:30Lyria 2从今天起正式向企业用户
-
86:30 - 86:32和YouTube创作者和专业音乐人开放
-
86:33 - 86:37这种协作理念不仅体现在我们构建的产品中
也体现在我们的构建方式上 -
86:38 - 86:40目前,无论是个人还是组织
-
86:40 - 86:43都难以有效识别AI生成的图像
-
86:44 - 86:50随着技术的进步和生成的音乐
音频、图像、视频日益逼真 -
86:50 - 86:52这一情况只会更加泛滥
-
86:52 - 86:55因此,我们在这一领域持续创新
-
86:56 - 86:59两年前,我们开创了SynthID技术
-
86:59 - 87:02它能在生成的媒体内容中嵌入不可见的水印
-
87:02 - 87:07到目前为止,已有超过100亿生成的内容带有水印
-
87:08 - 87:10另外,我们也在进一步扩大合作伙伴关系
-
87:10 - 87:13确保更多内容带有SynthID水印
-
87:13 - 87:16同时让更多组织能够检测到水印
-
87:16 - 87:20最后,我们还简化了水印的检测机制
-
87:20 - 87:23我们新推出的SynthID检测器能够识别
-
87:23 - 87:27图像、音频、文本或视频是否含有SynthID水印
-
87:27 - 87:30即使只是部分内容被标记也能识别
-
87:31 - 87:34这一功能从今天起开始向早期测试员逐步开放
-
87:40 - 87:43凭借广泛的合作,我们还开始探索Veo
-
87:43 - 87:44在电影制作领域的应用
-
87:45 - 87:49最近,我们与极富远见的导演Darren Aronofsky
-
87:49 - 87:52及其创新故事创作公司Primordial Soup达成了合作
-
87:52 - 87:55共同探索如何塑造Veo的能力以满足创作需求
-
87:55 - 87:58让艺术家引领技术创新方向
-
87:59 - 88:02通过这一合作,我们将世界顶尖的视频生成模型
-
88:02 - 88:05交付给最杰出的电影制作人,推动技术突破
-
88:06 - 88:09打造更具创意性和情感表现力的创作工具
-
88:10 - 88:12在计划制作的三部短片中
-
88:12 - 88:15第一部作品是导演Eliza McNitt的《ANCESTRA》
-
88:16 - 88:17现在就让我们来一睹为快
-
88:19 - 88:22电影本质上是一种深刻的人类行为
-
88:22 - 88:24它能将人们与彼此的故事联系起来
-
88:25 - 88:29它能够将我们从自己的经历中抽离出来
-
88:29 - 88:31带我们踏上另一段旅程
-
88:32 - 88:34我认为这一点永远不会改变
-
88:34 - 88:39这个故事虽然跨越整个宇宙的历史长河
-
88:39 - 88:41但本质上讲述的是一位母亲的经历
-
88:41 - 88:45以及当她那有心脏缺陷的孩子刚出生时所发生的一切
-
88:46 - 88:48我们拍摄了演员真实的情感表演
-
88:48 - 88:53但同时也通过AI生成了
那些用传统方式根本无法拍摄的画面 -
88:54 - 88:57我想要婴儿紧握着母亲的手指那样的画面
-
88:58 - 88:59展现他们之间那种幸福的时刻
-
88:59 - 89:00是的
-
89:02 - 89:04Veo是一个生成视频模型
-
89:04 - 89:06但在我看来,它更像是一个全新的镜头
-
89:06 - 89:08让我能够以不同方式想象身边的一切
-
89:10 - 89:11探索这些模型的优势和局限
-
89:11 - 89:18并尝试将它们打造成创作工具,这个过程非常有趣
-
89:20 - 89:24老实说,我从未想过要讲述我出生那天的故事
-
89:24 - 89:25但现在我们拍出来了
-
89:32 - 89:33这原本只是一次普通的产检而已
-
89:33 - 89:34紧急剖腹产!
-
89:35 - 89:36胎儿有危险
-
89:36 - 89:37我们这里需要帮助!
-
89:37 - 89:38我们必须立刻手术
-
89:38 - 89:40我的孩子能保住吗?
-
89:40 - 89:41我们会尽一切努力
-
89:41 - 89:42那我也会平安无事吗?
-
89:43 - 89:45来自在你之前存在的每一个生命
-
89:46 - 89:51来自为你的诞生而消亡的每一颗星辰
-
90:09 - 90:10真是令人惊叹的杰作
-
90:17 - 90:20Eliza巧妙地将真人实景表演
-
90:20 - 90:25与Veo生成的内容,包括微观世界、宇宙景象
-
90:25 - 90:27以及她自己作为新生儿的画面融为一体
-
90:28 - 90:31这种方法开辟了全新的叙事可能性
-
90:31 - 90:34使Eliza能够将宏大的电影视觉效果
-
90:34 - 90:37和深厚的情感表达带入一个极为个人化的故事
-
90:38 - 90:41这次合作也帮助我们塑造了Veo的功能
-
90:41 - 90:44以满足像Eliza这样的故事创作者的需求
-
90:44 - 90:47我们为电影制作人开发了多项新功能
-
90:47 - 90:48所以当你创作视频时
-
90:48 - 90:50无论你提供什么创作元素
-
90:50 - 90:54角色、场景还是艺术风格
Veo都能确保它们在整个创作过程中保持一致性 -
90:55 - 90:57你还可以像真正的导演一样指挥Veo
-
90:57 - 90:59提供精确的相机指令
-
90:59 - 91:01让它沿着特定路径拍摄
-
91:02 - 91:04这些功能将帮助电影制作人
-
91:04 - 91:07用Veo顺畅地表达自己的创意
-
91:08 - 91:10而我们的创新并未止步于此
-
91:11 - 91:12下面请Josh重返舞台
-
91:12 - 91:13为大家介绍更多内容
-
91:21 - 91:22谢谢,Jason
-
91:23 - 91:25在与创意社区合作的基础上
-
91:25 - 91:30我们为创作者打造了一款全新的AI电影制作工具
-
91:30 - 91:35它结合了Veo、Imagen和Gemini三大技术的精髓
-
91:35 - 91:39一款源自创作者、为了创作者打造的工具
-
91:40 - 91:43它的设计灵感源自创作者那种
-
91:43 - 91:46完全沉浸在创作中思如泉涌的奇妙境界
-
91:46 - 91:50我们将这款工具命名为Flow,从今天起正式推出
-
91:50 - 91:52我来给大家展示一下它的运作方式
-
91:54 - 91:56我们来看看我正在创作的一个项目
-
91:56 - 91:58故事的主角是一位老爷爷
-
91:58 - 92:02他正在一位鸟类朋友的帮助下制造一辆会飞的汽车
-
92:02 - 92:03这些是我的素材
-
92:04 - 92:06这位老人和他的汽车
-
92:06 - 92:07借助简便的界面
-
92:07 - 92:09你可以轻松将自己的图像上传到工具中
-
92:10 - 92:12或者,你可以使用内置的Imagen
-
92:12 - 92:14即时生成所需的图像
-
92:14 - 92:19只需简单描述就能生成一张定制金色变速杆图像
-
92:19 - 92:21看,相当不错
-
92:22 - 92:26接下来,你可以开始把所有这些素材组合起来
-
92:26 - 92:28只需输入一条提示
-
92:28 - 92:32你可以描述想要的效果,包括非常精确的镜头控制
-
92:32 - 92:35Flow能将所有素材安排到恰当的位置
-
92:35 - 92:38我可以在场景构建器中继续进行调整迭代
-
92:38 - 92:40接下来是最精彩的部分
-
92:41 - 92:43如果我想继续拍摄场景的下一个镜头
-
92:43 - 92:47只要点一下这个加号,新镜头就自动生成了
-
92:47 - 92:50我只需用文字描述接下来想要呈现的场景内容
-
92:50 - 92:53比如在后座加上一只3米高的鸡
-
92:53 - 92:55Flow将完成剩下的工作
-
92:55 - 92:58角色将保持一致,场景也将保持一致
-
92:58 - 93:00整个过程行云流水
-
93:00 - 93:03如果对有些地方不太满意,也没关系
-
93:03 - 93:06你可以像使用其他视频剪辑工具一样
-
93:07 - 93:09随时返回剪掉那些不合适的片段
-
93:10 - 93:13但Flow还支持反向操作
-
93:13 - 93:15你还可以用它来延长素材片段
-
93:16 - 93:19这样,我就得到了我一直追求的理想收尾镜头
-
93:20 - 93:23所有片段制作完毕后,我可以把它们下载下来
-
93:24 - 93:26然后把它们导入我常用的视频剪辑软件
-
93:26 - 93:28再加上一小段Lyria生成的配乐
-
93:29 - 93:33就这样,老爷爷终于开上了自己的“飞车”
-
93:56 - 93:58简直太棒了
-
93:58 - 94:02接下来,让我们听听几位新锐AI电影制作人的心声
-
94:02 - 94:04他们在Flow的开发过程中为我们提供了宝贵意见
-
94:04 - 94:07他们分享了自己使用Flow的感受
-
94:07 - 94:09以及他们如何让这一工具变得更出色
-
94:09 - 94:10一起来看看吧
-
94:13 - 94:15我不知道自己是否走在正确的道路上
-
94:15 - 94:17但一直在努力探索
-
94:18 - 94:22我不断探索,不断质疑
-
94:22 - 94:24直到某一刻,有些东西悄然改变
-
94:25 - 94:27我不再纠结于正确与否,只是专注去做
-
94:30 - 94:35然后,那些散落的拼图开始慢慢归位
-
94:39 - 94:42我的思维变得非常清晰
-
94:42 - 94:47无数种可能在我脑海中闪现
-
94:47 - 94:50就像穿越时空般奇妙
-
94:50 - 94:52当我以上帝视角审视身为创作者的自己
-
94:52 - 94:54以及我所创作的不同世界中的角色
-
94:54 - 94:56我感觉这些角色仿佛有着自己的生命
-
94:56 - 94:59尽管我知道故事情节的走向由我掌控
-
95:00 - 95:02似乎在某个时刻
-
95:02 - 95:04这些故事开始沿着自己的脉络逐渐展开
-
95:05 - 95:09你知道,你的故事可以有无数种结局
-
95:11 - 95:15用Flow创作的作品不是简单的素材堆砌
-
95:16 - 95:20它就像花园里的花,肆意绽放
-
95:21 - 95:25它自然生长,充满生命力,浑然天成
-
95:26 - 95:28我没有刻意去安排什么
-
95:28 - 95:31那些画面只是在等着我找到它们
-
95:31 - 95:34当我有这种感觉时,我就知道自己找对了方向
-
95:55 - 95:57真是叹为观止,听到这些电影制作人讲述
-
95:57 - 95:59如何将不可思议的想象变为现实
-
96:00 - 96:02我们希望通过我们的工具
-
96:02 - 96:05让大家都能享受这种自由构建、挥洒创意的感觉
-
96:06 - 96:08所以我很激动地宣布
-
96:08 - 96:11今天,我们将升级Google的两大AI订阅方案
-
96:12 - 96:14我们将推出Google AI Pro
-
96:14 - 96:17以及全新的Google AI Ultra
-
96:18 - 96:21我们将面向全球推出Google AI Pro
-
96:21 - 96:23相比Google AI的免费版本
-
96:23 - 96:25你将拥有全套Google AI产品的使用权
-
96:25 - 96:28并获享更高的用量限额和特殊功能
-
96:28 - 96:31其中包括Gemini应用的Pro版本
-
96:31 - 96:33也就是先前的Gemini Advanced
-
96:34 - 96:36然后让我来介绍一下Google AI Ultra
-
96:37 - 96:40它专门面向行业开拓者和先行者
-
96:40 - 96:43以及Google前沿AI技术的尝鲜者
-
96:44 - 96:47该方案将为用户提供最高用量限额
-
96:47 - 96:49订阅者还可以抢先体验
-
96:49 - 96:51Google发布的各项新产品和功能
-
96:52 - 96:54Google AI Ultra今天仅面向美国推出
-
96:54 - 96:56并将很快推广至全球
-
96:57 - 96:59你可以把这个Ultra方案当成是
-
96:59 - 97:01你专属的Google AI VIP通行证
-
97:02 - 97:04订阅Google AI Ultra
-
97:04 - 97:06你就能获得超高用量限额
-
97:06 - 97:08等到2.5 Pro Deep Think模式推出后
-
97:08 - 97:11还可以在Gemini应用中使用这种模式
-
97:11 - 97:16你还可以抢先体验我们今天发布的Veo 3和Flow
-
97:17 - 97:18该方案还附赠
-
97:18 - 97:21YouTube Premium会员和海量存储空间
-
97:21 - 97:25我们热切期待看到,借助这些全新订阅方案
-
97:25 - 97:28你将构建、创造和挖掘出怎样的精彩
-
97:28 - 97:30下面,让我们一同展望未来
-
97:31 - 97:34探索我们将如何使用AI与现实世界互动
-
97:34 - 97:36有请Shahram
-
97:50 - 97:51大家好
-
97:52 - 97:56此刻,Android平台正在发生许多激动人心的变化
-
97:57 - 98:00在这个平台中,你将率先预见未来
-
98:01 - 98:03在上周的Android Show上
-
98:03 - 98:06我们公布了Android 16和Wear OS 6
-
98:06 - 98:10全新的大胆设计和重大更新
-
98:11 - 98:15当然,Android也是体验Google AI的绝佳平台
-
98:16 - 98:19你今天看到的许多Gemini突破性创新
-
98:19 - 98:21都会在不久之后登陆Android
-
98:22 - 98:25你现已可以通过电源按钮立即访问Gemini
-
98:26 - 98:29它能理解你的意图和上下文,并随时为你提供帮助
-
98:30 - 98:33Android不止是手机系统
-
98:33 - 98:36更是一个完整的设备生态系统
-
98:36 - 98:38在接下来的几个月
-
98:38 - 98:43我们将把Gemini引入你的手表、汽车仪表盘
-
98:43 - 98:44甚至电视
-
98:45 - 98:46无论你身在何处
-
98:47 - 98:51都会有一位有用的AI助理伴你左右,让你的生活更轻松
-
98:52 - 98:54那么,要不要尝试一些新兴的设备形态
-
98:54 - 98:59让我们以全新方式体验AI助理?
-
98:59 - 99:03这正是我们打造Android XR的原因
-
99:10 - 99:14它是首个在Gemini时代构建的Android平台
-
99:14 - 99:19支持不同应用场景的各种设备
-
99:19 - 99:23从头戴设备到智能眼镜,以及其他各种智能设备
-
99:24 - 99:27我们认为,没有哪种扩展现实设备是万能的
-
99:27 - 99:30你在一天当中会用到不同的设备
-
99:31 - 99:36比如,在看电影、玩游戏或处理工作时
-
99:36 - 99:39你想要的是沉浸式头戴设备
-
99:39 - 99:43但外出时,你会想要一副轻便的智能眼镜
-
99:43 - 99:47让你不用掏出手机就能获得及时的信息
-
99:48 - 99:52我们携手三星共同打造了Android XR
-
99:52 - 99:55并与高通合作,针对骁龙处理器对其进行了优化
-
99:56 - 99:59自从去年Android XR开发者预览版发布以来
-
100:00 - 100:03已有数百名开发者在为该平台构建应用
-
100:03 - 100:06我们也在为Android XR重新构建
-
100:06 - 100:08你喜爱的各种Google应用
-
100:08 - 100:10由于它是Android系统
-
100:10 - 100:13所以你的手机和平板应用也与它兼容
-
100:14 - 100:16今天,我想跟大家分享
-
100:16 - 100:22Gemini如何颠覆头戴设备和智能眼镜用户的体验
-
100:23 - 100:24在这些设备上
-
100:24 - 100:29AI助理会以更丰富的方式理解你的上下文和意图
-
100:29 - 100:31全天候为你提供支持
-
100:32 - 100:34让我们从头戴设备中的Gemini说起
-
100:35 - 100:40这是三星的Project Moohan,首款Android XR设备
-
100:47 - 100:50Moohan提供无限延展的屏幕空间
-
100:50 - 100:53让你在Gemini的陪伴下尽情探索各种应用
-
100:53 - 100:55Android XR还集成了Google地图
-
100:55 - 100:57只要告诉Gemini你想去哪里
-
100:58 - 101:01它就能带你“瞬间传送”到世界任何角落
-
101:01 - 101:05你可以和AI助理谈论你看到的一切
-
101:06 - 101:10并让它调出你想要探索的视频和网站
-
101:11 - 101:15我们都希望能买到自己支持球队的季票
-
101:16 - 101:20想象一下,当你使用Moohan在MLB应用上观看球赛
-
101:20 - 101:21你将仿佛置身现场
-
101:22 - 101:25还可以一边观赛一边和Gemini讨论球员和比赛数据
-
101:27 - 101:32三星的Project Moohan将于今年晚些时候发售
-
101:32 - 101:36我们迫切期待你们能亲身体验这款设备
-
101:37 - 101:41现在,让我们把注意力转向智能眼镜
-
101:41 - 101:46众所周知,我们在智能眼镜领域耕耘超过十年
-
101:46 - 101:47从未停下脚步
-
101:48 - 101:53搭载Android XR的智能眼镜满载先进科技
-
101:53 - 101:56但无比轻盈,适合全天佩戴
-
101:57 - 101:59眼镜内置镜头和麦克风
-
101:59 - 102:03让Gemini能够“看到”和“听到”这个世界
-
102:03 - 102:08扬声器则让你可以与AI对话、播放音乐或接听电话
-
102:08 - 102:10你也可以通过镜片内置显示屏
-
102:11 - 102:14以私密的方式在需要时查看有用的信息
-
102:16 - 102:17这款眼镜可以与你的手机连接
-
102:17 - 102:21让你不用动手也能访问应用
-
102:22 - 102:26这一切都让智能眼镜成为天然适合AI的设备形态
-
102:26 - 102:30让Gemini的强大功能随时伴你左右
-
102:30 - 102:33所以,与摘下眼镜才能变身的超人不同
-
102:33 - 102:36戴上这款智能眼镜,你就能获得“超能力”
-
102:38 - 102:42好了,谁想看Android XR眼镜的最新演示?
-
102:48 - 102:53让我们看看它在最忙乱的环境中表现如何
-
102:54 - 102:55比如…I/O大会的后台
-
102:56 - 102:59我们的“超级女侠”Nishtha就在后台
-
102:59 - 103:02她将向我们展示这款眼镜在真实环境中的使用效果
-
103:02 - 103:05我现在就给她发个消息,然后我们马上开始
-
103:09 - 103:10大家好!
-
103:11 - 103:13现在,你们应该能在大屏幕上看到
-
103:13 - 103:16我通过Android XR智能眼镜镜片看到的一切
-
103:16 - 103:18比如这杯美味的咖啡
-
103:19 - 103:20还有Shahram刚刚发来的这条消息
-
103:20 - 103:22让我们看看他说了什么
-
103:24 - 103:26很好,现在就是见证奇迹的时刻
-
103:26 - 103:28我要启动Gemini,开始演示
-
103:30 - 103:32给Shahram发一条消息,告诉他我已经开始了
-
103:32 - 103:34然后把我的通知静音
-
103:37 - 103:39好的,我已经给他发了消息
-
103:39 - 103:41并且把你所有的通知静音了
-
103:41 - 103:42很好
-
103:43 - 103:44嘿,Nishtha!
-
103:44 - 103:45嘿,Dieter!
-
103:45 - 103:49你的灯亮着,看来我们已经开始直播了?
-
103:49 - 103:51是的,我们已经和I/O大会的工作人员连上线了
-
103:52 - 103:55大家好。从这个视角看I/O大会,真是太棒了!
-
103:55 - 103:56Nishtha,你答应过我
-
103:56 - 103:59只要我来帮忙,就送我一副Android XR眼镜
-
104:00 - 104:01说话算数吗?
-
104:01 - 104:02当然!
-
104:02 - 104:03待会结束后我们去喝杯咖啡
-
104:03 - 104:04我会把你的智能眼镜带过去!
-
104:04 - 104:05太棒了!待会见!祝你演示顺利
-
104:05 - 104:06谢谢
-
104:06 - 104:10大家可以看到,我们在后台,这里真是热闹非凡
-
104:10 - 104:14那是职业篮球运动员Giannis戴着我们的眼镜吗?
-
104:15 - 104:16我太喜欢这眼镜了!
-
104:16 - 104:19它解放了我的双手,让我随时能来个双手击掌
-
104:19 - 104:23太棒了,我继续来展示这副眼镜的功能
-
104:24 - 104:26今天一整天,我都对这面照片墙很好奇
-
104:27 - 104:31比如这是什么乐队,他们和这个地方有什么联系?
-
104:37 - 104:39这是Counting Crows
-
104:39 - 104:41一支来自旧金山湾区的传奇摇滚乐队
-
104:41 - 104:43他们在Shoreline Amphitheatre演出过很多次
-
104:44 - 104:46这里通常被视为是他们的返乡主场
-
104:46 - 104:50天哪!你能给我看看他们在这里演出时的照片吗?
-
104:53 - 104:56当然,这有一张,想让我播放一首他们的歌曲吗?
-
104:56 - 104:59好啊,我可以一边听一边走向舞台
-
105:03 - 105:06太好了!请听Counting Crows的《Under the Aurora》
-
105:07 - 105:10好了,大家准备好一睹这副眼镜的风采了吗?
-
105:10 - 105:12让我们欢迎Nishtha!
-
105:14 - 105:15Nishtha,欢迎欢迎!
-
105:15 - 105:16大家好!
-
105:19 - 105:22谢谢你为我们带来这段星光熠熠的幕后之旅
-
105:22 - 105:24对了,你现在要约Dieter去喝咖啡吗?
-
105:24 - 105:28当然…刚刚工作人员在后台给了我一杯超棒的咖啡
-
105:28 - 105:30所以让来我试试一些好玩的功能
-
105:31 - 105:35Gemini,刚刚那杯咖啡上的咖啡店名字是什么?
-
105:38 - 105:40嗯…可能是Bloomsgiving
-
105:40 - 105:41据我所知
-
105:41 - 105:43那是卡斯特罗街上一家充满活力的咖啡馆
-
105:43 - 105:45记性真好
-
105:51 - 105:53你能给我看看那家咖啡馆的照片吗?
-
105:53 - 105:54我想看看那里的氛围
-
105:57 - 105:58没问题
-
105:58 - 106:00这些是来自Google地图的照片,请问有帮助吗?
-
106:00 - 106:01哦,我知道那个地方
-
106:01 - 106:05它是一家花店,同时也卖咖啡,但它在市中心
-
106:05 - 106:08好吧,Gemini,我走过去需要多久?
-
106:12 - 106:13正在获取路线
-
106:14 - 106:16步行过去大概需要1小时
-
106:16 - 106:17好吧
-
106:18 - 106:20也许我可以走过去,顺便刷点步数
-
106:20 - 106:24眼镜上会直接显示完整3D地图和导航,会很轻松
-
106:34 - 106:39帮我约Dieter今天下午3点在那家咖啡馆喝咖啡
-
106:43 - 106:44我马上发出邀请
-
106:44 - 106:45希望你们享受愉快的咖啡时光
-
106:46 - 106:50如你们所见,Gemini帮助Nishtha搜索她看到的东西
-
106:50 - 106:53记住咖啡杯这种细节
-
106:54 - 106:56为她安排日程、甚至为她导航
-
106:56 - 106:59而Nishtha全程都不用掏出手机
-
107:00 - 107:02其实我现在也戴着这副眼镜
-
107:03 - 107:05它相当于是我的个人提词器
-
107:05 - 107:07而且它的镜片还带度数,所以我能看清你们
-
107:09 - 107:11Nishtha,这是智能眼镜的高光时刻
-
107:11 - 107:12我们把这一刻记录下来吧
-
107:12 - 107:13好的
-
107:13 - 107:15大家准备好,我们快速合个影
-
107:15 - 107:17让我们把后台的明星也请上来!
-
107:19 - 107:20这是Dieter
-
107:23 - 107:25Janice来了
-
107:25 - 107:27Gemini,帮我拍张照
-
107:36 - 107:39Gemini,帮我拍张照,保存到我的收藏夹里
-
107:47 - 107:49拍得真好!
-
107:56 - 107:58我是个彻头彻尾的追星族
-
107:59 - 108:01好的,还有最后一件事
-
108:01 - 108:05之前,Sundar展示了实时翻译已经发展到什么程度
-
108:06 - 108:08现在让我们看看它在智能眼镜上的表现
-
108:09 - 108:12这个演示很有挑战,但我们试试吧!
-
108:14 - 108:18Nishtha和我要用各自的母语交谈
-
108:18 - 108:20Nishtha说印地语
-
108:20 - 108:23我说波斯语,虽然我说得很烂
-
108:23 - 108:27你们会在大屏幕上看到我俩眼镜上的实时画面
-
108:27 - 108:29这样你们都可以明白我们在说什么
-
108:29 - 108:32我们会实时显示英语译文
-
108:33 - 108:37好吧,我们试试,但愿一切顺利
-
108:38 - 108:43[波斯语]
-
108:43 - 108:46[波斯语]
-
108:51 - 108:57[印地语]
-
109:00 - 109:04[波斯语]
-
109:05 - 109:10[波斯语]
-
109:17 - 109:18我们之前没说错,确实演示有风险
-
109:21 - 109:22让我们…
-
109:39 - 109:39感谢Nishtha
-
109:40 - 109:42带我们领略了Android XR智能眼镜的魅力
-
109:47 - 109:49有了这些Android XR设备
-
109:49 - 109:52就好像身边有一位非常得力的助理
-
109:52 - 109:56它将为我们带来怎样的精彩?让我们拭目以待
-
109:57 - 109:58这还不是全部
-
109:58 - 110:02我们正在与三星深化合作
-
110:02 - 110:06将Android XR从头戴设备扩展到智能眼镜
-
110:07 - 110:11我们正在创建软件和参考硬件平台
-
110:11 - 110:13以便生态系统中的伙伴们能够与我们一起
-
110:13 - 110:15打造出强大的智能眼镜
-
110:16 - 110:20我们的眼镜原型目前正在由可信测试员试用
-
110:21 - 110:25今年晚些时候,你们就可以开始为这款眼镜开发应用了
-
110:27 - 110:29我们知道,智能眼镜必须足够时尚
-
110:29 - 110:31你才会愿意全天佩戴
-
110:32 - 110:35因此,今天,我们很高兴地宣布
-
110:36 - 110:39Gentle Monster和Warby Parker
-
110:39 - 110:41将成为我们的首批眼镜制造商合作伙伴
-
110:42 - 110:44与我们一同打造搭载Android XR的时尚眼镜
-
110:52 - 110:55我们希望你能戴上符合你个人品味的眼镜
-
110:56 - 110:58这些还仅仅是开始
-
110:58 - 111:01我热切期待你们亲自体验Android XR
-
111:01 - 111:04在接下来的几个月,我们还会有更多精彩与大家分享
-
111:04 - 111:06谢谢大家
-
111:21 - 111:23这些XR眼镜实在太棒了!
-
111:24 - 111:28就在我们眼前,研究成果转化成了现实应用
-
111:28 - 111:31好的,我们的演讲已经接近尾声
-
111:31 - 111:33今天你们听到了很多关于Elo评分
-
111:34 - 111:37基准测试和先进性能的内容
-
111:37 - 111:40但我知道大家还在等着看另外一项数据
-
111:41 - 111:42那就是AI统计的词频数据
-
111:43 - 111:46那么,让我们来看这最后一个排行榜
-
111:47 - 111:51看起来,又有新选手入围了
-
111:52 - 111:53Gemini领先
-
111:54 - 111:56以95次的成绩胜出
-
111:58 - 111:59非常令人振奋
-
112:03 - 112:06言归正传,以上就是我们今天分享的所有内容
-
112:07 - 112:12从新产品发布、产品扩展,到未来展望
-
112:13 - 112:16AI带来了前所未有的机遇
-
112:17 - 112:21未来的关键就在你们这些开发者和技术创新者手中
-
112:21 - 112:26你们将推动这项技术的普及,让更多人能从中受益
-
112:26 - 112:30最后,我想跟大家分享几个给我带来激励的真实案例
-
112:30 - 112:33首先是加州居民以及世界各地的人们
-
112:34 - 112:35最关心的问题——野火
-
112:36 - 112:39想必有许多人都认识野火的受灾者
-
112:40 - 112:44野火的发生往往很突然,并在几分钟内失控蔓延
-
112:44 - 112:47因此,野火检测的速度和精度至关重要
-
112:48 - 112:50我们正在与一群了不起的合作伙伴一起
-
112:51 - 112:53构建一个名为FireSat的项目
-
112:53 - 112:58它是一个卫星星座,利用多光谱卫星图像和AI
-
112:59 - 113:02旨在提供近乎实时的野火观测数据
-
113:02 - 113:04看看这个分辨率
-
113:04 - 113:08它可以探测到面积小至25平方米的火灾
-
113:08 - 113:11大约相当于一个单车位车库的大小
-
113:11 - 113:13我们的第一颗卫星现已入轨
-
113:14 - 113:15项目全面投入运行后
-
113:16 - 113:19图像更新频率将大幅提高
-
113:19 - 113:21从目前的每12小时更新一次
-
113:21 - 113:23缩短到每20分钟更新一次
-
113:32 - 113:35在其他类型的应急响应中,速度同样至关重要
-
113:35 - 113:37例如,在海伦飓风期间
-
113:37 - 113:40Wing与沃尔玛、红十字会合作
-
113:41 - 113:43用无人机投送物资,为救援工作提供了支持
-
113:44 - 113:45在AI的帮助下
-
113:45 - 113:48我们能够根据实时需求将食物、药品等关键物资
-
113:49 - 113:53投放到北卡罗来纳州的一个基督教青年会避难所
-
113:53 - 113:57可以想象这在其他社区的救灾行动中会有多大帮助
-
113:58 - 114:00我们也正在积极努力扩大这一技术的应用范围
-
114:01 - 114:05这些都是AI目前造福社会的例子
-
114:05 - 114:07尤其令人鼓舞的是
-
114:07 - 114:12今天的研究成果将在短短几年内成为现实
-
114:12 - 114:16无论是构建下一代实用机器人
-
114:17 - 114:19为世界致死率最高的疾病寻找治疗方法
-
114:20 - 114:23还是推进纠错量子计算机的发展
-
114:24 - 114:29或是打造能将乘客安全送达
任何地点的全自动驾驶汽车 -
114:29 - 114:34所有这些都极有可能在几年内实现,而不是几十年
-
114:34 - 114:35真是令人向往
-
114:35 - 114:39这种利用AI改善生活的机会并不是我在想当然
-
114:40 - 114:42最近的一次经历让我深有体会
-
114:43 - 114:45当时我和父母一起到旧金山旅游
-
114:46 - 114:47与许多其他游客一样
-
114:47 - 114:50他们想做的第一件事就是体验Waymo的自动驾驶
-
114:51 - 114:52我以前也坐过Waymo
-
114:52 - 114:58但看着我八十多岁的父亲坐在前排那种惊讶的表情
-
114:58 - 115:01我从全新的视角看到了科技进步的影响
-
115:01 - 115:05它让我看到,科技拥有多么不可思议的力量
-
115:05 - 115:08它能激发灵感、造福所有人、并推动我们前进
-
115:09 - 115:10我迫不及待想看看
-
115:10 - 115:13接下来我们会共同创造出怎样的精彩成果
-
115:13 - 115:14谢谢大家
-
115:26 - 115:29Flow为我开启了无限可能
-
115:29 - 115:31那是什么样的魔法?
-
115:31 - 115:35AI模式是自搜索引擎发明以来最伟大的革命
-
115:35 - 115:38只需准确地告诉Gemini你想要构建什么
-
115:38 - 115:39它就会为你搞定
-
115:39 - 115:40天哪
-
115:40 - 115:43你可以用Gemini 2.5 Pro编程
-
115:43 - 115:45实在太好用了
-
115:45 - 115:47Project Mariner将改变我们使用浏览器的方式
-
115:47 - 115:50它是一个能帮你处理事务的AI智能体
-
115:50 - 115:53Notebook LMS思维导图颠覆了我们学习的方式
-
115:53 - 115:56为什么无论我走到哪,这个人都在跟踪我?
-
115:56 - 115:58那是你的影子
-
115:58 - 115:59等等,你要右转
-
116:01 - 116:04AI正在彻底改变我们对抗野火的方式
-
116:04 - 116:07生成式媒体正在拓展创造力的边界
-
116:08 - 116:09我第一次看到这个的时候,感觉就像魔法一样
-
116:10 - 116:11它不仅仅是又一项工具
-
116:11 - 116:12它颠覆了一切
-
116:12 - 116:13简直让我大开眼界
-
116:13 - 116:15AI的潜力近乎无限
- Title:
- GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD
- Video Language:
- English
![]() |
Emma Ren edited Chinese, Simplified subtitles for GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD | |
![]() |
Emma Ren edited Chinese, Simplified subtitles for GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD | |
![]() |
Emma Ren edited Chinese, Simplified subtitles for GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD | |
![]() |
Emma Ren edited Chinese, Simplified subtitles for GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD | |
![]() |
Emma Ren edited Chinese, Simplified subtitles for GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD | |
![]() |
Emma Ren edited Chinese, Simplified subtitles for GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD | |
![]() |
Emma Ren edited Chinese, Simplified subtitles for GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD | |
![]() |
Emma Ren edited Chinese, Simplified subtitles for GIO25 KEYNOTE NO ASL PERP 250520 v2 CHINA VOD |