WEBVTT 00:00:00.000 --> 00:00:07.274 [文字转视频] [用广角镜头呈现数字10形状的空间站绕地飞行] NOTE Paragraph 00:00:10.677 --> 00:00:17.451 [使用Imagen和Veo生成] NOTE Paragraph 00:01:11.400 --> 00:01:14.904 好棒的视频,看来大家的制作过程应该很开心 00:01:15.671 --> 00:01:17.273 大家上午好 00:01:17.406 --> 00:01:18.674 欢迎参加Google I/O大会 00:01:24.413 --> 00:01:26.882 欢迎亲临Shoreline会场的各位 00:01:27.283 --> 00:01:30.786 以及世界各地在线上观看的观众 00:01:31.387 --> 00:01:34.323 有人告诉我,双子座(Gemini季)从今天开始 00:01:34.990 --> 00:01:36.826 我倒没觉得这有什么特别 00:01:36.992 --> 00:01:39.528 因为对Google来说,每一天都是Gemini季 00:01:41.230 --> 00:01:44.934 在I/O大会前的几周,我们通常不会有太多动作 00:01:45.534 --> 00:01:49.238 因为我们想把最好的模型留到这个舞台上来展示 00:01:49.872 --> 00:01:51.307 但在Gemini时代 00:01:51.474 --> 00:01:53.676 我们也会在三月随便选个周二 00:01:53.743 --> 00:01:56.912 发布我们最智能的模型 00:01:57.379 --> 00:01:58.914 或是非凡的突破 00:01:58.981 --> 00:02:01.350 就像在大会一周前发布AlphaEvolve那样 00:02:02.251 --> 00:02:05.121 只想尽快将我们最好的模型交到你的手中 00:02:05.454 --> 00:02:07.623 让你尽快体验到我们的产品 00:02:08.124 --> 00:02:11.026 为此,我们的发布频率远超以往 00:02:11.761 --> 00:02:12.928 自上届I/O大会至今 00:02:12.995 --> 00:02:15.364 我们发布了十多种模型和研究突破 00:02:15.598 --> 00:02:21.137 以及二十多种重要AI产品和功能 00:02:22.037 --> 00:02:25.608 模型的快速进步让我振奋不已 00:02:26.175 --> 00:02:28.477 从这张图表就能看出阶跃式的发展 00:02:29.278 --> 00:02:31.747 Elo分数用来衡量进步的尺度 00:02:32.014 --> 00:02:34.116 从第一代Gemini Pro至今 00:02:34.183 --> 00:02:36.285 这项成绩提升了300多分 00:02:36.819 --> 00:02:39.555 如今,Gemini 2.5 Pro 00:02:39.622 --> 00:02:43.225 横扫LMArena排行榜的所有类别 00:02:50.599 --> 00:02:53.502 在许多基准测试中都表现突出 00:02:53.803 --> 00:02:56.639 在编程方面,我们也在快速进步 00:02:57.106 --> 00:03:00.943 更新版的2.5 Pro在WebDev Arena中一马当先 00:03:01.177 --> 00:03:05.681 Elo分数比上一个版本高142分 00:03:06.482 --> 00:03:09.351 这款模型在各大主流编程平台上备受追捧 00:03:09.418 --> 00:03:10.619 感谢所有人的支持 00:03:11.253 --> 00:03:14.323 在领先AI代码编辑器cursor中 00:03:14.723 --> 00:03:17.626 Gemini成为年度发展速度最快的模型 00:03:17.927 --> 00:03:22.832 每分钟都有数十万行代码用它生成 00:03:23.866 --> 00:03:27.069 最后这个里程碑或许最令人动容 00:03:27.269 --> 00:03:28.838 至少在某些圈子里是如此 00:03:29.338 --> 00:03:32.875 几周前,Gemini成功通关《宝可梦蓝》 00:03:36.846 --> 00:03:40.482 集齐全部八枚徽章,挺进“冠军之路” 00:03:40.549 --> 00:03:43.319 打败了四天王和联盟冠军 00:03:43.686 --> 00:03:47.022 这让我们离实现API又近了一步 00:03:47.456 --> 00:03:49.859 不过我们说的是“人工宝可梦智能” 00:03:55.197 --> 00:03:58.868 所有这些进步都由我们卓越的基础设施提供支持 00:03:58.968 --> 00:04:01.804 它是我们全栈式AI方法的基石 00:04:02.504 --> 00:04:06.876 我们的第七代TPU Ironwood采用前沿设计 00:04:06.976 --> 00:04:09.411 为大规模思考和推理赋能助力 00:04:10.045 --> 00:04:13.382 其性能达到上一代的十倍 00:04:13.716 --> 00:04:19.188 能迸发出每个pod 42.5 exaFLOPS的强大算力 00:04:19.288 --> 00:04:20.122 令人赞叹 00:04:20.623 --> 00:04:23.859 Google Cloud客户今年稍后就能切身体会它的实力 00:04:27.930 --> 00:04:30.966 凭借始于底层TPU的基础设施实力 00:04:31.033 --> 00:04:34.803 我们提供了速度更出众的模型 00:04:35.337 --> 00:04:37.806 在LMArena排行榜的顶尖模型中 00:04:37.873 --> 00:04:40.242 Gemini跻身前三 00:04:40.442 --> 00:04:43.445 凭借最高的每秒生成token数 00:04:43.946 --> 00:04:47.816 以及大幅下降的模型价格取得骄人成绩 00:04:48.384 --> 00:04:51.220 在价格与性能之间权衡并不容易 00:04:51.820 --> 00:04:54.056 然而,我们一次又一次地做到了 00:04:54.123 --> 00:04:57.660 以最有效的价格点提供出色的模型 00:04:58.294 --> 00:05:00.829 Google不仅在这个帕累托最优边界中先人一步 00:05:01.096 --> 00:05:03.432 更从根本上改变了它 00:05:04.366 --> 00:05:09.138 让每个人都能随时随地享受更好的智能体验 00:05:09.738 --> 00:05:11.807 我们的努力收获了积极的回应 00:05:11.907 --> 00:05:14.109 AI采用速度远超以往 00:05:15.110 --> 00:05:18.714 作为进步的标志之一,在去年此时 00:05:19.114 --> 00:05:25.621 我们所有产品和API 每个月的token处理总量是9.7万亿 00:05:26.155 --> 00:05:30.426 而如今,每月token处理量达到了480万亿 00:05:30.726 --> 00:05:34.096 短短一年,接近50倍的增幅 00:05:40.035 --> 00:05:44.273 我们各类开发者AI工具的采用已成浪潮 00:05:44.673 --> 00:05:47.276 在Google AI Studio和Vertex AI中 00:05:47.343 --> 00:05:52.014 有700多万名开发者在使用Gemini API进行开发 00:05:52.414 --> 00:05:54.817 达到去年召开I/O大会时的五倍多 00:05:55.284 --> 00:05:56.685 自去年以来 00:05:56.752 --> 00:06:00.889 Gemini在Vertex AI中的使用量增加到40多倍 00:06:01.824 --> 00:06:04.493 我们的产品也在越来越多地采用AI 00:06:04.727 --> 00:06:08.864 Gemini应用的月活用户数已超过4亿 00:06:09.298 --> 00:06:11.900 增长幅度和参与度都在强势增长 00:06:12.234 --> 00:06:14.303 尤其是2.5版的模型 00:06:14.770 --> 00:06:17.806 对于在Gemini应用中使用2.5 Pro模型的用户 00:06:18.040 --> 00:06:20.509 使用量增长了45% 00:06:20.943 --> 00:06:24.046 稍后你会听到许多与Gemini应用有关的消息 00:06:24.913 --> 00:06:27.316 在搜索领域,我们也看到了十分惊人的发展势头 00:06:27.850 --> 00:06:33.422 AI概览的月用户量现已超过15亿 00:06:34.156 --> 00:06:37.493 也就是说,通过Google搜索使用生成式AI的用户量 00:06:37.993 --> 00:06:41.296 超过全球其他任何产品 00:06:41.897 --> 00:06:47.236 除了AI概览之外,AI模式也是搜索领域的一大进步 00:06:47.703 --> 00:06:49.671 稍后我们会分享更多相关信息 00:06:50.839 --> 00:06:52.708 所有这些进步都指向一件事 00:06:53.542 --> 00:06:56.578 我们身处AI平台变革的新阶段 00:06:57.246 --> 00:07:00.315 数十载的研究成果转化为实用工具 00:07:00.382 --> 00:07:02.351 惠及普罗大众 00:07:03.018 --> 00:07:04.820 我想分享三个例子 00:07:04.887 --> 00:07:08.457 证明研究如何彻底改变我们当今的产品 00:07:08.891 --> 00:07:12.728 分别是Project Starline、Astra和Mariner 00:07:13.762 --> 00:07:15.497 在几年前的I/O大会上 00:07:15.564 --> 00:07:17.633 我们公布了Project Starline 00:07:17.699 --> 00:07:19.234 这是我们突破性的3D视频技术 00:07:19.802 --> 00:07:23.372 让你在与千里之外的人交流时 00:07:23.772 --> 00:07:25.374 也能有共处一室的感觉 00:07:25.874 --> 00:07:28.143 我们不断改进相关技术 00:07:28.544 --> 00:07:31.380 今天,我们终于准备好开启它的下一篇章 00:07:31.747 --> 00:07:33.348 隆重介绍Google Beam 00:07:33.682 --> 00:07:37.753 全新的AI优先型视频沟通平台 00:07:38.654 --> 00:07:41.924 Beam运用全新的先进视频模型 00:07:42.424 --> 00:07:47.262 将2D视频流转化为栩栩如生的3D体验 00:07:48.163 --> 00:07:53.302 在幕后,六摄像头阵列从不同角度拍摄你的影像 00:07:53.869 --> 00:07:57.873 这些视频流随后会通过AI合并在一起 00:07:58.040 --> 00:08:00.642 生成3D光场显示,展示你的立体形象 00:08:01.176 --> 00:08:04.213 它能实现毫米级精度的头部跟踪 00:08:04.580 --> 00:08:08.016 以及每秒60帧的实时渲染 00:08:08.617 --> 00:08:14.289 成就高度自然流畅、沉浸感十足的对话体验 00:08:14.857 --> 00:08:17.559 我们热切期待将这项技术带给大家 00:08:18.193 --> 00:08:19.661 并为此与惠普开展了合作 00:08:19.728 --> 00:08:21.630 首款Google Beam设备 00:08:21.964 --> 00:08:25.934 将于今年晚些时候与首批客户见面 00:08:27.035 --> 00:08:29.638 从现在起的几周内,惠普会分享大量相关资讯 00:08:29.905 --> 00:08:30.873 敬请关注 00:08:37.646 --> 00:08:40.149 多年来,我们一直在不懈努力 00:08:40.215 --> 00:08:43.051 将Starline的底层技术整合到Google Meet中 00:08:43.652 --> 00:08:48.157 其中包括帮助打破语言壁垒的实时语音翻译 00:08:49.091 --> 00:08:52.194 这个例子展示了在南美洲预定度假屋 00:08:52.461 --> 00:08:55.230 而你又不会讲当地语言时 00:08:55.497 --> 00:08:56.999 这项功能的实用价值 00:08:57.099 --> 00:08:57.933 我们一起来看看吧 00:09:00.002 --> 00:09:01.203 嗨,Camilla 00:09:01.537 --> 00:09:03.639 我来打开语音翻译功能 00:09:06.074 --> 00:09:08.177 终于能跟你直接对话了,太棒了 00:09:08.277 --> 00:09:12.414 [西班牙语翻译] 00:09:13.448 --> 00:09:15.384 [西班牙语回答] 00:09:15.450 --> 00:09:16.685 你会很开心的 00:09:16.785 --> 00:09:19.288 我相信你也一定会爱上这座城市 00:09:19.521 --> 00:09:23.525 这间房所在的社区环境很好,还能俯瞰山景 00:09:23.759 --> 00:09:25.194 听起来真不错 00:09:26.461 --> 00:09:31.500 [西班牙语翻译] 00:09:32.100 --> 00:09:34.169 [西班牙语回答] 00:09:34.303 --> 00:09:35.637 附近就有公交车 00:09:35.971 --> 00:09:41.310 不过我推荐你租辆车,这样去野外玩更方便 00:09:41.777 --> 00:09:43.579 听起来不错 00:09:43.879 --> 00:09:45.314 [西班牙语翻译] 00:09:52.955 --> 00:09:55.691 如你所见,语音翻译惟妙惟肖地模仿了 00:09:55.757 --> 00:09:58.927 讲话人的语气、模式甚至是表达方式 00:09:59.861 --> 00:10:05.167 我们距离自然流畅的跨语言沟通又近了一步 00:10:05.734 --> 00:10:09.371 我们现已直接将这种实时语音翻译功能 00:10:09.438 --> 00:10:11.006 直接整合到Google Meet中 00:10:11.573 --> 00:10:15.611 订阅者从现在起即可使用英语与西班牙语互译功能 00:10:15.978 --> 00:10:19.982 在未来几周内,我们还会推出更多语言的翻译功能 00:10:20.549 --> 00:10:24.486 实时翻译功能将于今年晚些时候面向企业用户开放 00:10:31.493 --> 00:10:33.428 另一个在往届I/O舞台上正式亮相的 00:10:33.495 --> 00:10:35.831 早期研究项目是Project Astra 00:10:36.431 --> 00:10:43.005 专门探索通用型AI助手未来理解你身边世界的能力 00:10:43.538 --> 00:10:45.274 我们正在将其整合到Google产品中 00:10:45.941 --> 00:10:47.476 Gemini Live现已整合 00:10:47.542 --> 00:10:50.946 Project Astra的相机和屏幕共享功能 00:10:51.313 --> 00:10:53.615 支持就你看到的任何事物展开对话 00:10:54.082 --> 00:10:56.151 人们正在将它用于各种用途 00:10:56.451 --> 00:10:58.520 无论是为工作面试做练习 00:10:58.754 --> 00:11:00.389 还是为备战马拉松而训练 00:11:00.856 --> 00:11:03.992 我们始终高度重视可信测试员的反馈 00:11:04.359 --> 00:11:07.229 还有一些不那么“可信”的测试员 00:11:07.296 --> 00:11:08.297 一起来看看吧 00:11:11.400 --> 00:11:13.001 好漂亮的敞篷车 00:11:13.635 --> 00:11:17.105 我觉得你把垃圾车误认成敞篷车了 00:11:17.205 --> 00:11:18.940 我还能帮你些什么? 00:11:19.074 --> 00:11:21.376 这个细长的建筑物怎么杵在我家门口? 00:11:21.510 --> 00:11:24.079 这是路灯,不是建筑物 00:11:24.546 --> 00:11:27.616 这些棕榈树怎么这么矮?看着让人有点担心 00:11:28.150 --> 00:11:31.053 它们并不矮,其实很高的 00:11:31.620 --> 00:11:32.988 帅气的敞篷车 00:11:33.288 --> 00:11:34.790 还是垃圾车 00:11:35.223 --> 00:11:36.458 还有别的事吗? 00:11:36.525 --> 00:11:39.494 为什么总有人把快递放到我的草坪上? 00:11:40.028 --> 00:11:42.631 那不是快递,是个变电箱 00:11:43.065 --> 00:11:45.834 我走路的时候,这个人怎么一直跟踪我 00:11:46.668 --> 00:11:49.571 没人在跟踪你,那只是你的影子 00:11:58.246 --> 00:12:00.816 Gemini真的特别擅长给你挑错 00:12:02.284 --> 00:12:07.622 即日起,此功能面向所有Android和iOS用户开放 00:12:15.197 --> 00:12:18.834 再说说我们的研究原型Project Mariner 00:12:19.534 --> 00:12:23.472 这种智能体可以与Web交互并完成各种任务 00:12:24.306 --> 00:12:26.408 我们跳出原有思维模式,将智能体视为一种系统 00:12:26.475 --> 00:12:31.580 集先进AI模型的智能和访问工具的能力于一身 00:12:32.214 --> 00:12:35.684 它们可以自主帮你执行操作,而且完全由你掌控 00:12:36.284 --> 00:12:39.588 使用计算机是智能体的一项重要能力 00:12:40.122 --> 00:12:43.992 让智能体能够与浏览器和其他软件交互 00:12:44.292 --> 00:12:45.627 并对其执行操作 00:12:46.395 --> 00:12:50.832 Project Mariner是测试计算机使用能力的初步尝试 00:12:51.433 --> 00:12:54.636 去年12月,我们将其作为早期研究原型发布 00:12:54.936 --> 00:12:57.072 自那之后取得了长足进展 00:12:57.606 --> 00:13:00.675 首先,我们引入了多任务处理能力 00:13:00.909 --> 00:13:04.312 它如今能同时管理多达10个任务 00:13:05.280 --> 00:13:08.383 其次,它使用了一项名为“示教与重复”的功能 00:13:08.817 --> 00:13:11.420 你只要向它展示一次任务 00:13:11.787 --> 00:13:15.157 它就能学会在将来为类似任务做计划 00:13:15.757 --> 00:13:19.127 我们将通过Gemini API向开发者提供 00:13:19.461 --> 00:13:21.997 Project Mariner的计算机使用能力 00:13:22.798 --> 00:13:25.600 Automation Anywhere和UiPath等可信测试方 00:13:25.667 --> 00:13:28.770 已经开始使用它构建产品 00:13:29.237 --> 00:13:32.174 我们将于今年夏季将其提供给更广泛的用户 00:13:33.041 --> 00:13:34.943 为了推动智能体生态系统繁荣发展 00:13:35.010 --> 00:13:36.778 我们需要开发更广泛的工具组合 00:13:36.845 --> 00:13:38.947 计算机使用能力就是这项工作的一环 00:13:39.481 --> 00:13:41.082 这方面的例子有我们的开放智能体间协议 00:13:41.149 --> 00:13:43.685 让智能体能够彼此对话 00:13:44.319 --> 00:13:45.887 我们在Cloud Next大会上发布了这种协议 00:13:45.954 --> 00:13:48.657 获得了60多家技术合作伙伴的支持 00:13:48.957 --> 00:13:50.659 这个数字还有望继续增长 00:13:51.393 --> 00:13:55.130 还有Anthropic推出的模型上下文协议 00:13:55.263 --> 00:13:57.666 让智能体可以访问其他服务 00:13:58.200 --> 00:14:00.168 今天,我们要激动万分地宣布 00:14:00.235 --> 00:14:04.706 Gemini SDK现已兼容MCP工具 00:14:10.512 --> 00:14:14.583 这些技术将协同运作,让智能体更实用 00:14:14.950 --> 00:14:17.819 我们已经开始将代理式功能添加到 00:14:17.919 --> 00:14:19.621 Chrome、Google搜索和Gemini应用中 00:14:19.688 --> 00:14:24.025 我来展示一下Gemini应用中最让我们激动的功能 00:14:24.192 --> 00:14:26.161 我们称之为智能体模式 00:14:26.761 --> 00:14:30.765 假设你想在奥斯汀给自己和两名室友找间公寓 00:14:31.166 --> 00:14:33.802 你们每个人每月的预算是1200美元 00:14:34.402 --> 00:14:35.804 希望公寓里有洗衣机、干衣机 00:14:35.871 --> 00:14:37.873 或者至少附近要有间洗衣店 00:14:38.373 --> 00:14:42.444 通常情况下,你要花很多时间去浏览无数房源 00:14:43.211 --> 00:14:46.414 但有了智能体模式,Gemini应用可以为你效力 00:14:46.481 --> 00:14:48.850 它在后台访问Zillow等网站 00:14:48.917 --> 00:14:51.853 查找符合你的条件的房源 00:14:52.487 --> 00:14:54.723 并在需要时使用Project Mariner 00:14:54.789 --> 00:14:57.058 调整极其细致的过滤条件 00:14:57.592 --> 00:15:01.162 如果有你想具体了解的公寓,Gemini会使用MCP 00:15:01.563 --> 00:15:05.800 访问房源,甚至可以帮你安排行程 00:15:06.234 --> 00:15:09.938 只要你需要,它就会不断浏览查找新房源 00:15:10.739 --> 00:15:13.275 让你可以腾出时间去做自己想做的事情 00:15:13.341 --> 00:15:14.876 比如规划乔迁派对 00:15:15.510 --> 00:15:17.145 这对Zillow这样的公司特别有用 00:15:17.212 --> 00:15:20.682 能够带来新客源并提高转化率 00:15:21.449 --> 00:15:24.586 Gemini应用中智能体模式的实验版本 00:15:24.653 --> 00:15:27.155 即将面向订阅者开放 00:15:27.756 --> 00:15:29.925 这是一个崭露头角的全新领域 00:15:30.392 --> 00:15:32.027 我们很激动能亲身探索 00:15:32.127 --> 00:15:37.532 如何将智能体的优势带给用户和更广泛的生态系统 00:15:38.767 --> 00:15:41.503 要将研究成果落地,我们最好的方案就是 00:15:41.636 --> 00:15:44.906 保证它在你的实际环境中拥有真正的实用价值 00:15:45.473 --> 00:15:49.044 这正是个性定制的用武之地 00:15:49.644 --> 00:15:54.049 为此,我们推出了个人使用场景功能 00:15:54.916 --> 00:15:56.084 在征得你的许可之后 00:15:56.217 --> 00:15:58.186 Gemini模型可在你的各Google应用之间 00:15:58.253 --> 00:16:00.088 使用相关背景信息 00:16:00.755 --> 00:16:03.024 并且采用一种保护隐私、高度透明 00:16:03.091 --> 00:16:04.559 完全由你掌控的方式 00:16:05.293 --> 00:16:07.529 我来展示一个Gmail中的例子 00:16:08.196 --> 00:16:11.533 你可能很熟悉我们依托AI技术的智能回复功能 00:16:11.700 --> 00:16:13.935 其受欢迎的程度甚至令人有几分意外 00:16:14.169 --> 00:16:17.606 如果AI生成的回复能效仿你的口吻,那该有多好 00:16:18.239 --> 00:16:21.343 这就是个性化智能回复背后的理念 00:16:22.444 --> 00:16:25.046 假设朋友写信给我,向我寻求建议 00:16:25.580 --> 00:16:30.885 他打算到犹他州去自驾游,记得我曾自驾去过那里 00:16:31.620 --> 00:16:33.588 坦白说,如果我自己写回信 00:16:33.655 --> 00:16:35.790 只会寥寥几句带过,帮不上什么忙 00:16:36.091 --> 00:16:37.092 抱歉了,Felix 00:16:38.059 --> 00:16:41.363 但使用个性化智能回复,我就能成为知心好友 00:16:42.063 --> 00:16:46.735 因为Gemini会帮我做好几乎所有的“功课” 00:16:47.335 --> 00:16:49.304 查看我云端硬盘中的笔记 00:16:49.604 --> 00:16:52.073 查询旧电子邮件中的预订信息 00:16:52.374 --> 00:16:54.976 查找Google文档中的行程安排 00:16:55.310 --> 00:16:56.911 锡安国家公园之旅 00:16:57.679 --> 00:17:01.149 Gemini效仿我既往邮件中的问候语 00:17:01.616 --> 00:17:06.621 捕捉到了我的语气、风格和遣词用句的喜好 00:17:06.855 --> 00:17:09.691 随后自动生成回复 00:17:10.425 --> 00:17:12.193 我最欣赏的是它添加了贴心的细节 00:17:12.260 --> 00:17:14.929 比如将驾车时间控制在每天五小时以下 00:17:15.263 --> 00:17:18.400 还使用了我最喜欢的形容词:激动人心 00:17:20.068 --> 00:17:21.302 看起来不错 00:17:21.369 --> 00:17:24.739 或许简单修改几处,就可以点击“发送”了 00:17:25.373 --> 00:17:29.077 今年夏天,这项功能就会在Gmail中提供给订阅者 00:17:34.983 --> 00:17:37.619 可想而知,覆盖搜索、文档、Gemini 00:17:37.686 --> 00:17:41.356 及其他产品的个人使用场景功能会有多实用 00:17:42.524 --> 00:17:47.295 今天我谈到了智能、智能体和个性化 00:17:47.896 --> 00:17:51.132 这是我们将努力推进的几个前沿领域 00:17:51.199 --> 00:17:54.235 在整场主旨演讲中,你会听到更多例子 00:17:54.969 --> 00:17:56.504 但首先,我想请一个人 00:17:56.571 --> 00:18:00.141 详细分享有关推动我们未来创新的智能 00:18:00.842 --> 00:18:03.878 去年在介绍他的时候,我称他为Demis爵士 00:18:04.179 --> 00:18:08.283 今年,我们还可以在他的头衔里 加上“诺贝尔奖获得者” 00:18:08.349 --> 00:18:09.884 Demis,请上台来 00:18:24.532 --> 00:18:27.535 大家好!很高兴能再次参加Google I/O大会 00:18:28.636 --> 00:18:31.239 我们身处一个重要的历史节点 00:18:31.740 --> 00:18:35.076 AI正在开启令人向往的全新未来 00:18:35.810 --> 00:18:37.445 这一年,我们在不懈的探索中前行 00:18:37.512 --> 00:18:38.646 收获了累累硕果 00:18:39.314 --> 00:18:43.318 正如Sundar所说,人们喜欢与Gemini 2.5交互 00:18:44.052 --> 00:18:45.820 我们见证了你们用它进行氛围编程 00:18:45.920 --> 00:18:48.189 一气呵成开发应用与游戏 00:18:48.890 --> 00:18:51.292 见证了你们用它强大的推理能力完成各种任务 00:18:51.359 --> 00:18:54.729 从拆解科学论文,到解析YouTube视频 00:18:55.196 --> 00:18:57.432 你们告诉我们,Gemini协作性强、洞见深刻, 00:18:57.532 --> 00:19:00.502 是真正的得力助手 00:19:01.369 --> 00:19:05.774 看到大家用它创造出的惊人成果,我们倍感振奋 00:19:07.575 --> 00:19:10.879 Gemini 2.5是我们迄今为止最智能的模型 00:19:11.146 --> 00:19:13.314 也是全球先进基础模型 00:19:14.048 --> 00:19:18.052 就在两周前,我们发布了升级后的2.5 Pro预览版 00:19:18.286 --> 00:19:21.289 让大家可以开始亲手尝试用它将创想化为现实 00:19:22.490 --> 00:19:24.626 大家的成果让我们大开眼界 00:19:24.926 --> 00:19:30.365 从将草图转化为交互式应用到模拟3D城市 00:19:31.399 --> 00:19:33.468 全新的2.5 Pro模型在热门编程排行榜 00:19:33.535 --> 00:19:35.670 WebDev Arena上一马当先 00:19:36.471 --> 00:19:38.640 现在,它又整合了LearnLM 00:19:38.840 --> 00:19:41.543 该系列模型的开发得到了教育专家的支持 00:19:41.743 --> 00:19:44.879 这让2.5 Pro也成为全球出色的学习辅助模型 00:19:45.613 --> 00:19:49.484 在LMArena的所有排行榜上独占鳌头 00:19:51.653 --> 00:19:55.056 Gemini Flash是我们极其高效的王牌模型 00:19:55.557 --> 00:19:59.994 因出色的速度和较低的成本备受开发者青睐 00:20:01.062 --> 00:20:05.667 今天我要激动地宣布推出更新版的2.5 Flash 00:20:06.334 --> 00:20:09.437 新版Flash模型几乎在每一个方面都有所改进 00:20:09.637 --> 00:20:11.272 在各类重要基准测试中都取得了更好的成绩 00:20:11.339 --> 00:20:14.075 包括推理、编程和长上下文 00:20:14.709 --> 00:20:19.981 实际上,它在LMArena排行榜上仅次于2.5 Pro 00:20:21.282 --> 00:20:25.353 我要很高兴地告诉大家,Flash将于六月初正式上线 00:20:25.520 --> 00:20:26.988 Pro紧随其后 00:20:33.695 --> 00:20:36.731 我们正在根据大家的反馈做出最终调整 00:20:36.865 --> 00:20:39.701 不过你现在可以在AI Studio 00:20:39.767 --> 00:20:42.337 Vertex AI和Gemini应用中试用预览版 00:20:43.905 --> 00:20:47.675 我们将一如既往,继续不懈前行,推动技术向前发展 00:20:47.876 --> 00:20:50.578 并对我们近期的研究突破感到十分欣喜 00:20:51.145 --> 00:20:53.948 稍后我会请Tulsee来与大家进一步分享 00:20:54.115 --> 00:20:55.817 不过首先,我们来看一下 00:20:55.884 --> 00:20:57.952 目前你可以用Gemini来做些什么 00:21:01.189 --> 00:21:03.258 [用Gemini可以做的30件事] 00:21:03.825 --> 00:21:04.926 [物理模拟] 00:21:05.093 --> 00:21:06.394 [自然模拟] 00:21:06.494 --> 00:21:07.695 [光学模拟] 00:21:08.096 --> 00:21:09.264 [谜题模拟] 00:21:10.031 --> 00:21:11.199 [将图片转变成代码] 00:21:12.700 --> 00:21:14.269 [将想法转变成3D模型] 00:21:17.205 --> 00:21:18.706 [为画作加入3D效果] 00:21:20.808 --> 00:21:22.176 [与AI共同创作] 00:21:22.410 --> 00:21:23.278 [发型设计] 00:21:24.545 --> 00:21:26.748 [给这只猫穿上礼服] 00:21:28.983 --> 00:21:30.251 [在积攒了几十年的文件中搜索内容] 00:21:30.318 --> 00:21:31.152 [菜谱] 00:21:32.020 --> 00:21:33.554 [在数小时长的视频中搜索内容] 00:21:35.123 --> 00:21:36.291 [建造机器人] 00:21:36.658 --> 00:21:41.496 [直接说话就能编程] 你能做个从我嘴里爆出一团圆形彩纸的特效吗? 00:21:42.497 --> 00:21:43.765 我更新了草图 00:21:44.532 --> 00:21:46.834 [万物皆可AI:娱乐、学习、动画、可视化] [创造、转录、练习、翻译、查询、表情符号] 00:21:46.901 --> 00:21:48.202 [混音、计算、探索、理解、地图、解释] 00:21:48.303 --> 00:21:50.738 [生成千般内容] [构想万种可能] 00:21:51.839 --> 00:21:53.708 接下来我们做点什么? 00:21:54.108 --> 00:21:56.110 这里还有30个创意供你参考 00:21:57.078 --> 00:21:59.781 [使用Gemini开始构建] [AI.Studio] 00:22:15.697 --> 00:22:16.798 Demis,谢谢你! 00:22:17.332 --> 00:22:20.368 很高兴能借此机会告诉大家 00:22:20.435 --> 00:22:22.103 为了帮助像你一样的开发者 00:22:22.203 --> 00:22:25.306 更轻松地使用Gemini 2.5进行构建 00:22:25.940 --> 00:22:27.675 我们根据大家的反馈意见做出了多项改进 00:22:27.976 --> 00:22:32.580 其中包括:功能改进、安全性和透明度加强 00:22:33.014 --> 00:22:36.217 成本效益提升和可控性提升 00:22:37.418 --> 00:22:41.622 首先,除了Demis提到的新版2.5 Flash之外 00:22:42.156 --> 00:22:46.060 我们还推出了文字转语音功能的全新预览版 00:22:46.828 --> 00:22:52.734 基于原生音频输出提供 同类产品中首创的多讲话人支持 00:22:52.934 --> 00:22:54.936 可以支持两个人的语音 00:22:57.138 --> 00:23:01.242 这意味着模型可以通过 更富于表现力的方式进行对话交流 00:23:01.442 --> 00:23:04.579 能够捕捉我们言语表述之中的微妙之处 00:23:06.381 --> 00:23:10.084 甚至能无缝切换到低声耳语,就像这样 00:23:11.853 --> 00:23:14.455 它支持超过24种语言 00:23:14.689 --> 00:23:17.725 甚至能流畅自如地在不同语言之间切换 00:23:19.460 --> 00:23:23.498 模型可以在最初讲英语,然后 00:23:24.999 --> 00:23:28.136 [印地语] 00:23:29.737 --> 00:23:30.938 然后再切换回来 00:23:31.272 --> 00:23:32.907 而且声音丝毫不变 00:23:33.975 --> 00:23:35.376 不错吧? 00:23:41.983 --> 00:23:44.252 从今天开始,你就可以开始在Gemini API里 00:23:44.318 --> 00:23:46.988 使用这种文字转语音功能了 00:23:52.226 --> 00:23:54.595 今天稍后,Live API还将提供 00:23:54.695 --> 00:23:59.767 2.5 Flash原生音频对话功能的预览版 00:24:00.401 --> 00:24:05.440 让你能通过更自然流畅的方式直接与Gemini会话 00:24:05.940 --> 00:24:09.744 它甚至能区分讲话人与背景噪音 00:24:09.977 --> 00:24:11.546 从而判断合适的回复时机 00:24:12.413 --> 00:24:14.882 Logan和Paige将在开发者主旨演讲中分享更多内容 00:24:16.784 --> 00:24:17.652 其次 00:24:18.252 --> 00:24:22.123 我们加强了针对间接提示注入等安全威胁的防护 00:24:22.657 --> 00:24:26.761 让Gemini 2.5成为我们迄今为止最安全的模型 00:24:27.829 --> 00:24:30.565 在2.5 Pro和Flash模型中 00:24:30.832 --> 00:24:33.034 我们都添加了思考总结功能 00:24:33.101 --> 00:24:35.336 可以通过Gemini API和Vertex AI来使用 00:24:36.337 --> 00:24:39.340 思考总结功能会提取模型的原始思考过程 00:24:39.507 --> 00:24:43.911 将其整理为清晰有序的格式,包含标题、重要细节 00:24:44.178 --> 00:24:46.581 以及有关模型操作的信息,比如工具调用 00:24:47.448 --> 00:24:50.818 这能让你更清晰地了解模型的思考过程 00:24:51.219 --> 00:24:57.291 不但对高延迟任务特别有用,同时方便调试和使用 00:24:58.993 --> 00:25:01.062 大家也呼吁提高模型处理效率 00:25:01.429 --> 00:25:04.765 而现在,2.5 Flash的效率更胜以往 00:25:05.133 --> 00:25:09.537 同等性能的情况下,使用的token更少 00:25:09.704 --> 00:25:13.541 在实际测评中效率提升达22% 00:25:15.209 --> 00:25:18.846 最后,我们为2.5 Flash引入了思考预算功能 00:25:19.113 --> 00:25:22.617 让你能够在成本、延迟和输出质量之间取得平衡 00:25:22.850 --> 00:25:24.685 由于大家的反响很好 00:25:25.219 --> 00:25:28.456 我们将思考预算功能添加到了2.5 Pro之中 00:25:28.756 --> 00:25:32.693 并将在未来几周内随同我们的正式版模型一同发布 00:25:33.694 --> 00:25:34.829 借助思考预算功能 00:25:34.896 --> 00:25:38.232 你可以更好地掌控模型使用多少token进行思考 00:25:38.299 --> 00:25:39.267 然后再给出回答 00:25:39.867 --> 00:25:41.869 也可以直接关闭思考功能 00:25:43.871 --> 00:25:45.640 之前Demis提到过 00:25:46.007 --> 00:25:48.943 Gemini 2.5 Pro有着超强的编码能力 00:25:49.443 --> 00:25:54.215 所以接下来,我想展示一下如何将构思落地 00:25:55.783 --> 00:26:00.054 如果你参观过纽约市的美国自然历史博物馆 00:26:00.421 --> 00:26:02.723 一定记得那里精彩的展品 00:26:03.257 --> 00:26:04.825 为了让大家能够看到这些展品 00:26:04.892 --> 00:26:07.728 我让2.5 Pro在Google AI Studio中 00:26:07.828 --> 00:26:09.497 编写了一个简单的Web应用 00:26:09.664 --> 00:26:11.432 用于分享一些照片以及详细信息 00:26:12.466 --> 00:26:14.035 这是该应用目前为止的模样 00:26:15.169 --> 00:26:17.905 不过我还想进一步加强其互动性 00:26:18.306 --> 00:26:20.308 我还在就设计思路集思广益 00:26:20.675 --> 00:26:22.109 不过已经有了一些想法 00:26:23.010 --> 00:26:24.979 大家都看到过像这样的情况吧? 00:26:25.513 --> 00:26:26.480 某人找到你 00:26:26.547 --> 00:26:29.350 给你看在餐巾纸上勾勒出的“绝妙”点子 00:26:30.418 --> 00:26:32.853 作为PM,我常常就是拿着餐巾纸的这个人 00:26:34.922 --> 00:26:37.425 常规的二维网页设计已经不简单 00:26:37.792 --> 00:26:39.694 但我想进一步实现三维设计 00:26:40.928 --> 00:26:43.564 我知道转为三维并不容易 00:26:44.065 --> 00:26:46.968 需要学习许许多多新知识 00:26:47.235 --> 00:26:51.706 比如设置场景、相机、光线等 00:26:52.807 --> 00:26:55.543 但幸运的是,2.5 Pro可以帮到我 00:26:56.244 --> 00:26:58.079 这里我要做的是 00:26:58.713 --> 00:27:03.584 把刚才展示的球体图片添加进来 00:27:06.087 --> 00:27:11.359 输入提示,让2.5 Pro根据此图片更新我的代码 00:27:12.593 --> 00:27:14.829 我们让2.5 Pro开始工作 00:27:14.895 --> 00:27:17.298 可以看到,它开始思考 00:27:17.665 --> 00:27:21.335 并根据我的要求制定了一份计划 00:27:21.702 --> 00:27:24.538 稍后会将其应用于我的原有代码库 00:27:25.539 --> 00:27:27.441 Gemini是一种多模态模型 00:27:27.642 --> 00:27:30.044 因此能理解这张抽象的球体草图 00:27:30.111 --> 00:27:32.647 通过编程生成精美的三维动画 00:27:32.847 --> 00:27:35.216 再将其应用于我的原有应用 00:27:36.117 --> 00:27:37.718 此过程大概需要两分钟 00:27:37.785 --> 00:27:41.622 为节省时间,我们将以类似烘焙节目的形式来展示 00:27:41.689 --> 00:27:43.557 我直接切换到另外一个标签页 00:27:43.624 --> 00:27:46.794 在这场主旨演讲开始之前,我运行了相同的提示 00:27:46.861 --> 00:27:49.664 这就是Gemini生成的结果 00:27:58.072 --> 00:28:01.876 我们把一张粗略的草图直接变成了代码 00:28:02.310 --> 00:28:04.345 更新了多个文件 00:28:04.812 --> 00:28:07.715 而且可以看到,它思考了37秒时间 00:28:07.882 --> 00:28:09.884 你也可以看到它的思考变化过程 00:28:10.418 --> 00:28:11.986 以及它更新了哪些文件 00:28:12.787 --> 00:28:14.755 这一切都是在AI Studio中完成的 00:28:14.855 --> 00:28:16.624 所以在完成原型设计之后 00:28:16.891 --> 00:28:20.661 我就可以直接用Gemini API密钥部署代码 00:28:21.929 --> 00:28:23.764 这是我们的最终版应用在Chrome中的效果 00:28:25.866 --> 00:28:27.902 看看这些动画 00:28:29.236 --> 00:28:34.008 我不需要有多精深的Three.js库知识 00:28:34.208 --> 00:28:37.178 也不必钻研复杂的三维算法,就做成了这样的作品 00:28:37.778 --> 00:28:40.514 如果要亲自动手来做,我可能永远也没法实现 00:28:40.848 --> 00:28:45.019 但这里,我只用一张草图就做出来了 00:28:46.487 --> 00:28:49.623 我可以利用多模态,让整个体验更加丰富 00:28:50.057 --> 00:28:54.061 我用2.5 Flash给每张照片添加了一个问题 00:28:54.261 --> 00:28:55.730 邀请你进一步了解相关信息 00:28:58.432 --> 00:29:00.034 但如果它能说话会怎样呢? 00:29:01.535 --> 00:29:03.738 这时我们就可以用到Gemini的原生音频功能 00:29:05.606 --> 00:29:07.007 这是一只穿山甲 00:29:07.074 --> 00:29:10.878 它的鳞片由角蛋白构成,就像你的指甲一样 00:29:12.012 --> 00:29:14.115 哇!现在它支持语音功能了 00:29:14.849 --> 00:29:18.786 你可以听到,如何在应用中添加富有表现力的音频 00:29:19.520 --> 00:29:21.455 在分享更多内容之前 00:29:21.655 --> 00:29:24.058 我想以另一个好玩的设计来结束演示 00:29:24.125 --> 00:29:26.560 这也是通过2.5 Pro编码实现的 00:29:37.104 --> 00:29:38.939 我们在Google AI Studio提供了起始代码 00:29:39.006 --> 00:29:41.442 让大家都可以在本演示的基础上进行二次开发 00:29:41.542 --> 00:29:42.643 欢迎大家去尝试 00:29:43.778 --> 00:29:45.546 这个演示仅仅是一个例子 00:29:45.846 --> 00:29:49.049 证明Gemini 2.5必将大幅改变我们的构建方式 00:29:49.116 --> 00:29:51.685 改变你利用非凡的功能 00:29:52.019 --> 00:29:56.724 在自己的应用中集成视觉、语音和编码的方式 00:29:57.725 --> 00:30:01.395 你可以在自己喜爱的IDE平台 00:30:02.029 --> 00:30:03.864 以及各种Google产品中使用2.5 Pro 00:30:04.031 --> 00:30:08.869 例如Android Studio、Firebase Studio Gemini Code Assist 00:30:09.203 --> 00:30:12.473 以及我们最新的异步编码智能体Jules 00:30:19.613 --> 00:30:22.650 你只需提交任务,剩下的就交给Jules来处理 00:30:22.883 --> 00:30:25.286 修复bug,执行更新 00:30:25.653 --> 00:30:28.656 它与GitHub集成,可以独立运行 00:30:29.757 --> 00:30:32.526 Jules能够处理大型代码库中的复杂任务 00:30:32.593 --> 00:30:34.028 这些任务过去需要数小时才能完成 00:30:34.295 --> 00:30:36.797 比如更新较早版本的Node.js 00:30:37.398 --> 00:30:41.936 它能在几分钟内完成规划步骤、修改文件等任务 00:30:42.636 --> 00:30:44.605 今天,我很高兴地宣布 00:30:44.672 --> 00:30:46.407 Jules将开启公开Beta版测试 00:30:46.674 --> 00:30:49.310 所有人都可以通过jules.google注册 00:30:56.283 --> 00:31:00.621 正如Demis所说,我们一直在创新优化模型的方法 00:31:01.188 --> 00:31:03.958 包括提高模型的效率和性能 00:31:04.725 --> 00:31:09.930 我们率先采用扩散技术,革新了图像和视频的生成 00:31:10.598 --> 00:31:15.336 扩散模型可通过逐步优化噪声来生成输出 00:31:16.203 --> 00:31:21.075 现在,我们正借助最新研究模型将扩散应用于文本 00:31:22.309 --> 00:31:24.645 这样有助于提升处理编辑等任务的能力 00:31:24.812 --> 00:31:27.147 包括在数学和编码等应用场景中 00:31:27.848 --> 00:31:29.984 因为它不只是从左到右线性生成内容 00:31:30.384 --> 00:31:32.319 还能够快速反复试验解决方案 00:31:32.686 --> 00:31:35.289 并在生成过程中不断纠错 00:31:37.157 --> 00:31:41.629 Gemini Diffusion是一种领先的文本扩散实验模型 00:31:42.129 --> 00:31:46.867 利用并行生成技术,实现超低延迟 00:31:47.668 --> 00:31:51.472 例如,我们今天发布的Gemini Diffusion版本 00:31:52.006 --> 00:31:53.941 生成速度是我们目前速度最快的模型 00:31:54.241 --> 00:31:58.045 2.0 Flash-Lite的五倍 00:31:58.445 --> 00:32:00.514 而编码能力却旗鼓相当 00:32:01.215 --> 00:32:02.750 以这个数学问题为例 00:32:03.083 --> 00:32:04.385 准备,开始! 00:32:06.587 --> 00:32:07.855 眨眼间整个过程就完成了 00:32:14.695 --> 00:32:19.967 之前我们加快了速度,但这次我们会放慢一点 00:32:25.005 --> 00:32:28.475 看到模型如何一步步计算出39这个答案,感觉很棒 00:32:30.044 --> 00:32:32.313 此模型目前正在小范围测试 00:32:33.380 --> 00:32:35.849 我们会继续探索各种方法 00:32:35.950 --> 00:32:38.319 降低所有Gemini模型的延迟 00:32:38.686 --> 00:32:41.789 并即将推出速度更快的2.5 Flash-Lite模型 00:32:43.057 --> 00:32:45.459 更多有关Gemini未来发展的信息 00:32:45.759 --> 00:32:46.927 请Demis与大家进一步分享 00:32:55.202 --> 00:32:56.236 谢谢你,Tulsi 00:32:56.904 --> 00:33:01.909 我们一直在不懈探索Gemini 2.5思考功能的边界 00:33:02.776 --> 00:33:05.112 使用AlphaGo的经验告诉我们 00:33:05.245 --> 00:33:08.782 给模型更多思考时间,其回答质量会得到改善 00:33:10.150 --> 00:33:13.320 如今,我们进一步优化了2.5 Pro 00:33:13.387 --> 00:33:16.857 引入了名为Deep Think的新模式 00:33:17.925 --> 00:33:22.196 它能将模型性能发挥到极致,带来突破性的成果 00:33:22.663 --> 00:33:27.234 Deep Think采用了思考与推理领域的前沿研究 00:33:27.434 --> 00:33:29.303 包括平行技术 00:33:30.337 --> 00:33:33.040 目前为止,我们看到的性能堪称惊艳 00:33:33.574 --> 00:33:36.910 在目前难度最高的数学基准测试USAMO 2025中 00:33:37.344 --> 00:33:39.947 它的评分十分亮眼 00:33:40.347 --> 00:33:41.849 在LiveCodeBench中也处于领先水平 00:33:41.915 --> 00:33:45.219 这是一项针对竞赛级编码的高难度基准测试 00:33:45.686 --> 00:33:48.789 Gemini从一开始就具备原生多模态能力 00:33:49.223 --> 00:33:53.293 所以自然在衡量此能力的主要基准中表现同样出色 00:33:53.627 --> 00:33:54.862 这一基准是:MMMU 00:33:56.296 --> 00:33:59.733 因为我们正在通过2.5 Pro Deep Think来引领前沿技术 00:34:00.200 --> 00:34:04.171 我们需要额外花一些时间来进行更多前沿安全评估 00:34:04.505 --> 00:34:06.707 并从安全专家那里获取更多意见 00:34:07.374 --> 00:34:09.576 因此,我们将通过Gemini API 00:34:09.643 --> 00:34:12.146 向可信测试员开放此功能 00:34:12.646 --> 00:34:15.349 以便在大规模推出此功能前获取反馈意见 00:34:16.283 --> 00:34:19.186 今天稍后,Josh会更详细地给大家介绍 00:34:19.653 --> 00:34:21.155 我们针对2.5 Pro Deep Think的计划 00:34:23.157 --> 00:34:24.391 过去十年 00:34:24.591 --> 00:34:27.795 我们为现代AI纪元的到来做了很多基础工作 00:34:29.096 --> 00:34:32.132 从我们开创性地发明了Transformer架构 00:34:32.433 --> 00:34:35.536 它如今已成为所有大语言模型的基础 00:34:35.836 --> 00:34:38.706 到打造AlphaGo和AlphaZero等智能体系统 00:34:39.006 --> 00:34:43.977 我们将继续拓展基础研究的深度和广度 00:34:44.445 --> 00:34:46.246 探索下一个重大突破 00:34:46.313 --> 00:34:49.516 满足人们对通用人工智能的需要 00:34:50.784 --> 00:34:54.555 Gemini如今已是卓尔不凡的多模态基础模型 00:34:54.955 --> 00:34:56.657 但我们依然脚步未停 00:34:57.191 --> 00:34:59.426 竭力将其打造成所谓的“世界模型” 00:35:00.194 --> 00:35:03.430 待到那时,它将能够通过模拟世界的方方面面 00:35:03.497 --> 00:35:07.468 制定计划和构想全新体验,就像人类的大脑一样 00:35:08.302 --> 00:35:10.771 这一直是我个人的热情所在 00:35:10.871 --> 00:35:12.740 早在我为《主题公园》等模拟游戏 00:35:12.806 --> 00:35:14.742 开发AI的早期职业生涯中 00:35:14.875 --> 00:35:16.810 我就已经开始探索虚拟世界 00:35:18.145 --> 00:35:20.848 多年来,我们一直向这个方向迈进 00:35:20.914 --> 00:35:25.686 从训练智能体掌握围棋和《星际争霸》等复杂游戏 00:35:26.453 --> 00:35:28.722 到最近推出的Genie 2模型 00:35:28.956 --> 00:35:31.792 它仅通过一张图片作为提示 00:35:32.025 --> 00:35:35.295 就能生成可交互的三维模拟环境 00:35:36.897 --> 00:35:39.133 大家已经可以看到这些功能正在逐渐显现 00:35:39.266 --> 00:35:41.902 例如Gemini能够运用对世界的认知和推理能力 00:35:42.269 --> 00:35:43.737 来呈现自然万物 00:35:44.605 --> 00:35:47.474 还有我们先进的视频模型Veo 00:35:47.541 --> 00:35:50.010 它对基本物理规律有着深刻理解 00:35:50.177 --> 00:35:53.147 比如重力、光线和材料的属性 00:35:53.914 --> 00:35:55.783 Veo令人惊叹的地方在于 00:35:55.849 --> 00:35:59.553 它能在所有帧中保持高度的准确性和连贯性 00:36:00.187 --> 00:36:03.157 即使提示脑洞大开,它也知道该怎么做 00:36:03.524 --> 00:36:06.393 比如这个用救生筏生成的人 00:36:08.529 --> 00:36:12.499 理解物理环境对于机器人技术也至关重要 00:36:12.966 --> 00:36:15.135 AI系统需要具备世界模型 00:36:15.269 --> 00:36:17.471 才能在现实世界中高效地运作 00:36:18.739 --> 00:36:21.642 我们微调了一个专用模型,Gemini Robotics 00:36:21.708 --> 00:36:23.777 它可以教机器人完成各种实用任务 00:36:24.144 --> 00:36:28.348 例如抓取物体、执行指令和动态适应新的任务 00:36:29.283 --> 00:36:33.387 在场的各位,可以在AI展示区中体验这些机器人 00:36:40.294 --> 00:36:42.496 将Gemini打造成完善的世界模型 00:36:42.563 --> 00:36:45.599 对于解锁新型AI至关重要 00:36:46.667 --> 00:36:48.836 比如能够为日常生活提供帮助的AI 00:36:49.102 --> 00:36:51.972 智能且理解你所处情境的AI 00:36:52.239 --> 00:36:55.976 以及能够跨设备为你制定计划并采取行动的AI 00:36:56.643 --> 00:36:59.179 我们对Gemini应用的终极愿景 00:36:59.847 --> 00:37:03.016 就是将其打造成一个通用型的AI助理 00:37:03.650 --> 00:37:07.120 让它成为富有个性、主动思考、功能强大的AI 00:37:07.521 --> 00:37:10.657 以及我们迈向通用人工智能的重要里程碑 00:37:11.391 --> 00:37:15.529 这要从我们去年在Project Astra中 首次探索的功能开始 00:37:15.896 --> 00:37:18.699 包括视频理解、屏幕共享和记忆等功能 00:37:19.800 --> 00:37:24.304 过去一年,我们一直在将这些功能引入Gemini Live 00:37:24.838 --> 00:37:26.573 以便更多人今天就能体验到 00:37:27.608 --> 00:37:32.179 当然,我们也会不断改进,并探索新的前沿创新 00:37:33.347 --> 00:37:37.417 比如通过原生音频升级语音输出,使其变得更自然 00:37:38.051 --> 00:37:40.921 我们改进了记忆功能,并增加了计算机控件 00:37:41.288 --> 00:37:42.155 我们来看一下 00:37:43.323 --> 00:37:46.093 我现在向大家展示的是 Project Astra的最新研究原型 00:37:46.260 --> 00:37:48.195 下面来看看它如何帮我修自行车 00:37:49.196 --> 00:37:51.899 [Project Astra] [行动智能+Gemini] 00:37:52.099 --> 00:37:55.903 上网查查Huffy山地自行车的用户手册 00:37:57.237 --> 00:37:59.106 已找到一份用户手册 00:37:59.306 --> 00:38:00.574 你想要什么信息? 00:38:00.674 --> 00:38:04.311 好,现在向下滚动页面,找到刹车系统的相关章节 00:38:04.578 --> 00:38:06.647 好的,正在为你查找相应页面 00:38:07.314 --> 00:38:09.182 这颗螺丝可能滑牙了 00:38:09.449 --> 00:38:12.119 能否上YouTube找个修复教程视频? 00:38:12.586 --> 00:38:14.755 没问题,正在打开YouTube 00:38:17.925 --> 00:38:19.393 这个视频看起来不错 00:38:19.459 --> 00:38:21.528 将橡皮筋套在螺丝头上 00:38:21.595 --> 00:38:22.863 噢,不错,谢谢 00:38:22.930 --> 00:38:24.965 查下我跟自行车店的往来邮件 00:38:25.032 --> 00:38:27.401 看看我需要哪种规格的六角螺母? 00:38:27.601 --> 00:38:30.704 好的,Bicycle Habitat的邮件显示 00:38:30.771 --> 00:38:33.573 你的链轮需要一个3/8英寸的内六角螺母 00:38:33.640 --> 00:38:35.442 我已经帮你标出了相应的工具盒 00:38:35.976 --> 00:38:38.612 我好像需要一个备用的张力螺丝 00:38:39.146 --> 00:38:41.548 能否联系最近的五金店确认是否有货? 00:38:41.748 --> 00:38:43.417 好的,正在联系对方 00:38:43.684 --> 00:38:45.852 稍后我会告诉你具体库存信息 00:38:45.919 --> 00:38:47.821 我的刹车片有磨损了 00:38:47.955 --> 00:38:49.222 麻烦再查一下用户手册 00:38:49.289 --> 00:38:50.724 看看上面有没有提到刹车片? 00:38:50.857 --> 00:38:53.894 用户手册的第24页显示 00:38:54.361 --> 00:38:55.595 要去吃午饭吗? 00:38:56.330 --> 00:38:58.098 好,再等我五分钟 00:38:58.732 --> 00:39:00.267 你刚才说到哪了? 00:39:00.534 --> 00:39:04.604 刚才说到,第24页第2节有相关说明 00:39:04.838 --> 00:39:06.673 介绍了如何更换刹车片 00:39:06.773 --> 00:39:08.542 之前说的那个电话有进展了吗? 00:39:09.209 --> 00:39:11.378 嗯,我刚和五金店通完电话 00:39:11.545 --> 00:39:13.680 他们确认张力螺丝还有库存 00:39:13.814 --> 00:39:15.515 要我下一个自取订单吗? 00:39:16.016 --> 00:39:19.453 能否展示几款适合我的自行车用的狗篮? 00:39:19.519 --> 00:39:22.322 没问题,乐意效劳,稍等片刻 00:39:23.523 --> 00:39:24.725 看看这几款怎么样 00:39:24.791 --> 00:39:26.860 我觉得特别适合Zuco 00:39:28.528 --> 00:39:29.563 [行动智能+Gemini] 00:39:29.629 --> 00:39:34.468 [电脑控制/重点标示/通话助理/知识接地 原生音频/主动思考/聚焦讲话人/个性化购物] 00:39:37.704 --> 00:39:41.675 通用AI助理将帮助我们处理各种任务 00:39:42.009 --> 00:39:46.913 它会处理琐碎的行政工作 并给出令人愉快的新推荐 00:39:47.214 --> 00:39:49.950 从而提高我们的效率,丰富我们的生活 00:39:50.584 --> 00:39:54.421 我们正向可信测试员收集这些新功能的反馈意见 00:39:54.855 --> 00:39:56.957 并致力于将它们引入Gemini Live 00:39:57.190 --> 00:39:58.625 提供新的搜索体验 00:39:58.692 --> 00:40:00.560 以及面向开发者的Live API 00:40:00.727 --> 00:40:04.398 还有Android XR眼镜等全新形态的设备 00:40:04.998 --> 00:40:06.867 今天后面还会有更详细的介绍 00:40:08.668 --> 00:40:09.870 在我整个职业生涯中 00:40:09.936 --> 00:40:12.706 核心都是关于如何利用AI来推动知识进步 00:40:12.773 --> 00:40:14.508 以及加速科学发现 00:40:15.442 --> 00:40:17.144 Google DeepMind长期以来都在致力于 00:40:17.210 --> 00:40:20.847 将AI应用于近乎每个科学领域 00:40:21.381 --> 00:40:22.649 仅在过去一年 00:40:22.816 --> 00:40:25.652 我们就已经在多个领域取得了巨大突破 00:40:25.852 --> 00:40:28.155 包括数学、生命科学等领域 00:40:29.089 --> 00:40:30.257 我们构建了AlphaProof 00:40:30.490 --> 00:40:33.527 它可以解决奥林匹克数学竞赛中银牌水平的问题 00:40:34.294 --> 00:40:36.930 Co-Scientist,它可以与研究人员协作 00:40:37.030 --> 00:40:39.599 帮助他们开发和测试新的假设 00:40:40.067 --> 00:40:42.402 我们还刚发布了AlphaEvolve 00:40:42.569 --> 00:40:46.473 它可以发现新的科学知识,并加速AI本身的训练 00:40:48.308 --> 00:40:50.477 在生命科学领域,我们构建了AMIE 00:40:50.644 --> 00:40:54.114 一个可以帮助临床医生进行医疗诊断的研究系统 00:40:54.681 --> 00:40:55.749 AlphaFold 3 00:40:56.016 --> 00:40:59.920 能够预测所有生命体的分子结构和相互作用 00:41:00.520 --> 00:41:03.323 以及Isomorphic Labs,它以AlphaFold为基础 00:41:03.390 --> 00:41:07.561 致力于用AI来革新药物研发流程 00:41:08.395 --> 00:41:11.198 未来有望帮助攻克多种全球性疾病 00:41:12.532 --> 00:41:13.967 短短几年时间 00:41:14.167 --> 00:41:17.604 AlphaFold就已经在科学界产生了深远影响 00:41:18.105 --> 00:41:21.074 它已成为生物学及医学研究的标配工具 00:41:21.508 --> 00:41:23.643 全球超过250万的研究人员 00:41:23.710 --> 00:41:25.912 正在其关键工作中使用这一工具 00:41:27.080 --> 00:41:29.483 在发展通用人工智能的道路上 00:41:29.883 --> 00:41:33.420 我始终坚信,如果以安全和负责任的方式进行 00:41:33.487 --> 00:41:36.156 AI有望加速科学发现进程 00:41:36.423 --> 00:41:39.759 并成为有史以来最有益的技术 00:41:47.334 --> 00:41:52.072 回想起来,真是不可思议,就在几年前 00:41:52.272 --> 00:41:56.643 大家今天看到的这些尖端技术还跟魔法一样 00:41:57.777 --> 00:42:03.116 看到这些技术为搜索和Gemini等产品的新体验赋能 00:42:03.216 --> 00:42:06.186 并且共同在日常生活中帮助人们,真是令人兴奋 00:42:06.953 --> 00:42:09.623 例如,我们最近与Aira建立了合作关系 00:42:09.923 --> 00:42:14.761 这家公司帮助盲人和低视力人群探索世界 00:42:14.995 --> 00:42:16.596 方法是将该人群通过视频 00:42:16.663 --> 00:42:18.598 与人工“视觉翻译”连接起来 00:42:19.399 --> 00:42:20.667 利用Astra技术 00:42:20.834 --> 00:42:24.938 我们设计了一个帮助更多人获得此类协助的原型 00:42:26.006 --> 00:42:27.807 我们正在持续收集用户反馈 00:42:27.974 --> 00:42:32.779 同时Aira的翻译人员也在积极监督安全性及可靠性 00:42:39.152 --> 00:42:41.988 凭借这项技术以及我们所有的开创性工作 00:42:42.189 --> 00:42:46.126 我们正在打造更具个性、更主动、更强大的AI 00:42:46.726 --> 00:42:50.330 从而丰富我们的生活、加速科学进程 00:42:50.564 --> 00:42:54.801 并开启一个充满发现和奇迹的黄金时代 00:42:59.272 --> 00:43:03.009 我记得我小时候经常弹吉他到天黑 00:43:03.076 --> 00:43:06.646 来证明即使我看不见,也可以弹吉他 00:43:08.815 --> 00:43:13.186 我在大概四岁左右被诊断出患有视网膜色素变性症 00:43:13.286 --> 00:43:16.223 我的视力水平不断恶化 00:43:17.290 --> 00:43:22.395 但面对视力逐渐模糊的现实 00:43:22.696 --> 00:43:26.466 音乐便是我的解药 00:43:26.866 --> 00:43:29.436 玩音乐让我倍感自由 00:43:30.670 --> 00:43:33.840 如果Project Astra能助我更独立地生活 00:43:33.907 --> 00:43:36.409 那真是再好不过了 00:43:40.013 --> 00:43:42.048 就拿旅游来说,我非常喜欢旅游 00:43:42.115 --> 00:43:46.286 因为可以走出去,去从未到过的地方,结识新朋友 00:43:46.353 --> 00:43:49.089 但这确实变得越来越困难 00:43:49.189 --> 00:43:50.223 你好 00:43:50.290 --> 00:43:53.693 嗨,我来拍摄周围环境 00:43:53.760 --> 00:43:57.197 你能告诉我这个绿色房间里有什么吗? 00:43:57.264 --> 00:43:59.899 你面向的墙壁上贴有一个指示牌 00:43:59.966 --> 00:44:03.336 写着“Wi-Fi network: TheGreyEagle” 00:44:03.403 --> 00:44:05.472 密码是“livemusic” 00:44:05.538 --> 00:44:09.309 非常感谢。你能告诉我麦克风架在哪儿吗? 00:44:09.376 --> 00:44:10.610 没问题,非常乐意为你提供帮助 00:44:10.677 --> 00:44:12.479 我可以打开你的手电筒吗? 00:44:12.579 --> 00:44:13.613 当然可以 00:44:15.315 --> 00:44:17.617 这面墙上有一些盘绕的电缆 00:44:17.684 --> 00:44:20.920 视频右上方位置应该就是麦克风架 00:44:23.690 --> 00:44:26.893 我能做的最有力量的事就是登上舞台 00:44:27.193 --> 00:44:28.795 拿起吉他,尽情演奏 00:44:29.462 --> 00:44:34.067 让人们意识到,看不看得见 00:44:34.301 --> 00:44:35.735 残疾与否,并不能决定一切 00:44:35.969 --> 00:44:38.638 如果Project Astra能助我一臂之力 00:44:38.705 --> 00:44:40.006 我将全力支持它 00:44:41.207 --> 00:44:42.609 祝你演出愉快 00:44:42.676 --> 00:44:44.411 [前往goo.gle/AstraVI注册加入视觉翻译等候名单] 00:44:52.085 --> 00:44:53.186 谢谢你,Demis 00:44:53.253 --> 00:44:57.991 Project Astra在无障碍功能方面的潜力让人惊艳 00:44:58.892 --> 00:45:00.660 这又是一个激动人心的例子 00:45:00.827 --> 00:45:03.663 说明AI可以推动我们一直以来的使命 00:45:04.431 --> 00:45:09.235 即:整理全球信息,让所有人都能访问并从中受益 00:45:09.903 --> 00:45:13.073 要说最能体现我们使命的产品,非Google搜索莫属 00:45:13.606 --> 00:45:17.644 正是因为搜索,我们几十年前就开始投资AI 00:45:18.144 --> 00:45:20.547 也正是通过搜索,我们得以将AI的益处惠及大众 00:45:20.647 --> 00:45:22.716 满足人类好奇心 00:45:23.516 --> 00:45:26.286 Gemini模型正在让Google搜索 00:45:26.353 --> 00:45:29.356 变得更智能、更真实、更个性化 00:45:30.390 --> 00:45:33.927 我们取得了不俗的进步 AI概览就是一个绝佳的例证 00:45:34.461 --> 00:45:36.496 自去年I/O大会推出以来 00:45:36.830 --> 00:45:40.100 该功能已覆盖200多个国家/地区 00:45:40.166 --> 00:45:42.769 每月服务超15亿用户 00:45:43.503 --> 00:45:45.338 随着人们使用AI概览 00:45:45.538 --> 00:45:49.542 我们发现他们对搜索结果更满意 并且搜索频率更高 00:45:50.210 --> 00:45:53.012 在我们的主要市场,如美国、印度 00:45:53.446 --> 00:45:57.484 在AI概览的推动下,查询类型 00:45:57.550 --> 00:45:59.052 实现了超过10%的增长 00:45:59.753 --> 00:46:04.657 最令人振奋的是,这种增长势头与日俱增 00:46:05.191 --> 00:46:09.462 这是搜索领域过去十年最成功的产品之一 00:46:17.170 --> 00:46:22.075 AI概览也是推动Google智能镜头 视觉搜索增长的最强劲动力之一 00:46:22.909 --> 00:46:25.812 智能镜头的搜索量同比增长65% 00:46:26.179 --> 00:46:30.083 今年已有超千亿次视觉搜索 00:46:30.717 --> 00:46:32.619 在我们最新的Gemini模型发布后 不仅用户查询量显著增加 00:46:33.119 --> 00:46:38.024 而且他们还在尝试更为复杂的查询 00:46:38.091 --> 00:46:40.527 AI概览达到了用户期待的 00:46:40.593 --> 00:46:43.396 搜索质量与准确程度 00:46:43.696 --> 00:46:45.932 并拥有行业领先的响应速度 00:46:46.566 --> 00:46:49.602 为满足端到端AI搜索体验需求 00:46:50.036 --> 00:46:53.106 我们正推出全新AI模式 00:46:53.606 --> 00:46:58.178 这是对搜索的全面重构 同时搭配更先进的推理能力 00:46:58.578 --> 00:47:03.716 你可以向AI模式提出更长、更复杂的查询 就像这样 00:47:04.384 --> 00:47:11.124 实际上,用户查询长度已是传统搜索的2到3倍 00:47:11.491 --> 00:47:14.561 而且我们支持多轮追问 00:47:15.161 --> 00:47:19.699 所有这些今天正式上线 将作为新标签页整合到搜索中 00:47:20.300 --> 00:47:24.204 我个人高频使用后发现 它彻底改变了我的搜索方式 00:47:24.537 --> 00:47:27.941 很高兴宣布AI模式今日起 00:47:28.007 --> 00:47:30.143 面向全美用户开放 00:47:36.716 --> 00:47:40.887 AI模式将率先为Google搜索 引入我们的前沿技术 00:47:41.254 --> 00:47:47.927 本周起,我们最智能的模型系列Gemini 2.5 将接入Google搜索 00:47:48.261 --> 00:47:49.662 带来更丰富的功能 00:47:49.963 --> 00:47:51.030 接下来有请Liz 00:48:02.909 --> 00:48:04.077 Sundar,谢谢 00:48:04.577 --> 00:48:09.482 短短一年时间 用户使用Google搜索的方式就发生了巨大变化 00:48:10.216 --> 00:48:14.554 以前,用户在Google上搜索时 常常会问这样的问题 00:48:15.555 --> 00:48:19.158 但现在,用户的问题变成了这样 00:48:20.360 --> 00:48:23.396 用户的问题更长,也更复杂了 00:48:24.030 --> 00:48:26.966 正如Sundar刚才所说,问题数量也大大增加了 00:48:27.901 --> 00:48:30.603 用户正在亲身体验AI赋能的搜索 00:48:31.137 --> 00:48:34.674 我们将Gemini模型的先进功能 00:48:34.874 --> 00:48:39.045 与Google搜索对网络和世界信息的深刻理解 结合在一起 00:48:40.179 --> 00:48:42.582 现在,你会发现你可以提出任何问题 00:48:42.982 --> 00:48:49.155 更智能、更个性化的代理式搜索功能 将可以处理你最棘手的问题 00:48:49.455 --> 00:48:50.957 并帮助你完成任务 00:48:52.091 --> 00:48:54.160 这就是Google搜索的未来 00:48:54.561 --> 00:48:57.797 它将超越信息本身,变得越来越智能 00:48:58.998 --> 00:49:02.735 大家已经开始看到AI概览将这一切变为现实 00:49:02.969 --> 00:49:05.238 而AI模式更是将它们提升到了新高度 00:49:06.739 --> 00:49:10.944 AI模式是以Gemini 2.5为核心的变革性搜索体验 00:49:11.844 --> 00:49:16.316 它是我们功能最强大的AI搜索 能够应对任何问题 00:49:17.517 --> 00:49:18.718 正如Sundar所说 00:49:18.785 --> 00:49:23.957 从今天开始 我们将在美国全面推出AI模式 00:49:30.997 --> 00:49:34.901 它会以新标签页的形式直接出现在搜索页面中 大家也可以从搜索栏进入AI模式 00:49:35.868 --> 00:49:40.773 AI模式将带来我们最精华的AI功能 00:49:41.574 --> 00:49:43.142 但还不止于此 00:49:43.209 --> 00:49:45.278 从它可窥见未来的广阔前景 00:49:46.446 --> 00:49:51.017 未来,我们将逐步推出大量AI模型、先进的功能 00:49:51.084 --> 00:49:53.720 并会直接整合到核心搜索体验中 00:49:54.520 --> 00:50:00.493 今天就是起点 我们带来了为AI模式和AI概览提供支持的模型 00:50:01.027 --> 00:50:04.764 大家在搜索框中就可以直接提出最难的问题 00:50:05.898 --> 00:50:07.900 今天,我们将带大家全面了解AI模式 00:50:07.967 --> 00:50:10.703 看看它如何运作,如何变得越来越强大 00:50:11.604 --> 00:50:12.772 尤其是在个人使用场景 00:50:13.172 --> 00:50:16.676 深度研究、复杂分析、可视化 00:50:16.876 --> 00:50:19.712 实时多模态以及购物新方式等方面 00:50:20.480 --> 00:50:23.282 亮点很多,因为AI模式的功能很强大 00:50:23.816 --> 00:50:29.656 下面,我们具体来说一下 首先,使用AI模式,你可以随心所欲地提问 00:50:29.989 --> 00:50:32.759 大家可以看到,搜索功能会立即开始工作 00:50:33.493 --> 00:50:37.230 生成回答,将所有信息整合在一起 00:50:37.764 --> 00:50:41.901 包括你可能从未发现的内容和创作者的链接 00:50:41.968 --> 00:50:46.072 以及包含评分等实用信息的商家和企业的链接 00:50:47.006 --> 00:50:50.443 Google搜索使用AI动态地调整整个界面 00:50:51.144 --> 00:50:55.882 灵活组合文字、图片、链接,甚至是地图 00:50:56.082 --> 00:50:57.483 只为更好地回答你的问题 00:50:58.084 --> 00:51:00.053 你可以追问,就像跟人对话一样 00:51:01.120 --> 00:51:03.523 现在,AI模式不仅仅是提供信息 00:51:03.956 --> 00:51:07.060 更将搜索带到了全新的智能水平 00:51:08.494 --> 00:51:12.198 这一切之所以能实现 得益于称之为查询扇出的技术 00:51:13.232 --> 00:51:17.370 其原理是 Google搜索会识别需要高级推理的问题 00:51:18.304 --> 00:51:20.306 并调用定制版的Gemini 00:51:20.473 --> 00:51:22.975 将问题分解为若干子主题 00:51:23.276 --> 00:51:27.280 然后替你同时发起大量查询 00:51:27.880 --> 00:51:32.952 它会在整个网络进行搜索,深度远超传统搜索 00:51:33.753 --> 00:51:36.856 它还会利用我们所有的实时信息数据集 00:51:37.223 --> 00:51:42.261 例如知识图谱、购物信息图谱 以及本例中涉及的本地数据 00:51:42.395 --> 00:51:47.166 这其中包含地图社区中,5亿多贡献者的数据洞见 00:51:48.267 --> 00:51:51.037 Google搜索会整合所有信息给出回答 并进行自我检查 00:51:51.537 --> 00:51:54.474 确保符合我们对信息质量的高标准要求 00:51:55.108 --> 00:51:59.312 如果发现任何不足,它会发起更多搜索来弥补 00:52:00.513 --> 00:52:01.681 这意味着,在AI模式下 00:52:01.748 --> 00:52:06.419 你只需搜索一次,就能快速获得所有这些信息 00:52:07.653 --> 00:52:11.424 现在来看看AI模式即将增加的新功能 这些功能会先在实验室中进行测试 00:52:12.925 --> 00:52:16.629 不久之后,AI模式将能根据你以往的搜索记录 00:52:16.996 --> 00:52:20.366 提供个性化的建议,从而使回答更具针对性 00:52:21.200 --> 00:52:24.937 你还可以选择关联其他的Google应用 首先是Gmail 00:52:26.038 --> 00:52:28.074 我们称之为个人使用场景 00:52:28.274 --> 00:52:31.344 关联之后 AI模式可以引入你的个人使用场景来提供帮助 00:52:32.245 --> 00:52:35.314 现在,根据你最近的酒店预订和搜索记录 00:52:35.681 --> 00:52:37.517 它能推断出你更喜欢户外的座位 00:52:38.251 --> 00:52:40.753 由于你订阅了这些画廊简报 00:52:41.020 --> 00:52:44.157 它就会推荐一些精彩的艺术展 方便你在当地停留期间参观 00:52:45.324 --> 00:52:46.459 但还不止这些 00:52:46.926 --> 00:52:49.996 如果你的航班和酒店确认邮件都在收件箱里 00:52:50.363 --> 00:52:53.833 它还会推荐你在纳什维尔时刚好能参加的活动 00:52:54.066 --> 00:52:55.835 推荐你在停留期间的周边好去处 00:52:57.203 --> 00:53:00.973 你会发现,AI模式中的个人使用场景功能 可以将Google搜索变成为你量身定制的工具 00:53:01.541 --> 00:53:04.010 专门为你提供推荐内容 00:53:04.877 --> 00:53:06.579 这一切始终都由你掌控 00:53:07.046 --> 00:53:09.782 你可以随时选择关联或解除关联 00:53:10.883 --> 00:53:13.586 个人使用场景将于今年夏天在AI模式中上线 00:53:21.861 --> 00:53:25.131 另外,我们将针对需要更深入解答的问题 00:53:25.698 --> 00:53:28.901 为AI模式引入Deep Research功能 00:53:29.702 --> 00:53:32.839 大家已经在使用Google搜索来剖析某个主题 00:53:33.206 --> 00:53:35.441 而这项功能将研究的深度和广度又提升了一个级别 00:53:36.042 --> 00:53:38.911 所以我们称之为Deep Search 00:53:39.846 --> 00:53:43.082 Deep Search同样采用前面提到的查询扇出技术 00:53:43.449 --> 00:53:44.617 但功能更强 00:53:44.917 --> 00:53:48.855 它可以替你发起数十次甚至数百次搜索 00:53:49.589 --> 00:53:52.758 它会对所有分散的信息进行分析推理 00:53:53.025 --> 00:53:56.796 并在几分钟内生成一份 带有完整引用信息的专家级报告 00:53:57.797 --> 00:53:59.498 报告中会包含网页链接 00:53:59.765 --> 00:54:02.201 方便你进一步探索和采取行动 00:54:03.469 --> 00:54:06.639 这是我们构建AI模式的核心理念 00:54:07.273 --> 00:54:09.876 以及我们对搜索领域中AI运用的一贯思考 00:54:10.743 --> 00:54:13.679 因为我们坚信,AI将成为Web有史以来 00:54:13.746 --> 00:54:15.648 最强大的发现引擎 00:54:16.616 --> 00:54:19.652 帮助人们发现网络中更多有价值的信息 00:54:20.286 --> 00:54:22.822 找到令人惊叹且高度相关的内容 00:54:24.290 --> 00:54:27.159 大家已经开始感受到搜索变得越来越智能 00:54:27.426 --> 00:54:28.895 但精彩远不止于此 00:54:29.595 --> 00:54:31.063 接下来,我把时间交给Rajan 00:54:31.130 --> 00:54:34.033 他将介绍AI模式如何帮助他分析 00:54:34.634 --> 00:54:36.903 他热爱的一个体育领域里的复杂数据 00:54:48.014 --> 00:54:52.351 Liz,谢谢你!我是一个狂热的棒球迷 00:54:52.418 --> 00:54:56.022 最近关于这种叫做“鱼雷球棒”的新型球棒 引起了很多讨论 00:54:56.489 --> 00:54:57.990 为不太关注棒球的朋友解释一下 00:54:58.190 --> 00:55:02.662 这是一种新型球棒 它的特点是将更多重量集中在最佳击球点 00:55:03.296 --> 00:55:07.700 正如大家所见 我一直在研究这种球棒是否真的对比赛产生了影响 00:55:08.167 --> 00:55:10.836 现在,我想知道数据会怎么说 00:55:11.270 --> 00:55:12.571 于是,我向Google搜索提出了一个问题 00:55:12.638 --> 00:55:16.475 请显示目前使用鱼雷球棒的知名球员 00:55:16.776 --> 00:55:19.845 在本赛季和上赛季的打击率和上垒率 00:55:20.613 --> 00:55:24.050 这个问题并不简单,包含了多重维度 00:55:24.450 --> 00:55:27.420 Google搜索需要识别哪些是知名球员 00:55:27.687 --> 00:55:30.890 谁在使用鱼雷球棒,并整合他们的赛季数据 00:55:31.958 --> 00:55:35.795 但它马上给出了非常实用的回答 其中还有容易理解的表格 00:55:36.796 --> 00:55:39.265 而且,数据新鲜、精准 00:55:39.465 --> 00:55:43.336 因为它使用的是我们持续更新的体育数据 00:55:43.436 --> 00:55:44.704 甚至精确到最近一次好球 00:55:45.705 --> 00:55:48.040 Google搜索甚至还提供了重要的背景信息 00:55:48.207 --> 00:55:50.609 比如“目前赛季仍处于早期阶段” 00:55:51.510 --> 00:55:56.015 我继续追问:这些球员本赛季击出多少支本垒打? 00:55:56.515 --> 00:55:58.985 瞬间就获得了一张图表 00:56:00.052 --> 00:56:01.854 这正好印证了Liz刚才提到的 00:56:01.921 --> 00:56:06.826 AI模式能够为每个回答动态生成合适的界面 00:56:07.626 --> 00:56:11.731 Google搜索确定 最适合呈现这些信息的方式是图表 00:56:11.964 --> 00:56:17.603 因此生成了图表 就像Google搜索里内置了一个专属体育分析师 00:56:18.537 --> 00:56:23.275 针对体育和金融问题的复杂数据分析和可视化功能 00:56:23.342 --> 00:56:24.810 将在今年夏天上线 00:56:31.384 --> 00:56:36.122 说了这么多棒球,我都想去现场看比赛了 00:56:36.489 --> 00:56:38.758 比如说,下一场就去看 00:56:39.358 --> 00:56:42.328 但是,购买好票总是让人头大 00:56:42.995 --> 00:56:45.031 这里很高兴地告诉大家 00:56:45.264 --> 00:56:49.935 我们正将Project Mariner的代理式功能 整合到AI模式中 00:56:50.703 --> 00:56:54.740 大家已经看到AI模式正变得更加智能和个性化 00:56:55.241 --> 00:56:58.577 现在可以开始看到Google搜索正变得更加主动 00:56:59.211 --> 00:57:03.449 它能帮我完成任务,但仍由我保持掌控权 00:57:03.983 --> 00:57:04.817 我会告诉它 00:57:05.184 --> 00:57:09.622 “找两张这周六红人队比赛下层看台的平价门票” 00:57:10.689 --> 00:57:12.324 Google搜索启动查询扇出 00:57:12.658 --> 00:57:16.762 同时扫描多个网站,分析上百个潜在的门票选项 00:57:17.296 --> 00:57:22.001 按我提出的所有条件填写表单 不用我去做这些繁琐的工作 00:57:23.102 --> 00:57:24.737 然后将所有信息汇总在一起 00:57:25.037 --> 00:57:29.442 基于搜索结果进行推理,分析实时票价和库存 00:57:29.842 --> 00:57:33.579 然后,像这样,任务就完成了 00:57:34.313 --> 00:57:37.450 它给出了不错的门票选项,还有实用的背景信息 00:57:37.650 --> 00:57:39.618 我可以在此基础上做出明智的决定 00:57:40.686 --> 00:57:43.956 这些座位看起来视野良好,价格合理 00:57:44.790 --> 00:57:46.792 Google搜索已代我完成了大量步骤填写这些信息 00:57:47.126 --> 00:57:49.261 并提供了链接,引导我完成结账 00:57:50.329 --> 00:57:51.464 定下这些门票 00:57:59.505 --> 00:58:01.540 Google搜索很快将能够帮助处理这类任务 00:58:01.607 --> 00:58:06.946 首先覆盖的是活动门票、餐厅预订和本地生活服务预约 00:58:09.248 --> 00:58:12.218 接下来,让我们聊聊多模态技术 00:58:12.818 --> 00:58:15.621 从多模态搜索这个概念还不怎么流行的时候 00:58:15.688 --> 00:58:17.423 我们就一直是这个领域的方向引领者 00:58:17.957 --> 00:58:21.894 回到2017年,我们就是在这个讲台上 宣布推出了Google智能镜头 00:58:22.094 --> 00:58:26.365 此后我们不断优化,让所见即所搜更加便捷 00:58:27.066 --> 00:58:30.336 只需用Google智能镜头拍照或使用圈定即搜 00:58:30.402 --> 00:58:33.105 就能立即获得AI概览 00:58:33.572 --> 00:58:34.773 Sundar刚才提到过 00:58:35.040 --> 00:58:36.976 视觉搜索目前正呈现出燎原之势 00:58:37.042 --> 00:58:39.311 今天我很激动地宣布 00:58:39.378 --> 00:58:43.382 每月有超过15亿用户使用Google智能镜头 00:58:49.155 --> 00:58:52.458 现在,我们正围绕多模态迈出重大的一步 00:58:52.725 --> 00:58:57.329 将Project Astra的实时功能引入AI模式 00:58:57.997 --> 00:59:01.934 想想那些对话交流一下,就会变得超级简单的问题 00:59:02.201 --> 00:59:04.003 而且自己的意图还能得到准确的展示 00:59:04.537 --> 00:59:06.505 比如家庭DIY维修 00:59:06.705 --> 00:59:09.441 棘手的学校作业,或是学习新技能 00:59:10.009 --> 00:59:11.744 我们称之为实时搜索 00:59:11.977 --> 00:59:14.013 现在利用摄像头 00:59:14.180 --> 00:59:17.349 Google搜索能随着用户来回走动 00:59:17.416 --> 00:59:20.085 实时感知他们看到的画面,并提供有用信息 00:59:20.452 --> 00:59:23.122 就像在与Google搜索进行视频通话 00:59:24.123 --> 00:59:27.993 我有三个孩子,他们每分钟能问上百万个问题 00:59:28.360 --> 00:59:30.396 随着暑假临近 00:59:30.563 --> 00:59:34.400 我和团队决定对实时搜索进行终极测试 00:59:34.533 --> 00:59:38.370 帮助我们和孩子们解决些新问题 00:59:39.104 --> 00:59:43.008 上周末,我们与我的家人在家里录制了演示 00:59:43.108 --> 00:59:43.943 一起看下吧 00:59:45.211 --> 00:59:47.746 看起来你们准备做有趣的科学实验 00:59:47.813 --> 00:59:50.282 好的。准备好了吗? 00:59:50.349 --> 00:59:51.517 -好了 -好的 00:59:51.584 --> 00:59:54.053 -你准备好开始实验了吗? -好了 00:59:54.153 --> 00:59:58.090 能猜出我要做什么实验吗?我有双氧水 00:59:58.157 --> 00:59:59.425 洗洁精和酵母 00:59:59.491 --> 01:00:01.493 你可能要做大象牙膏实验 01:00:01.560 --> 01:00:04.029 我知道哪颗草莓可以吃了 01:00:04.096 --> 01:00:06.332 我在想办法让遥控器工作 01:00:06.432 --> 01:00:10.302 看来有人准备种下青豆幼苗 01:00:10.369 --> 01:00:12.371 把压力调到每平方英寸50磅左右 01:00:12.438 --> 01:00:14.039 但不要超过每平方英寸90磅 01:00:14.206 --> 01:00:16.775 我混合了小苏打,接下来做什么? 01:00:16.842 --> 01:00:19.778 看起来有人把手指伸进肉桂水里了 01:00:19.845 --> 01:00:21.981 如何让实验更壮观? 01:00:22.047 --> 01:00:23.983 可以尝试不同的催化剂 01:00:24.049 --> 01:00:26.252 碘化钾是个好选择 01:00:26.619 --> 01:00:28.053 哇!为什么会这样? 01:00:28.254 --> 01:00:30.522 成熟的草莓也会有甜香味 01:00:30.589 --> 01:00:33.359 顶部绿叶应新鲜、有活力 01:00:33.425 --> 01:00:35.227 化学反应进行得很顺利 01:00:35.427 --> 01:00:36.996 -太棒了!谢谢! 01:00:38.731 --> 01:00:39.665 -再来一次可以吗? 01:00:39.732 --> 01:00:45.271 小伙子,怎么洗掉衣服上的草莓渍? 01:00:45.704 --> 01:00:48.340 尝试用一汤匙白醋 01:00:48.407 --> 01:00:50.309 加半茶匙洗衣液 01:01:04.957 --> 01:01:10.896 通过AI模式 我们正在带来全新Google智能购物体验 01:01:11.964 --> 01:01:13.198 前面提到过 01:01:13.599 --> 01:01:18.604 AI模式整合了网络信息和实时数据 01:01:19.004 --> 01:01:23.542 在这种情况下 这意味着既可通过Google图片获得视觉灵感 01:01:24.076 --> 01:01:29.982 又能获得购物信息图谱提供的 海量商品和零售商数据 01:01:30.416 --> 01:01:35.721 其中包含超过500亿条持续更新的商品详情 01:01:36.588 --> 01:01:39.024 我来演示一下这是如何实现的 01:01:39.625 --> 01:01:43.262 我一直在为我的客厅寻找一块新地毯 01:01:43.696 --> 01:01:47.466 因此,我给出提示:我家有一个浅灰色的沙发 01:01:47.599 --> 01:01:50.402 想找一块能让房间看起来更明亮的地毯 01:01:51.403 --> 01:01:53.939 我首先需要的是视觉灵感 01:01:54.907 --> 01:01:59.478 Google搜索根据我的喜好 动态生成了一个可浏览的图片拼接图 01:01:59.878 --> 01:02:03.615 并显示了一些可购买的商品 01:02:05.017 --> 01:02:09.188 其中就有我常用品牌的地毯 以及风格更现代的选项 01:02:09.254 --> 01:02:11.790 因为我经常搜索这类风格的物品 01:02:12.758 --> 01:02:18.831 这些推荐虽好,但大多数在我家恐怕连一天都撑不过 01:02:20.299 --> 01:02:21.400 于是我补充道 01:02:24.136 --> 01:02:28.040 家里有四个活泼的孩子,他们经常带朋友来玩 01:02:29.341 --> 01:02:32.745 Google搜索立刻意识到了那种杂乱的场面 01:02:33.379 --> 01:02:38.450 于是推荐了采用耐用材质的短绒地毯或可水洗地毯 01:02:38.517 --> 01:02:40.486 还附上了一些可直接购买的产品 01:02:41.754 --> 01:02:43.589 不过我对地毯并不专业 01:02:43.655 --> 01:02:47.359 好在Google搜索贴心地指出了需要考虑的事项 01:02:47.493 --> 01:02:50.195 并提供了后续实用建议 01:02:51.230 --> 01:02:56.402 原本需要几周的研究,现在只需几分钟 01:02:57.336 --> 01:03:01.607 可以想象,这种全新的AI模式体验 01:03:01.940 --> 01:03:04.109 对购物需求会有多实用 01:03:04.643 --> 01:03:08.313 说到购物,我需要几件夏天穿的新裙子 01:03:09.148 --> 01:03:11.617 Google搜索给了我一些不错的选择 01:03:12.017 --> 01:03:17.189 但现在我遇到了经典网购难题 01:03:18.056 --> 01:03:22.194 那就是完全不知道这些款式穿在我身上会是什么样 01:03:23.095 --> 01:03:25.931 于是,我们将推出一项新的试穿功能 01:03:26.365 --> 01:03:29.301 帮用户虚拟试穿 01:03:29.435 --> 01:03:33.005 感受款式在身上的效果 01:03:34.039 --> 01:03:35.541 我来实时演示一下 01:03:37.443 --> 01:03:43.415 在一通搜索之后,我找到一条喜欢的蓝裙子 01:03:44.149 --> 01:03:46.685 然后点击这个按钮试穿 01:03:46.752 --> 01:03:51.356 系统提示我上传照片,并引导我进入相册 01:03:51.890 --> 01:03:53.225 我有很多照片 01:03:53.292 --> 01:03:57.362 于是打算选一张清晰的全身照 01:03:57.896 --> 01:03:59.565 处理就开始了 01:04:00.833 --> 01:04:04.369 在等待系统处理的时候 我想介绍下背后的技术原理 01:04:05.270 --> 01:04:08.373 为了打造这种规模化运作的试穿功能 01:04:08.674 --> 01:04:11.443 我们需要深度理解人体结构 01:04:11.844 --> 01:04:13.912 及服装在人体上的呈现效果 01:04:13.979 --> 01:04:17.449 为此,我们构建了一个专门针对时尚行业训练的 01:04:17.649 --> 01:04:20.018 定制图片生成模型 01:04:21.086 --> 01:04:22.287 哇,处理完成了! 01:04:31.129 --> 01:04:34.666 必须说实时演示成功的感觉太棒了 01:04:37.536 --> 01:04:39.271 我们来继续聊背后的原理 01:04:39.471 --> 01:04:42.441 该技术整合了先进的3D形体理解能力 01:04:42.975 --> 01:04:46.912 能更精准地感知形状与深度 01:04:47.079 --> 01:04:49.815 从而更好地呈现人体轮廓 01:04:50.382 --> 01:04:53.151 这种体验完全基于你的照片 01:04:53.218 --> 01:04:57.089 而非预先拍摄的图片或跟你不像的模特 01:04:57.623 --> 01:05:00.993 对于你心仪的服饰 01:05:01.193 --> 01:05:08.000 AI模型能够呈现面料褶皱、延展和垂坠感 01:05:09.334 --> 01:05:13.238 这是一项业内领先的技术,可大规模应用 01:05:13.305 --> 01:05:15.240 借助它,我们能以直观的方式 01:05:15.507 --> 01:05:19.945 呈现数十亿服装产品 在不同体型的人群身上的穿着效果 01:05:20.312 --> 01:05:21.580 大家可以看到 01:05:21.713 --> 01:05:25.384 这个功能让我真实感受到了裙子上身的效果 01:05:26.285 --> 01:05:28.654 选好裙子后 01:05:28.954 --> 01:05:32.257 Google搜索还能通过全新代理式结账功能 01:05:32.624 --> 01:05:36.194 按目标价位帮我购买 01:05:36.461 --> 01:05:38.964 现在回到这件裙子的页面 01:05:39.531 --> 01:05:43.302 我想点击按钮,跟踪价格 01:05:44.002 --> 01:05:45.804 选择尺码后 01:05:46.605 --> 01:05:48.140 设定目标价 格 01:05:48.206 --> 01:05:50.876 我打算设成50美元左右 01:05:53.512 --> 01:05:55.113 跟踪功能马上启动 01:05:55.247 --> 01:05:59.418 Google搜索现在将持续监测销售该裙子的网站 01:05:59.484 --> 01:06:02.154 在价格降到位时通知我 01:06:02.254 --> 01:06:05.691 现在我们退出实时演示 01:06:06.158 --> 01:06:08.527 这里我施展一点魔法 01:06:08.794 --> 01:06:10.963 假设价格现在降到位了 01:06:11.897 --> 01:06:16.401 此时系统会推送类似画面中的通知 01:06:16.768 --> 01:06:17.970 我确认购买后 01:06:18.337 --> 01:06:22.841 结账智能体会将尺码和颜色合适的裙子 添加到购物车中 01:06:23.442 --> 01:06:26.878 我可以选择核对所有支付与配送信息 01:06:27.279 --> 01:06:30.015 或直接授权智能体完成购买 01:06:39.458 --> 01:06:44.696 只需点按一下,Google搜索就能 使用Google Pay安全地代我完成购买 01:06:44.763 --> 01:06:47.432 当然,从灵感激发到最终购买 01:06:48.433 --> 01:06:50.969 整个流程全程由我主导 01:06:51.937 --> 01:06:54.139 我们的全新智能功能 01:06:54.439 --> 01:06:59.077 将最好的购物体验与顶尖AI技术 融合在了Google搜索中 01:06:59.811 --> 01:07:02.948 全新可视化购物及结账功能 01:07:03.015 --> 01:07:04.816 将在未来几个月内逐步推出 01:07:05.017 --> 01:07:09.621 虚拟试穿功能即日起可在实验室版本中体验 01:07:17.295 --> 01:07:18.697 现在把时间交还给Liz 01:07:27.005 --> 01:07:29.808 感谢Vidhya!正如Sundar所说 01:07:29.975 --> 01:07:33.078 本周晚些时候即将迎来重大升级 01:07:33.478 --> 01:07:39.551 Gemini 2.5定制版将集成到AI模式和AI概览中 01:07:40.485 --> 01:07:43.155 这意味着,Google搜索迎来了新篇章 01:07:43.822 --> 01:07:46.491 受益于此,AI概览将会把AI的实用性 01:07:46.658 --> 01:07:49.361 带给核心Google搜索体验的每一个用户 01:07:50.128 --> 01:07:51.430 正如你今天所见 01:07:51.663 --> 01:07:54.766 AI模式是一种彻底重构的AI搜索 01:07:55.400 --> 01:07:58.704 集成了我们最前沿的AI特性和功能 01:07:59.538 --> 01:08:02.674 我们很激动,Google搜索迎来了新篇章 01:08:03.041 --> 01:08:08.046 毫不夸张地说,用户可以真正地问它任何事 01:08:08.814 --> 01:08:11.116 从最简单到最棘手的问题 01:08:11.516 --> 01:08:14.986 最深的研究、个性化购物需求 01:08:15.187 --> 01:08:17.355 希望代劳的琐事 01:08:18.156 --> 01:08:20.325 只需提问,即可获得响应 01:08:23.361 --> 01:08:28.467 好戏开场!我的魅力自然流露 01:08:28.633 --> 01:08:31.703 我的风格如此惊艳,让所有人都为之震撼 01:08:31.770 --> 01:08:34.172 等等!我感觉妙不可言 01:08:35.373 --> 01:08:38.243 来吧,展示你如何舞动 舞动、舞动,释放自我 01:08:38.310 --> 01:08:40.145 我用崭新视角迎接挑战 01:08:40.345 --> 01:08:42.180 将热情点燃,让全场沸腾 01:08:42.247 --> 01:08:44.549 我们将激情调到最高点,就是这样,来吧! 01:08:44.616 --> 01:08:46.118 舞动、舞动,释放精彩 01:08:46.251 --> 01:08:47.652 来吧,尽情展现你的独特魅力 01:08:47.719 --> 01:08:49.688 我还应该做些什么来让它更坚固? 01:08:49.755 --> 01:08:53.325 为了让它更坚固 建议在设计中运用更多三角形结构 01:08:54.926 --> 01:08:56.561 已经足够完美了 01:08:56.695 --> 01:09:00.165 尽情沐浴在聚光灯下,因为你值得闪耀 01:09:00.665 --> 01:09:04.603 F-A-B-U-L-O-U-S,每一天都光芒四射 01:09:04.669 --> 01:09:06.371 想要就来追求,勇敢出击 01:09:06.438 --> 01:09:10.108 无意冒犯,只为精彩舞动 舞动、舞动,释放精彩 01:09:10.275 --> 01:09:14.179 我带来崭新的创意风格 将热情点燃,让全场沸腾 01:09:14.246 --> 01:09:15.881 我们把热情推向极致 01:09:15.947 --> 01:09:18.116 就是这样,舞动、舞动,释放精彩 01:09:18.350 --> 01:09:20.919 来吧,尽情展现你的独特魅力,让我大声喊出 01:09:20.986 --> 01:09:22.954 就是这样,太棒了! 01:09:24.189 --> 01:09:26.224 舞动、舞动,释放精彩 01:09:26.291 --> 01:09:28.326 我带来崭新的创意风格 01:09:28.393 --> 01:09:30.162 将热情点燃,让全场沸腾 01:09:30.228 --> 01:09:34.132 我们把热情推向极致 来吧,舞动、舞动,释放精彩 01:09:34.366 --> 01:09:38.737 来吧,尽情展现你的独特魅力,光芒四射! 01:09:38.804 --> 01:09:40.605 每一天都耀眼夺目 01:09:40.672 --> 01:09:42.340 想要就来追求,勇敢出击 01:09:42.407 --> 01:09:44.276 无意冒犯,只为精彩——等等! 01:09:58.857 --> 01:10:01.560 多年来,人们一直致力于构建 01:10:01.626 --> 01:10:05.730 一种不仅能给出回应,而且具有理解能力的AI助理 01:10:06.398 --> 01:10:09.401 一个不仅仅等待用户提问,而是能够提前预判需求的助理 01:10:09.868 --> 01:10:13.371 一个真正能为用户赋能的通用助理 01:10:14.072 --> 01:10:17.475 今天,我们正朝着这个方向迈出新步伐 01:10:17.709 --> 01:10:20.111 而Gemini应用正是我们实现这一目标的工具 01:10:21.079 --> 01:10:27.986 我们的目标是将Gemini打造成 最个性化、最主动、最强大的AI助理 01:10:28.386 --> 01:10:30.722 而这一切始于个性化 01:10:32.090 --> 01:10:36.061 如果你的AI助理真正属于你 完全为你定制,会怎样? 01:10:36.461 --> 01:10:41.633 它能学习你的特点、你的偏好 你的项目、你的生活场景 01:10:42.100 --> 01:10:44.035 而你始终处于主导地位 01:10:44.636 --> 01:10:46.605 在你授权的情况下 01:10:46.671 --> 01:10:49.474 你可以与它分享你所有的Google信息 01:10:49.708 --> 01:10:51.509 使其成为你的延伸 01:10:52.177 --> 01:10:54.579 我们将这项功能称为“个人使用场景” 01:10:54.946 --> 01:10:59.050 我们已经实现了让用户与Gemini分享搜索记录 01:10:59.184 --> 01:11:02.554 这样它就能知道用户曾经搜索过哪些食谱 01:11:02.654 --> 01:11:04.756 并据此生成这样的回答 01:11:05.624 --> 01:11:07.392 很快,你还可以添加 01:11:07.459 --> 01:11:10.629 你在各种Google服务中的更多个人使用场景 01:11:10.695 --> 01:11:14.065 让Gemini为你提供专属帮助 01:11:14.799 --> 01:11:16.668 如果你选择启用这个功能 01:11:16.735 --> 01:11:18.737 将始终掌控自己的体验 01:11:19.271 --> 01:11:21.273 启用后,你可以随时查看和管理自己的信息 01:11:21.339 --> 01:11:24.142 关联或解除关联各种Google应用 01:11:25.110 --> 01:11:30.148 这种个性化将孕育主动型AI助理 01:11:30.548 --> 01:11:32.183 带来革命性改变 01:11:32.984 --> 01:11:35.654 要知道,目前大多数AI都是被动反应式的 01:11:35.954 --> 01:11:37.756 你问一句,它答一句 01:11:38.189 --> 01:11:40.659 但如果它能预见即将发生的事情 01:11:40.725 --> 01:11:43.795 在你问它之前就帮你做好准备呢? 01:11:44.596 --> 01:11:45.997 假设你是一名学生 01:11:46.164 --> 01:11:48.033 你的物理考试即将来临 01:11:48.099 --> 01:11:49.701 Gemini能提前一周在你的日历上圈出这场考试 01:11:49.768 --> 01:11:52.637 而不是让你手忙脚乱地准备 01:11:53.038 --> 01:11:54.606 它并不只是提醒你而已 01:11:54.906 --> 01:11:57.242 它会为你提供个性化测验 01:11:57.642 --> 01:11:59.277 这些测验整合了你的课堂材料 01:11:59.344 --> 01:12:02.580 教授的讲义,甚至是你手写笔记的照片 01:12:03.148 --> 01:12:04.516 这不仅仅是有用 01:12:04.716 --> 01:12:06.318 这会让人感觉就像魔法一样神奇 01:12:07.118 --> 01:12:08.954 再更进一步 01:12:09.220 --> 01:12:11.122 设想Gemini能够基于你的兴趣 01:12:11.222 --> 01:12:15.193 制作个性化讲解视频 01:12:15.460 --> 01:12:17.629 帮助你更好地理解学习主题 01:12:18.563 --> 01:12:21.433 例如,Gemini了解到我喜欢骑行 01:12:21.599 --> 01:12:26.604 它就会用自行车相关的类比来为我讲解热力学原理 01:12:27.505 --> 01:12:29.407 这就是Gemini的发展方向 01:12:29.607 --> 01:12:31.443 而这一切之所以成为可能 01:12:31.676 --> 01:12:34.813 都要归功于底层模型的强大能力 01:12:35.780 --> 01:12:39.584 上个月,我们发布了最新的Gemini 2.5 Pro模型 01:12:39.718 --> 01:12:42.420 这不只是一次升级,而是一次飞跃 01:12:42.921 --> 01:12:45.623 人们正在用它创造出非凡的成果 01:12:46.057 --> 01:12:47.459 他们不仅仅是进行氛围编程 01:12:47.525 --> 01:12:51.896 而是能在几分钟内创造出 完整的游戏和功能齐全的网站 01:12:52.464 --> 01:12:54.766 他们只需要在脑海中构思,就能让创意变为现实 01:12:55.300 --> 01:12:58.136 而且这很有趣,无论是第一次编写软件 01:12:58.203 --> 01:13:02.374 还是使用Veo模型创建视频,或者生成和编辑图像 01:13:02.540 --> 01:13:04.509 这些技能现在成了每个人都能掌握的“超能力” 01:13:04.709 --> 01:13:10.382 因此,个性化、主动性、强大功能 01:13:10.715 --> 01:13:13.018 这三个方面是AI辅助的前沿领域 01:13:13.084 --> 01:13:14.886 而借助Gemini 2.5 Pro 01:13:14.953 --> 01:13:17.389 我们在这三个方面都取得了重大进展 01:13:18.590 --> 01:13:20.358 接下来,我们来详细了解一下 01:13:20.425 --> 01:13:23.294 这些功能如何在Gemini应用中实现 01:13:23.595 --> 01:13:25.296 我们今天将推出五项新功能 01:13:25.864 --> 01:13:28.133 首先,我们来看看Gemini Live 01:13:28.867 --> 01:13:33.471 许多用户对其自然流畅的交互和对话方式赞不绝口 01:13:33.605 --> 01:13:37.742 它支持150多个国家/地区的45种以上的语言 01:13:38.009 --> 01:13:40.445 它是如此直观、如此富有互动性 01:13:40.612 --> 01:13:42.047 以至于用户与它的对话时长 01:13:42.113 --> 01:13:45.650 是Gemini应用中文本对话的五倍 01:13:46.051 --> 01:13:48.086 从我的个人经验来说 01:13:48.153 --> 01:13:52.090 它非常适合在早上开车上班的路上 交流讨论、梳理思路 01:13:52.957 --> 01:13:54.259 正如Sundar提到的 01:13:54.325 --> 01:13:55.693 Gemini Live现在增加了 01:13:55.760 --> 01:13:59.130 出色的相机和屏幕共享功能 01:13:59.464 --> 01:14:00.598 而从今天起 01:14:00.665 --> 01:14:02.634 你可以在Gemini移动应用中免费使用这些功能 01:14:02.700 --> 01:14:04.369 并同时支持Android和iOS设备 01:14:10.675 --> 01:14:11.776 在接下来的几周内 01:14:11.843 --> 01:14:15.146 你将能够把Gemini Live连接到你喜爱的部分应用中 01:14:15.280 --> 01:14:17.982 如日历、地图、Keep和Tasks 01:14:18.183 --> 01:14:20.618 这样一来,你只需将摄像头对准邀请内容 01:14:20.685 --> 01:14:24.389 就能让Gemini立即将其添加到日历中 01:14:24.956 --> 01:14:29.060 或者,在面对室友手写的潦草购物清单时 01:14:29.294 --> 01:14:33.498 Gemini Live能够将那些潦草的笔记 转换成Google Keep中的整洁列表 01:14:34.165 --> 01:14:38.269 我们为Gemini Live规划了众多令人期待的新功能 01:14:38.536 --> 01:14:42.474 这些功能正在刚才展示的Project Astra中进行原型设计 01:14:42.707 --> 01:14:44.375 当这些功能成熟后 01:14:44.442 --> 01:14:47.245 我们会在Gemini Live中推出,让所有人都能使用 01:14:48.379 --> 01:14:51.449 由于Gemini和Android合作紧密 01:14:51.516 --> 01:14:53.218 这些创新功能中的大部分 01:14:53.284 --> 01:14:56.888 会在整个生态系统中的Android设备上大放异彩 01:14:57.021 --> 01:14:58.189 所以,敬请期待未来的更多更新! 01:14:59.390 --> 01:15:04.229 实时交互确实很棒,但有时候,你需要深入挖掘 01:15:04.496 --> 01:15:06.431 梳理一些复杂的内容 01:15:06.764 --> 01:15:08.867 这就是Deep Research的用武之地 01:15:09.134 --> 01:15:11.903 从今天起,你可以在使用Deep Research时 01:15:11.970 --> 01:15:15.206 上传自己的文件来指导研究智能体 01:15:15.473 --> 01:15:17.976 这也是用户呼声最高的一项功能 01:15:18.476 --> 01:15:22.547 很快,你还能够将Deep Research 与Google云端硬盘和Gmail连接 01:15:22.780 --> 01:15:25.483 以便轻松地从中导入信息 01:15:26.284 --> 01:15:29.354 假如你获得了一份精彩、翔实的研究报告 01:15:29.521 --> 01:15:33.224 比如这份关于彗星在太空中运行轨迹的科学分析 01:15:34.159 --> 01:15:38.496 但要如何才能让它变得易于理解又能吸引读者呢? 01:15:38.563 --> 01:15:40.798 以及如何分享这些精彩内容呢? 01:15:41.566 --> 01:15:43.301 这就是Canvas大显身手的时刻 01:15:43.434 --> 01:15:46.571 Canvas是Gemini提供的交互式协同创作空间 01:15:47.105 --> 01:15:48.540 现在借助Canvas 01:15:48.606 --> 01:15:53.077 只需轻轻一点就能转换报告格式 01:15:53.378 --> 01:15:57.182 你可以将它转换成动态网页、信息图、实用测验 01:15:57.448 --> 01:16:00.084 甚至是支持45种语言的自定义播客 01:16:00.685 --> 01:16:03.454 要想更进一步,你可以在Canvas中通过氛围编程 01:16:03.521 --> 01:16:08.159 创建各种精彩内容,让它按照你的想法不断完善作品 01:16:08.693 --> 01:16:11.229 直到创造出你脑海中的构想 01:16:11.763 --> 01:16:14.399 例如,我们的一位Google同事 01:16:14.465 --> 01:16:18.169 仅仅是描述了自己的构想,然后与Gemini展开协作 01:16:18.336 --> 01:16:21.306 便创造出了这个精确的交互式彗星运行模拟 01:16:22.106 --> 01:16:24.008 现在,你也可以分享这样的应用 01:16:24.075 --> 01:16:27.979 让其他人也能一起查看、修改甚至二次创作 01:16:28.746 --> 01:16:31.649 这种能够转化任何内容的能力 01:16:31.916 --> 01:16:34.452 开创了使用Gemini的全新方式 01:16:35.920 --> 01:16:38.723 今天,我们还将推出Gemini的另一种全新使用方式 01:16:39.257 --> 01:16:41.559 Chrome中的Gemini 01:16:42.994 --> 01:16:48.266 它将成为你在桌面端浏览网页时的AI助理 01:16:48.800 --> 01:16:51.135 最棒的是 01:16:51.202 --> 01:16:55.573 它能直接理解你当前浏览的页面内容 01:16:55.974 --> 01:16:58.509 只要你想到任何问题,都能获得针对性的解答 01:16:59.043 --> 01:17:02.380 我个人最喜欢用它来对比一长串的评价内容 01:17:02.447 --> 01:17:04.082 比如这个露营网站 01:17:04.649 --> 01:17:05.950 从本周开始 01:17:06.017 --> 01:17:08.186 我们将向美国地区的Gemini订阅者 01:17:08.253 --> 01:17:10.054 推出Chrome中的Gemini 01:17:17.528 --> 01:17:20.465 至此,我们已经体验了测验、Gemini Live对话 01:17:20.531 --> 01:17:22.634 学习了彗星和露营地的知识 01:17:22.800 --> 01:17:24.469 现在,我们来创造一些内容 01:17:24.969 --> 01:17:26.371 从今天起 01:17:26.537 --> 01:17:30.608 Google旗下最先进、功能最强大的图像生成模型 01:17:30.942 --> 01:17:32.443 正式在Gemini应用上推出 01:17:33.011 --> 01:17:36.714 它叫做Imagen 4,这是又一次重大飞跃 01:17:41.352 --> 01:17:47.125 生成的图像更加饱满,色彩更加细腻,细节更为精细 01:17:47.492 --> 01:17:49.494 例如各种场景中的阴影层次 01:17:49.560 --> 01:17:52.163 以及照片中栩栩如生的水滴效果 01:17:52.530 --> 01:17:55.066 经过长期的研究 01:17:55.133 --> 01:17:57.368 我可以肯定地说,这些模型生成的图像质量 01:17:57.602 --> 01:18:02.140 已经实现了从“不错”到“出色”再到“惊艳”的飞跃 01:18:02.807 --> 01:18:06.944 Imagen 4在文字和排版方面也有很大提升 01:18:07.378 --> 01:18:10.481 之前的模型虽然能生成不错的图像 01:18:10.682 --> 01:18:14.085 但在图像中加入文字时总会出现瑕疵 01:18:14.519 --> 01:18:18.489 举个例子,假设我想创建一张音乐节海报 01:18:18.723 --> 01:18:20.958 将那只Chrome恐龙作为主角 01:18:21.292 --> 01:18:24.929 Imagen 4不仅能够准确呈现文本内容和正确拼写 01:18:24.996 --> 01:18:27.598 它还能做出富有创意的设计决策 01:18:27.765 --> 01:18:30.368 比如在字体中融入恐龙骨骼元素 01:18:30.435 --> 01:18:34.272 调整文字间距、字号大小和整体布局 01:18:34.339 --> 01:18:35.773 创造出这张很棒的海报 01:18:36.507 --> 01:18:41.045 总之,图像质量更高、生成速度更快、文字效果更好 01:18:41.479 --> 01:18:45.817 这样一来,你就可以制作海报、派对邀请函等内容 01:18:46.617 --> 01:18:49.087 借助原生图像生成功能 01:18:49.153 --> 01:18:52.056 你还可以直接在应用中轻松编辑这些图像 01:18:53.024 --> 01:18:56.961 我们还开发了一个快速版本的Imagen 4 01:18:57.395 --> 01:18:59.364 我们非常期待你能亲自体验它 01:18:59.430 --> 01:19:03.568 它的速度是我们先前模型的十倍 01:19:03.634 --> 01:19:06.237 让你能够快速尝试和完善各种创意 01:19:07.338 --> 01:19:09.407 最后,我想向大家展示一项新内容 01:19:09.907 --> 01:19:11.275 这些生成的图像的确很棒 01:19:11.609 --> 01:19:16.047 但要讲述一个完整的故事有时需要动作和声音的配合 01:19:16.748 --> 01:19:19.417 去年12月,我们发布的Veo 2模型 01:19:19.484 --> 01:19:22.954 重新定义了整个行业的视频生成标准 01:19:23.354 --> 01:19:26.791 如果你注意到了Demis昨天发布的煎炒洋葱视频 01:19:26.991 --> 01:19:28.893 就能猜到我们还有更多新鲜出炉的惊喜 01:19:29.761 --> 01:19:34.265 今天,我很高兴地宣布推出我们最先进的模型 01:19:34.665 --> 01:19:35.800 Veo 3 01:19:42.940 --> 01:19:46.177 与今天发布的其他内容一样 01:19:46.244 --> 01:19:48.045 它从今天起就已开放使用 01:19:52.984 --> 01:19:55.420 视觉质量更加出色 01:19:55.486 --> 01:19:58.689 对物理规律的理解更加强大 01:19:58.890 --> 01:20:04.562 但这次质的飞跃在于,Veo 3实现了原生音频生成 01:20:05.196 --> 01:20:11.602 这意味着Veo 3能够生成音效 01:20:12.003 --> 01:20:14.806 背景音,甚至对话 01:20:15.640 --> 01:20:18.776 只需输入提示,你的角色就会开口说话 01:20:19.644 --> 01:20:23.748 这是森林中一只睿智的老猫头鹰与一只紧张的小獾 01:20:24.148 --> 01:20:25.016 敬请聆听 01:20:34.992 --> 01:20:37.495 他们今天留下了一个球 01:20:37.562 --> 01:20:39.630 它能弹得比我跳得还高! 01:20:40.631 --> 01:20:42.733 这是什么神奇的魔法? 01:20:56.347 --> 01:21:00.017 很酷吧?Veo不仅添加了森林的声音 01:21:00.084 --> 01:21:01.419 还添加了对话 01:21:01.919 --> 01:21:07.758 内容创作正在进入结合音频和视频生成的新时代 01:21:07.825 --> 01:21:09.660 无论是画面还是声音都栩栩如生 01:21:10.027 --> 01:21:12.263 让人感觉身临其境 01:21:12.330 --> 01:21:16.434 在这个视频中,就像真的坐在这艘船上 01:21:18.269 --> 01:21:20.004 这片海洋,是一股无与伦比的力量 01:21:20.071 --> 01:21:22.240 一种未被驯服的野性力量 01:21:22.940 --> 01:21:24.342 她指挥着你的每一次划桨 01:21:24.642 --> 01:21:26.177 伴随着每一道破浪的闪光 01:21:33.784 --> 01:21:37.321 如此逼真的画面、丰富的情感表达 01:21:37.388 --> 01:21:41.058 匹配的口型,以及背景中的海洋 01:21:41.392 --> 01:21:43.861 作为一款强大的创意工具 01:21:43.928 --> 01:21:47.031 Veo的发展速度令人叹为观止 01:21:47.632 --> 01:21:50.535 我们一直在与电影行业密切合作 01:21:50.601 --> 01:21:53.604 共同探索Veo的可能性,直至做好发布的准备 01:21:53.671 --> 01:21:55.940 稍后也将为大家分享更多具体内容 01:21:56.807 --> 01:21:58.943 以上就是Gemini的更新内容 01:21:59.577 --> 01:22:03.014 从今天起,Gemini Live的各项功能 01:22:03.147 --> 01:22:05.583 在Android和iOS上完全免费提供 01:22:06.150 --> 01:22:09.787 Deep Research和Canvas迎来了迄今为止最大的更新 01:22:10.454 --> 01:22:11.756 正如之前介绍的 01:22:11.822 --> 01:22:14.725 支持多步骤操作的Agent Mode也即将推出 01:22:15.226 --> 01:22:18.696 我们推出了Chrome中的Gemini,帮助你浏览网页 01:22:18.996 --> 01:22:21.232 你可以使用全新的Imagen 4和Veo 3模型 01:22:21.432 --> 01:22:25.937 创建令人惊叹的图像和音画结合的视频 01:22:26.470 --> 01:22:29.073 所有这些功能都将在Gemini应用中整合 01:22:29.140 --> 01:22:35.479 助力我们打造最个性化、最主动、最强大的AI助理 01:22:36.113 --> 01:22:38.182 接下来,Jason将为大家详细介绍 01:22:38.249 --> 01:22:41.652 这些生成模型如何为创意表达开启全新可能 01:22:41.752 --> 01:22:42.753 有请Jason 01:22:53.297 --> 01:22:54.198 谢谢,Josh 01:22:55.399 --> 01:22:59.203 无论你是创作者、音乐人还是电影制作人 01:22:59.637 --> 01:23:02.707 生成式媒体技术正在拓展创意表达的可能性 01:23:03.474 --> 01:23:06.777 通过与艺术家和创作者一直以来的密切合作 01:23:06.911 --> 01:23:11.082 我们开发了能够赋能其创作过程的技术 01:23:11.749 --> 01:23:16.220 例如,我们与音乐人合作开发了Music AI Sandbox 01:23:16.487 --> 01:23:18.222 这是一款专为音乐专业人士设计的工具 01:23:18.289 --> 01:23:19.824 让他们能够在创作过程中 01:23:19.890 --> 01:23:22.693 探索我们的音乐生成模型Lyria所带来的可能性 01:23:23.494 --> 01:23:27.064 例如这段视频记录了音乐传奇人物、格莱美获奖歌手 01:23:27.131 --> 01:23:28.866 作曲家Shankar Mahadevan 01:23:28.933 --> 01:23:31.969 使用Music AI Sandbox和Lyria的场景 01:23:33.537 --> 01:23:37.908 我是Shankar Mahadevan 一名音乐作曲家、歌手、制作人 01:23:37.975 --> 01:23:39.443 大家都说我笑口常开 01:23:42.213 --> 01:23:43.781 使用Sandbox的体验非常棒 01:23:44.248 --> 01:23:48.219 我们输入需求后,它生成了一段背景音乐 01:23:48.686 --> 01:23:51.355 我们在此基础上创作出了完整的歌曲 01:23:55.660 --> 01:23:58.295 对一名音乐人而言,这是一个极具启发性的工具 01:23:58.829 --> 01:24:01.432 就像你打开一扇门,发现了另一个空间 01:24:01.499 --> 01:24:04.135 然后再开一扇门,发现更多可能性 01:24:04.201 --> 01:24:06.070 AI就是这样,不断开启新视野 01:24:32.329 --> 01:24:33.164 太棒了 01:24:37.435 --> 01:24:39.303 我们最近推出的Lyria 2模型 01:24:39.370 --> 01:24:42.740 可以生成高保真音乐和专业级音频 01:24:43.307 --> 01:24:44.809 它生成的音乐旋律优美动听 01:24:44.875 --> 01:24:47.445 还能编入独唱和合唱人声部分 01:24:48.212 --> 01:24:51.015 它能够创作出富有表现力且层次丰富的内容 例如接下来的这段音乐 01:25:08.499 --> 01:25:10.768 Lyria 2从今天起正式向企业用户 01:25:10.835 --> 01:25:13.170 和YouTube创作者和专业音乐人开放 01:25:14.405 --> 01:25:18.476 这种协作理念不仅体现在我们构建的产品中 也体现在我们的构建方式上 01:25:19.310 --> 01:25:21.278 目前,无论是个人还是组织 01:25:21.345 --> 01:25:24.515 都难以有效识别AI生成的图像 01:25:25.382 --> 01:25:30.821 随着技术的进步和生成的音乐 音频、图像、视频日益逼真 01:25:30.888 --> 01:25:32.623 这一情况只会更加泛滥 01:25:33.424 --> 01:25:36.160 因此,我们在这一领域持续创新 01:25:37.328 --> 01:25:39.597 两年前,我们开创了SynthID技术 01:25:39.764 --> 01:25:42.967 它能在生成的媒体内容中嵌入不可见的水印 01:25:43.534 --> 01:25:48.072 到目前为止,已有超过100亿生成的内容带有水印 01:25:49.006 --> 01:25:50.975 另外,我们也在进一步扩大合作伙伴关系 01:25:51.041 --> 01:25:54.078 确保更多内容带有SynthID水印 01:25:54.145 --> 01:25:56.647 同时让更多组织能够检测到水印 01:25:57.448 --> 01:26:01.118 最后,我们还简化了水印的检测机制 01:26:01.485 --> 01:26:03.821 我们新推出的SynthID检测器能够识别 01:26:03.888 --> 01:26:08.225 图像、音频、文本或视频是否含有SynthID水印 01:26:08.292 --> 01:26:10.928 即使只是部分内容被标记也能识别 01:26:12.062 --> 01:26:14.765 这一功能从今天起开始向早期测试员逐步开放 01:26:21.338 --> 01:26:24.108 凭借广泛的合作,我们还开始探索Veo 01:26:24.175 --> 01:26:25.476 在电影制作领域的应用 01:26:26.210 --> 01:26:29.947 最近,我们与极富远见的导演Darren Aronofsky 01:26:30.014 --> 01:26:32.716 及其创新故事创作公司Primordial Soup达成了合作 01:26:32.983 --> 01:26:35.920 共同探索如何塑造Veo的能力以满足创作需求 01:26:35.986 --> 01:26:38.823 让艺术家引领技术创新方向 01:26:39.623 --> 01:26:42.993 通过这一合作,我们将世界顶尖的视频生成模型 01:26:43.060 --> 01:26:46.530 交付给最杰出的电影制作人,推动技术突破 01:26:46.597 --> 01:26:49.900 打造更具创意性和情感表现力的创作工具 01:26:50.768 --> 01:26:53.170 在计划制作的三部短片中 01:26:53.237 --> 01:26:56.240 第一部作品是导演Eliza McNitt的《ANCESTRA》 01:26:56.674 --> 01:26:57.641 现在就让我们来一睹为快 01:27:00.277 --> 01:27:03.280 电影本质上是一种深刻的人类行为 01:27:03.347 --> 01:27:05.449 它能将人们与彼此的故事联系起来 01:27:06.083 --> 01:27:10.154 它能够将我们从自己的经历中抽离出来 01:27:10.221 --> 01:27:12.122 带我们踏上另一段旅程 01:27:12.857 --> 01:27:14.692 我认为这一点永远不会改变 01:27:15.292 --> 01:27:19.563 这个故事虽然跨越整个宇宙的历史长河 01:27:20.197 --> 01:27:22.299 但本质上讲述的是一位母亲的经历 01:27:22.366 --> 01:27:25.870 以及当她那有心脏缺陷的孩子刚出生时所发生的一切 01:27:26.637 --> 01:27:29.373 我们拍摄了演员真实的情感表演 01:27:29.440 --> 01:27:34.111 但同时也通过AI生成了 那些用传统方式根本无法拍摄的画面 01:27:35.446 --> 01:27:38.515 我想要婴儿紧握着母亲的手指那样的画面 01:27:39.016 --> 01:27:40.451 展现他们之间那种幸福的时刻 01:27:40.517 --> 01:27:41.352 是的 01:27:42.653 --> 01:27:45.022 Veo是一个生成视频模型 01:27:45.089 --> 01:27:47.091 但在我看来,它更像是一个全新的镜头 01:27:47.157 --> 01:27:49.493 让我能够以不同方式想象身边的一切 01:27:50.561 --> 01:27:52.429 探索这些模型的优势和局限 01:27:52.496 --> 01:27:58.869 并尝试将它们打造成创作工具,这个过程非常有趣 01:28:00.704 --> 01:28:04.642 老实说,我从未想过要讲述我出生那天的故事 01:28:04.909 --> 01:28:06.310 但现在我们拍出来了 01:28:12.850 --> 01:28:14.118 这原本只是一次普通的产检而已 01:28:14.184 --> 01:28:15.486 紧急剖腹产! 01:28:16.320 --> 01:28:17.421 胎儿有危险 01:28:17.488 --> 01:28:18.389 我们这里需要帮助! 01:28:18.455 --> 01:28:19.290 我们必须立刻手术 01:28:19.356 --> 01:28:20.691 我的孩子能保住吗? 01:28:20.758 --> 01:28:22.159 我们会尽一切努力 01:28:22.226 --> 01:28:23.093 那我也会平安无事吗? 01:28:23.594 --> 01:28:26.230 来自在你之前存在的每一个生命 01:28:27.531 --> 01:28:32.503 来自为你的诞生而消亡的每一颗星辰 01:28:50.120 --> 01:28:51.188 真是令人惊叹的杰作 01:28:58.329 --> 01:29:00.731 Eliza巧妙地将真人实景表演 01:29:00.931 --> 01:29:05.669 与Veo生成的内容,包括微观世界、宇宙景象 01:29:05.936 --> 01:29:08.038 以及她自己作为新生儿的画面融为一体 01:29:08.872 --> 01:29:12.443 这种方法开辟了全新的叙事可能性 01:29:12.509 --> 01:29:14.845 使Eliza能够将宏大的电影视觉效果 01:29:14.912 --> 01:29:17.715 和深厚的情感表达带入一个极为个人化的故事 01:29:18.816 --> 01:29:21.752 这次合作也帮助我们塑造了Veo的功能 01:29:22.052 --> 01:29:24.755 以满足像Eliza这样的故事创作者的需求 01:29:25.322 --> 01:29:27.658 我们为电影制作人开发了多项新功能 01:29:27.725 --> 01:29:29.226 所以当你创作视频时 01:29:29.293 --> 01:29:30.961 无论你提供什么创作元素 01:29:31.161 --> 01:29:35.332 角色、场景还是艺术风格 Veo都能确保它们在整个创作过程中保持一致性 01:29:36.033 --> 01:29:37.768 你还可以像真正的导演一样指挥Veo 01:29:37.835 --> 01:29:39.837 提供精确的相机指令 01:29:39.903 --> 01:29:42.072 让它沿着特定路径拍摄 01:29:43.207 --> 01:29:45.209 这些功能将帮助电影制作人 01:29:45.275 --> 01:29:48.045 用Veo顺畅地表达自己的创意 01:29:49.013 --> 01:29:51.115 而我们的创新并未止步于此 01:29:51.782 --> 01:29:52.750 下面请Josh重返舞台 01:29:52.816 --> 01:29:53.917 为大家介绍更多内容 01:30:02.059 --> 01:30:03.027 谢谢,Jason 01:30:03.827 --> 01:30:06.296 在与创意社区合作的基础上 01:30:06.463 --> 01:30:10.734 我们为创作者打造了一款全新的AI电影制作工具 01:30:11.301 --> 01:30:15.639 它结合了Veo、Imagen和Gemini三大技术的精髓 01:30:16.140 --> 01:30:19.977 一款源自创作者、为了创作者打造的工具 01:30:20.711 --> 01:30:23.580 它的设计灵感源自创作者那种 01:30:23.680 --> 01:30:26.884 完全沉浸在创作中思如泉涌的奇妙境界 01:30:27.518 --> 01:30:30.754 我们将这款工具命名为Flow,从今天起正式推出 01:30:31.455 --> 01:30:32.723 我来给大家展示一下它的运作方式 01:30:35.192 --> 01:30:37.294 我们来看看我正在创作的一个项目 01:30:37.494 --> 01:30:39.430 故事的主角是一位老爷爷 01:30:39.496 --> 01:30:42.699 他正在一位鸟类朋友的帮助下制造一辆会飞的汽车 01:30:43.233 --> 01:30:44.501 这些是我的素材 01:30:44.668 --> 01:30:46.670 这位老人和他的汽车 01:30:47.304 --> 01:30:48.405 借助简便的界面 01:30:48.472 --> 01:30:50.441 你可以轻松将自己的图像上传到工具中 01:30:50.641 --> 01:30:53.343 或者,你可以使用内置的Imagen 01:30:53.410 --> 01:30:54.745 即时生成所需的图像 01:30:55.412 --> 01:30:59.883 只需简单描述就能生成一张定制金色变速杆图像 01:31:00.517 --> 01:31:01.985 看,相当不错 01:31:02.886 --> 01:31:06.790 接下来,你可以开始把所有这些素材组合起来 01:31:07.324 --> 01:31:08.792 只需输入一条提示 01:31:08.859 --> 01:31:12.796 你可以描述想要的效果,包括非常精确的镜头控制 01:31:13.430 --> 01:31:16.100 Flow能将所有素材安排到恰当的位置 01:31:16.500 --> 01:31:18.869 我可以在场景构建器中继续进行调整迭代 01:31:19.403 --> 01:31:21.105 接下来是最精彩的部分 01:31:21.605 --> 01:31:23.974 如果我想继续拍摄场景的下一个镜头 01:31:24.308 --> 01:31:27.578 只要点一下这个加号,新镜头就自动生成了 01:31:28.145 --> 01:31:30.714 我只需用文字描述接下来想要呈现的场景内容 01:31:30.981 --> 01:31:33.650 比如在后座加上一只3米高的鸡 01:31:34.084 --> 01:31:35.552 Flow将完成剩下的工作 01:31:36.153 --> 01:31:39.289 角色将保持一致,场景也将保持一致 01:31:39.456 --> 01:31:40.591 整个过程行云流水 01:31:40.791 --> 01:31:44.261 如果对有些地方不太满意,也没关系 01:31:44.495 --> 01:31:47.464 你可以像使用其他视频剪辑工具一样 01:31:47.631 --> 01:31:50.100 随时返回剪掉那些不合适的片段 01:31:50.601 --> 01:31:53.604 但Flow还支持反向操作 01:31:53.804 --> 01:31:56.340 你还可以用它来延长素材片段 01:31:56.974 --> 01:32:00.210 这样,我就得到了我一直追求的理想收尾镜头 01:32:01.078 --> 01:32:04.481 所有片段制作完毕后,我可以把它们下载下来 01:32:04.681 --> 01:32:07.451 然后把它们导入我常用的视频剪辑软件 01:32:07.518 --> 01:32:09.486 再加上一小段Lyria生成的配乐 01:32:09.686 --> 01:32:13.924 就这样,老爷爷终于开上了自己的“飞车” 01:32:37.214 --> 01:32:38.782 简直太棒了 01:32:38.982 --> 01:32:42.686 接下来,让我们听听几位新锐AI电影制作人的心声 01:32:42.753 --> 01:32:45.355 他们在Flow的开发过程中为我们提供了宝贵意见 01:32:45.422 --> 01:32:47.658 他们分享了自己使用Flow的感受 01:32:47.824 --> 01:32:49.593 以及他们如何让这一工具变得更出色 01:32:49.826 --> 01:32:50.794 一起来看看吧 01:32:54.331 --> 01:32:56.466 我不知道自己是否走在正确的道路上 01:32:56.533 --> 01:32:58.535 但一直在努力探索 01:32:58.802 --> 01:33:02.706 我不断探索,不断质疑 01:33:02.773 --> 01:33:05.275 直到某一刻,有些东西悄然改变 01:33:05.676 --> 01:33:08.412 我不再纠结于正确与否,只是专注去做 01:33:10.948 --> 01:33:16.453 然后,那些散落的拼图开始慢慢归位 01:33:20.524 --> 01:33:22.759 我的思维变得非常清晰 01:33:23.460 --> 01:33:27.798 无数种可能在我脑海中闪现 01:33:28.131 --> 01:33:30.801 就像穿越时空般奇妙 01:33:30.867 --> 01:33:32.769 当我以上帝视角审视身为创作者的自己 01:33:32.836 --> 01:33:34.771 以及我所创作的不同世界中的角色 01:33:34.838 --> 01:33:37.074 我感觉这些角色仿佛有着自己的生命 01:33:37.140 --> 01:33:40.244 尽管我知道故事情节的走向由我掌控 01:33:40.911 --> 01:33:42.746 似乎在某个时刻 01:33:42.813 --> 01:33:45.082 这些故事开始沿着自己的脉络逐渐展开 01:33:45.849 --> 01:33:50.420 你知道,你的故事可以有无数种结局 01:33:52.256 --> 01:33:56.226 用Flow创作的作品不是简单的素材堆砌 01:33:57.094 --> 01:34:00.631 它就像花园里的花,肆意绽放 01:34:01.698 --> 01:34:06.203 它自然生长,充满生命力,浑然天成 01:34:07.304 --> 01:34:08.905 我没有刻意去安排什么 01:34:08.972 --> 01:34:12.142 那些画面只是在等着我找到它们 01:34:12.376 --> 01:34:15.245 当我有这种感觉时,我就知道自己找对了方向 01:34:35.632 --> 01:34:38.235 真是叹为观止,听到这些电影制作人讲述 01:34:38.302 --> 01:34:40.404 如何将不可思议的想象变为现实 01:34:40.904 --> 01:34:42.572 我们希望通过我们的工具 01:34:42.639 --> 01:34:46.310 让大家都能享受这种自由构建、挥洒创意的感觉 01:34:46.977 --> 01:34:48.612 所以我很激动地宣布 01:34:48.679 --> 01:34:52.316 今天,我们将升级Google的两大AI订阅方案 01:34:52.649 --> 01:34:54.718 我们将推出Google AI Pro 01:34:54.785 --> 01:34:57.621 以及全新的Google AI Ultra 01:34:58.655 --> 01:35:01.892 我们将面向全球推出Google AI Pro 01:35:01.992 --> 01:35:03.760 相比Google AI的免费版本 01:35:03.827 --> 01:35:05.729 你将拥有全套Google AI产品的使用权 01:35:05.796 --> 01:35:08.665 并获享更高的用量限额和特殊功能 01:35:09.066 --> 01:35:11.835 其中包括Gemini应用的Pro版本 01:35:11.935 --> 01:35:14.104 也就是先前的Gemini Advanced 01:35:15.205 --> 01:35:17.174 然后让我来介绍一下Google AI Ultra 01:35:17.641 --> 01:35:20.644 它专门面向行业开拓者和先行者 01:35:20.877 --> 01:35:24.514 以及Google前沿AI技术的尝鲜者 01:35:24.915 --> 01:35:27.884 该方案将为用户提供最高用量限额 01:35:28.118 --> 01:35:29.920 订阅者还可以抢先体验 01:35:29.986 --> 01:35:32.289 Google发布的各项新产品和功能 01:35:32.723 --> 01:35:34.891 Google AI Ultra今天仅面向美国推出 01:35:35.092 --> 01:35:37.461 并将很快推广至全球 01:35:37.928 --> 01:35:39.963 你可以把这个Ultra方案当成是 01:35:40.030 --> 01:35:42.265 你专属的Google AI VIP通行证 01:35:43.066 --> 01:35:44.735 订阅Google AI Ultra 01:35:44.968 --> 01:35:46.703 你就能获得超高用量限额 01:35:46.803 --> 01:35:48.605 等到2.5 Pro Deep Think模式推出后 01:35:48.672 --> 01:35:51.775 还可以在Gemini应用中使用这种模式 01:35:52.476 --> 01:35:57.047 你还可以抢先体验我们今天发布的Veo 3和Flow 01:35:57.647 --> 01:35:58.849 该方案还附赠 01:35:58.915 --> 01:36:01.685 YouTube Premium会员和海量存储空间 01:36:02.386 --> 01:36:05.622 我们热切期待看到,借助这些全新订阅方案 01:36:05.689 --> 01:36:08.625 你将构建、创造和挖掘出怎样的精彩 01:36:09.259 --> 01:36:11.428 下面,让我们一同展望未来 01:36:11.762 --> 01:36:15.031 探索我们将如何使用AI与现实世界互动 01:36:15.298 --> 01:36:17.134 有请Shahram 01:36:31.415 --> 01:36:32.482 大家好 01:36:32.716 --> 01:36:37.020 此刻,Android平台正在发生许多激动人心的变化 01:36:37.721 --> 01:36:40.924 在这个平台中,你将率先预见未来 01:36:41.758 --> 01:36:44.327 在上周的Android Show上 01:36:44.528 --> 01:36:46.830 我们公布了Android 16和Wear OS 6 01:36:47.063 --> 01:36:51.234 全新的大胆设计和重大更新 01:36:52.235 --> 01:36:56.139 当然,Android也是体验Google AI的绝佳平台 01:36:57.007 --> 01:36:59.843 你今天看到的许多Gemini突破性创新 01:36:59.910 --> 01:37:02.179 都会在不久之后登陆Android 01:37:02.813 --> 01:37:06.483 你现已可以通过电源按钮立即访问Gemini 01:37:06.883 --> 01:37:10.120 它能理解你的意图和上下文,并随时为你提供帮助 01:37:11.188 --> 01:37:13.590 Android不止是手机系统 01:37:14.090 --> 01:37:16.860 更是一个完整的设备生态系统 01:37:17.427 --> 01:37:18.795 在接下来的几个月 01:37:19.129 --> 01:37:23.600 我们将把Gemini引入你的手表、汽车仪表盘 01:37:24.034 --> 01:37:25.402 甚至电视 01:37:26.136 --> 01:37:27.471 无论你身在何处 01:37:27.571 --> 01:37:31.608 都会有一位有用的AI助理伴你左右,让你的生活更轻松 01:37:32.609 --> 01:37:35.212 那么,要不要尝试一些新兴的设备形态 01:37:35.312 --> 01:37:39.783 让我们以全新方式体验AI助理? 01:37:40.317 --> 01:37:43.920 这正是我们打造Android XR的原因 01:37:51.127 --> 01:37:55.165 它是首个在Gemini时代构建的Android平台 01:37:55.398 --> 01:37:59.870 支持不同应用场景的各种设备 01:38:00.270 --> 01:38:04.474 从头戴设备到智能眼镜,以及其他各种智能设备 01:38:05.242 --> 01:38:08.278 我们认为,没有哪种扩展现实设备是万能的 01:38:08.445 --> 01:38:11.314 你在一天当中会用到不同的设备 01:38:11.948 --> 01:38:17.220 比如,在看电影、玩游戏或处理工作时 01:38:17.387 --> 01:38:19.656 你想要的是沉浸式头戴设备 01:38:20.357 --> 01:38:24.094 但外出时,你会想要一副轻便的智能眼镜 01:38:24.160 --> 01:38:27.898 让你不用掏出手机就能获得及时的信息 01:38:28.999 --> 01:38:32.769 我们携手三星共同打造了Android XR 01:38:33.069 --> 01:38:36.106 并与高通合作,针对骁龙处理器对其进行了优化 01:38:37.007 --> 01:38:40.510 自从去年Android XR开发者预览版发布以来 01:38:40.911 --> 01:38:43.780 已有数百名开发者在为该平台构建应用 01:38:44.481 --> 01:38:46.783 我们也在为Android XR重新构建 01:38:46.850 --> 01:38:48.952 你喜爱的各种Google应用 01:38:49.519 --> 01:38:51.254 由于它是Android系统 01:38:51.488 --> 01:38:54.257 所以你的手机和平板应用也与它兼容 01:38:55.091 --> 01:38:57.160 今天,我想跟大家分享 01:38:57.227 --> 01:39:02.866 Gemini如何颠覆头戴设备和智能眼镜用户的体验 01:39:03.700 --> 01:39:05.201 在这些设备上 01:39:05.268 --> 01:39:09.839 AI助理会以更丰富的方式理解你的上下文和意图 01:39:10.040 --> 01:39:11.841 全天候为你提供支持 01:39:12.776 --> 01:39:15.278 让我们从头戴设备中的Gemini说起 01:39:15.812 --> 01:39:21.184 这是三星的Project Moohan,首款Android XR设备 01:39:28.024 --> 01:39:30.594 Moohan提供无限延展的屏幕空间 01:39:30.660 --> 01:39:33.797 让你在Gemini的陪伴下尽情探索各种应用 01:39:34.230 --> 01:39:36.066 Android XR还集成了Google地图 01:39:36.232 --> 01:39:38.468 只要告诉Gemini你想去哪里 01:39:38.668 --> 01:39:41.605 它就能带你“瞬间传送”到世界任何角落 01:39:42.372 --> 01:39:46.476 你可以和AI助理谈论你看到的一切 01:39:46.776 --> 01:39:50.947 并让它调出你想要探索的视频和网站 01:39:52.082 --> 01:39:56.386 我们都希望能买到自己支持球队的季票 01:39:56.886 --> 01:40:00.991 想象一下,当你使用Moohan在MLB应用上观看球赛 01:40:01.057 --> 01:40:02.425 你将仿佛置身现场 01:40:02.993 --> 01:40:06.496 还可以一边观赛一边和Gemini讨论球员和比赛数据 01:40:07.664 --> 01:40:12.602 三星的Project Moohan将于今年晚些时候发售 01:40:13.503 --> 01:40:16.640 我们迫切期待你们能亲身体验这款设备 01:40:17.774 --> 01:40:21.711 现在,让我们把注意力转向智能眼镜 01:40:22.479 --> 01:40:26.750 众所周知,我们在智能眼镜领域耕耘超过十年 01:40:26.916 --> 01:40:28.485 从未停下脚步 01:40:29.285 --> 01:40:34.290 搭载Android XR的智能眼镜满载先进科技 01:40:34.357 --> 01:40:37.160 但无比轻盈,适合全天佩戴 01:40:38.061 --> 01:40:39.929 眼镜内置镜头和麦克风 01:40:40.263 --> 01:40:43.833 让Gemini能够“看到”和“听到”这个世界 01:40:44.434 --> 01:40:48.705 扬声器则让你可以与AI对话、播放音乐或接听电话 01:40:49.239 --> 01:40:51.241 你也可以通过镜片内置显示屏 01:40:51.574 --> 01:40:55.445 以私密的方式在需要时查看有用的信息 01:40:56.579 --> 01:40:58.448 这款眼镜可以与你的手机连接 01:40:58.548 --> 01:41:01.951 让你不用动手也能访问应用 01:41:02.986 --> 01:41:06.923 这一切都让智能眼镜成为天然适合AI的设备形态 01:41:07.357 --> 01:41:10.627 让Gemini的强大功能随时伴你左右 01:41:11.528 --> 01:41:13.630 所以,与摘下眼镜才能变身的超人不同 01:41:13.863 --> 01:41:17.067 戴上这款智能眼镜,你就能获得“超能力” 01:41:18.935 --> 01:41:23.306 好了,谁想看Android XR眼镜的最新演示? 01:41:28.912 --> 01:41:34.350 让我们看看它在最忙乱的环境中表现如何 01:41:34.617 --> 01:41:36.219 比如…I/O大会的后台 01:41:37.020 --> 01:41:40.423 我们的“超级女侠”Nishtha就在后台 01:41:40.523 --> 01:41:42.625 她将向我们展示这款眼镜在真实环境中的使用效果 01:41:43.293 --> 01:41:45.895 我现在就给她发个消息,然后我们马上开始 01:41:49.899 --> 01:41:51.101 大家好! 01:41:51.568 --> 01:41:54.170 现在,你们应该能在大屏幕上看到 01:41:54.237 --> 01:41:57.140 我通过Android XR智能眼镜镜片看到的一切 01:41:57.373 --> 01:41:59.342 比如这杯美味的咖啡 01:41:59.576 --> 01:42:01.478 还有Shahram刚刚发来的这条消息 01:42:01.544 --> 01:42:02.746 让我们看看他说了什么 01:42:04.814 --> 01:42:06.950 很好,现在就是见证奇迹的时刻 01:42:07.016 --> 01:42:09.452 我要启动Gemini,开始演示 01:42:10.854 --> 01:42:12.956 给Shahram发一条消息,告诉他我已经开始了 01:42:13.022 --> 01:42:15.158 然后把我的通知静音 01:42:17.694 --> 01:42:19.629 好的,我已经给他发了消息 01:42:19.763 --> 01:42:21.931 并且把你所有的通知静音了 01:42:22.265 --> 01:42:23.399 很好 01:42:24.367 --> 01:42:25.201 嘿,Nishtha! 01:42:25.268 --> 01:42:26.136 嘿,Dieter! 01:42:26.202 --> 01:42:29.906 你的灯亮着,看来我们已经开始直播了? 01:42:29.973 --> 01:42:32.542 是的,我们已经和I/O大会的工作人员连上线了 01:42:32.709 --> 01:42:35.578 大家好。从这个视角看I/O大会,真是太棒了! 01:42:35.645 --> 01:42:36.880 Nishtha,你答应过我 01:42:36.946 --> 01:42:40.283 只要我来帮忙,就送我一副Android XR眼镜 01:42:40.717 --> 01:42:41.718 说话算数吗? 01:42:41.785 --> 01:42:42.719 当然! 01:42:42.786 --> 01:42:43.953 待会结束后我们去喝杯咖啡 01:42:44.020 --> 01:42:45.221 我会把你的智能眼镜带过去! 01:42:45.288 --> 01:42:46.189 太棒了!待会见!祝你演示顺利 01:42:46.256 --> 01:42:47.223 谢谢 01:42:47.490 --> 01:42:50.927 大家可以看到,我们在后台,这里真是热闹非凡 01:42:51.294 --> 01:42:54.931 那是职业篮球运动员Giannis戴着我们的眼镜吗? 01:42:55.565 --> 01:42:56.766 我太喜欢这眼镜了! 01:42:56.933 --> 01:42:59.702 它解放了我的双手,让我随时能来个双手击掌 01:43:00.103 --> 01:43:04.107 太棒了,我继续来展示这副眼镜的功能 01:43:04.574 --> 01:43:07.410 今天一整天,我都对这面照片墙很好奇 01:43:07.844 --> 01:43:12.315 比如这是什么乐队,他们和这个地方有什么联系? 01:43:17.921 --> 01:43:19.722 这是Counting Crows 01:43:19.789 --> 01:43:22.225 一支来自旧金山湾区的传奇摇滚乐队 01:43:22.292 --> 01:43:24.527 他们在Shoreline Amphitheatre演出过很多次 01:43:24.594 --> 01:43:26.796 这里通常被视为是他们的返乡主场 01:43:27.030 --> 01:43:30.700 天哪!你能给我看看他们在这里演出时的照片吗? 01:43:33.570 --> 01:43:36.606 当然,这有一张,想让我播放一首他们的歌曲吗? 01:43:37.040 --> 01:43:39.809 好啊,我可以一边听一边走向舞台 01:43:43.580 --> 01:43:47.217 太好了!请听Counting Crows的《Under the Aurora》 01:43:48.251 --> 01:43:50.854 好了,大家准备好一睹这副眼镜的风采了吗? 01:43:51.254 --> 01:43:53.489 让我们欢迎Nishtha! 01:43:54.791 --> 01:43:56.092 Nishtha,欢迎欢迎! 01:43:56.159 --> 01:43:57.493 大家好! 01:44:00.296 --> 01:44:02.732 谢谢你为我们带来这段星光熠熠的幕后之旅 01:44:02.999 --> 01:44:05.435 对了,你现在要约Dieter去喝咖啡吗? 01:44:05.501 --> 01:44:09.005 当然…刚刚工作人员在后台给了我一杯超棒的咖啡 01:44:09.105 --> 01:44:10.573 所以让来我试试一些好玩的功能 01:44:12.108 --> 01:44:16.246 Gemini,刚刚那杯咖啡上的咖啡店名字是什么? 01:44:18.915 --> 01:44:20.650 嗯…可能是Bloomsgiving 01:44:20.717 --> 01:44:21.784 据我所知 01:44:21.851 --> 01:44:23.920 那是卡斯特罗街上一家充满活力的咖啡馆 01:44:24.254 --> 01:44:25.588 记性真好 01:44:31.728 --> 01:44:33.963 你能给我看看那家咖啡馆的照片吗? 01:44:34.097 --> 01:44:35.431 我想看看那里的氛围 01:44:38.167 --> 01:44:39.002 没问题 01:44:39.068 --> 01:44:40.703 这些是来自Google地图的照片,请问有帮助吗? 01:44:41.437 --> 01:44:42.472 哦,我知道那个地方 01:44:42.538 --> 01:44:45.742 它是一家花店,同时也卖咖啡,但它在市中心 01:44:46.476 --> 01:44:49.512 好吧,Gemini,我走过去需要多久? 01:44:52.849 --> 01:44:54.317 正在获取路线 01:44:55.218 --> 01:44:56.819 步行过去大概需要1小时 01:44:57.186 --> 01:44:58.154 好吧 01:44:58.855 --> 01:45:00.590 也许我可以走过去,顺便刷点步数 01:45:00.657 --> 01:45:05.194 眼镜上会直接显示完整3D地图和导航,会很轻松 01:45:14.637 --> 01:45:20.109 帮我约Dieter今天下午3点在那家咖啡馆喝咖啡 01:45:23.813 --> 01:45:25.181 我马上发出邀请 01:45:25.281 --> 01:45:26.416 希望你们享受愉快的咖啡时光 01:45:27.283 --> 01:45:30.787 如你们所见,Gemini帮助Nishtha搜索她看到的东西 01:45:31.087 --> 01:45:34.190 记住咖啡杯这种细节 01:45:34.791 --> 01:45:36.993 为她安排日程、甚至为她导航 01:45:37.327 --> 01:45:40.363 而Nishtha全程都不用掏出手机 01:45:40.997 --> 01:45:43.166 其实我现在也戴着这副眼镜 01:45:43.599 --> 01:45:45.768 它相当于是我的个人提词器 01:45:46.035 --> 01:45:48.471 而且它的镜片还带度数,所以我能看清你们 01:45:49.739 --> 01:45:52.075 Nishtha,这是智能眼镜的高光时刻 01:45:52.141 --> 01:45:52.976 我们把这一刻记录下来吧 01:45:53.042 --> 01:45:53.876 好的 01:45:53.977 --> 01:45:55.778 大家准备好,我们快速合个影 01:45:55.845 --> 01:45:57.847 让我们把后台的明星也请上来! 01:45:59.716 --> 01:46:01.184 这是Dieter 01:46:04.354 --> 01:46:05.555 Janice来了 01:46:06.322 --> 01:46:07.957 Gemini,帮我拍张照 01:46:16.866 --> 01:46:20.336 Gemini,帮我拍张照,保存到我的收藏夹里 01:46:28.244 --> 01:46:29.779 拍得真好! 01:46:37.487 --> 01:46:39.255 我是个彻头彻尾的追星族 01:46:39.689 --> 01:46:41.557 好的,还有最后一件事 01:46:42.225 --> 01:46:46.295 之前,Sundar展示了实时翻译已经发展到什么程度 01:46:46.662 --> 01:46:49.332 现在让我们看看它在智能眼镜上的表现 01:46:49.899 --> 01:46:53.336 这个演示很有挑战,但我们试试吧! 01:46:55.338 --> 01:46:59.142 Nishtha和我要用各自的母语交谈 01:46:59.275 --> 01:47:00.810 Nishtha说印地语 01:47:01.144 --> 01:47:03.846 我说波斯语,虽然我说得很烂 01:47:04.280 --> 01:47:08.017 你们会在大屏幕上看到我俩眼镜上的实时画面 01:47:08.418 --> 01:47:10.086 这样你们都可以明白我们在说什么 01:47:10.520 --> 01:47:13.489 我们会实时显示英语译文 01:47:14.057 --> 01:47:17.860 好吧,我们试试,但愿一切顺利 01:47:19.128 --> 01:47:24.333 [波斯语] 01:47:24.400 --> 01:47:26.702 [波斯语] 01:47:31.707 --> 01:47:38.448 [印地语] 01:47:41.417 --> 01:47:45.488 [波斯语] 01:47:45.988 --> 01:47:50.960 [波斯语] 01:47:57.733 --> 01:47:59.368 我们之前没说错,确实演示有风险 01:48:01.871 --> 01:48:02.772 让我们… 01:48:19.555 --> 01:48:20.490 感谢Nishtha 01:48:20.556 --> 01:48:23.426 带我们领略了Android XR智能眼镜的魅力 01:48:28.397 --> 01:48:30.466 有了这些Android XR设备 01:48:30.533 --> 01:48:33.302 就好像身边有一位非常得力的助理 01:48:33.369 --> 01:48:37.073 它将为我们带来怎样的精彩?让我们拭目以待 01:48:37.573 --> 01:48:38.574 这还不是全部 01:48:39.008 --> 01:48:42.712 我们正在与三星深化合作 01:48:43.012 --> 01:48:47.517 将Android XR从头戴设备扩展到智能眼镜 01:48:48.384 --> 01:48:51.687 我们正在创建软件和参考硬件平台 01:48:51.821 --> 01:48:53.756 以便生态系统中的伙伴们能够与我们一起 01:48:53.823 --> 01:48:56.192 打造出强大的智能眼镜 01:48:57.493 --> 01:49:01.364 我们的眼镜原型目前正在由可信测试员试用 01:49:01.564 --> 01:49:05.968 今年晚些时候,你们就可以开始为这款眼镜开发应用了 01:49:07.770 --> 01:49:10.139 我们知道,智能眼镜必须足够时尚 01:49:10.206 --> 01:49:12.441 你才会愿意全天佩戴 01:49:13.209 --> 01:49:16.279 因此,今天,我们很高兴地宣布 01:49:16.812 --> 01:49:19.949 Gentle Monster和Warby Parker 01:49:20.016 --> 01:49:22.485 将成为我们的首批眼镜制造商合作伙伴 01:49:22.552 --> 01:49:24.720 与我们一同打造搭载Android XR的时尚眼镜 01:49:32.728 --> 01:49:36.299 我们希望你能戴上符合你个人品味的眼镜 01:49:37.366 --> 01:49:38.568 这些还仅仅是开始 01:49:39.101 --> 01:49:42.305 我热切期待你们亲自体验Android XR 01:49:42.438 --> 01:49:45.041 在接下来的几个月,我们还会有更多精彩与大家分享 01:49:45.541 --> 01:49:46.609 谢谢大家 01:50:02.091 --> 01:50:04.393 这些XR眼镜实在太棒了! 01:50:05.127 --> 01:50:08.798 就在我们眼前,研究成果转化成了现实应用 01:50:09.465 --> 01:50:11.634 好的,我们的演讲已经接近尾声 01:50:12.301 --> 01:50:14.470 今天你们听到了很多关于Elo评分 01:50:15.137 --> 01:50:17.573 基准测试和先进性能的内容 01:50:18.274 --> 01:50:21.110 但我知道大家还在等着看另外一项数据 01:50:21.577 --> 01:50:23.212 那就是AI统计的词频数据 01:50:23.879 --> 01:50:26.749 那么,让我们来看这最后一个排行榜 01:50:28.217 --> 01:50:32.021 看起来,又有新选手入围了 01:50:32.622 --> 01:50:34.257 Gemini领先 01:50:34.624 --> 01:50:37.126 以95次的成绩胜出 01:50:38.761 --> 01:50:40.229 非常令人振奋 01:50:43.966 --> 01:50:47.270 言归正传,以上就是我们今天分享的所有内容 01:50:47.837 --> 01:50:53.109 从新产品发布、产品扩展,到未来展望 01:50:53.643 --> 01:50:57.113 AI带来了前所未有的机遇 01:50:57.947 --> 01:51:02.018 未来的关键就在你们这些开发者和技术创新者手中 01:51:02.151 --> 01:51:06.555 你们将推动这项技术的普及,让更多人能从中受益 01:51:07.223 --> 01:51:10.726 最后,我想跟大家分享几个给我带来激励的真实案例 01:51:10.826 --> 01:51:14.163 首先是加州居民以及世界各地的人们 01:51:14.563 --> 01:51:16.499 最关心的问题——野火 01:51:17.233 --> 01:51:20.403 想必有许多人都认识野火的受灾者 01:51:20.936 --> 01:51:24.707 野火的发生往往很突然,并在几分钟内失控蔓延 01:51:25.441 --> 01:51:28.244 因此,野火检测的速度和精度至关重要 01:51:28.878 --> 01:51:31.213 我们正在与一群了不起的合作伙伴一起 01:51:31.681 --> 01:51:33.916 构建一个名为FireSat的项目 01:51:34.016 --> 01:51:39.422 它是一个卫星星座,利用多光谱卫星图像和AI 01:51:39.789 --> 01:51:42.792 旨在提供近乎实时的野火观测数据 01:51:43.225 --> 01:51:44.760 看看这个分辨率 01:51:45.161 --> 01:51:48.831 它可以探测到面积小至25平方米的火灾 01:51:49.498 --> 01:51:51.667 大约相当于一个单车位车库的大小 01:51:52.368 --> 01:51:54.403 我们的第一颗卫星现已入轨 01:51:54.770 --> 01:51:56.339 项目全面投入运行后 01:51:56.739 --> 01:51:59.809 图像更新频率将大幅提高 01:52:00.242 --> 01:52:02.144 从目前的每12小时更新一次 01:52:02.211 --> 01:52:04.080 缩短到每20分钟更新一次 01:52:12.822 --> 01:52:15.791 在其他类型的应急响应中,速度同样至关重要 01:52:16.425 --> 01:52:17.960 例如,在海伦飓风期间 01:52:18.194 --> 01:52:21.097 Wing与沃尔玛、红十字会合作 01:52:21.564 --> 01:52:24.367 用无人机投送物资,为救援工作提供了支持 01:52:24.900 --> 01:52:26.168 在AI的帮助下 01:52:26.302 --> 01:52:29.338 我们能够根据实时需求将食物、药品等关键物资 01:52:29.805 --> 01:52:33.743 投放到北卡罗来纳州的一个基督教青年会避难所 01:52:34.343 --> 01:52:38.381 可以想象这在其他社区的救灾行动中会有多大帮助 01:52:39.048 --> 01:52:41.250 我们也正在积极努力扩大这一技术的应用范围 01:52:42.017 --> 01:52:45.621 这些都是AI目前造福社会的例子 01:52:46.389 --> 01:52:48.057 尤其令人鼓舞的是 01:52:48.124 --> 01:52:52.561 今天的研究成果将在短短几年内成为现实 01:52:53.329 --> 01:52:56.766 无论是构建下一代实用机器人 01:52:57.633 --> 01:53:00.436 为世界致死率最高的疾病寻找治疗方法 01:53:01.237 --> 01:53:03.939 还是推进纠错量子计算机的发展 01:53:04.573 --> 01:53:09.745 或是打造能将乘客安全送达 任何地点的全自动驾驶汽车 01:53:10.546 --> 01:53:14.583 所有这些都极有可能在几年内实现,而不是几十年 01:53:14.917 --> 01:53:15.818 真是令人向往 01:53:16.519 --> 01:53:20.289 这种利用AI改善生活的机会并不是我在想当然 01:53:21.056 --> 01:53:23.459 最近的一次经历让我深有体会 01:53:23.893 --> 01:53:26.328 当时我和父母一起到旧金山旅游 01:53:26.762 --> 01:53:28.264 与许多其他游客一样 01:53:28.330 --> 01:53:30.833 他们想做的第一件事就是体验Waymo的自动驾驶 01:53:31.934 --> 01:53:33.436 我以前也坐过Waymo 01:53:33.502 --> 01:53:38.641 但看着我八十多岁的父亲坐在前排那种惊讶的表情 01:53:38.874 --> 01:53:41.777 我从全新的视角看到了科技进步的影响 01:53:42.378 --> 01:53:45.981 它让我看到,科技拥有多么不可思议的力量 01:53:46.048 --> 01:53:49.418 它能激发灵感、造福所有人、并推动我们前进 01:53:49.819 --> 01:53:51.187 我迫不及待想看看 01:53:51.253 --> 01:53:53.622 接下来我们会共同创造出怎样的精彩成果 01:53:53.756 --> 01:53:54.590 谢谢大家 01:54:07.069 --> 01:54:09.939 Flow为我开启了无限可能 01:54:10.105 --> 01:54:12.007 那是什么样的魔法? 01:54:12.541 --> 01:54:15.978 AI模式是自搜索引擎发明以来最伟大的革命 01:54:16.212 --> 01:54:18.881 只需准确地告诉Gemini你想要构建什么 01:54:18.948 --> 01:54:20.382 它就会为你搞定 01:54:20.449 --> 01:54:21.283 天哪 01:54:21.350 --> 01:54:23.586 你可以用Gemini 2.5 Pro编程 01:54:23.986 --> 01:54:25.721 实在太好用了 01:54:25.788 --> 01:54:28.090 Project Mariner将改变我们使用浏览器的方式 01:54:28.157 --> 01:54:31.227 它是一个能帮你处理事务的AI智能体 01:54:31.293 --> 01:54:34.396 Notebook LMS思维导图颠覆了我们学习的方式 01:54:34.463 --> 01:54:37.266 为什么无论我走到哪,这个人都在跟踪我? 01:54:37.500 --> 01:54:38.834 那是你的影子 01:54:39.168 --> 01:54:40.035 等等,你要右转 01:54:42.404 --> 01:54:45.007 AI正在彻底改变我们对抗野火的方式 01:54:45.274 --> 01:54:48.477 生成式媒体正在拓展创造力的边界 01:54:48.844 --> 01:54:50.412 我第一次看到这个的时候,感觉就像魔法一样 01:54:50.613 --> 01:54:51.647 它不仅仅是又一项工具 01:54:51.714 --> 01:54:52.681 它颠覆了一切 01:54:52.748 --> 01:54:54.450 简直让我大开眼界 01:54:54.517 --> 01:54:56.485 AI的潜力近乎无限