1 00:00:06,470 --> 00:00:09,400 [Âm nhạc] 2 00:00:09,400 --> 00:00:12,040 [Vỗ tay] 3 00:00:12,040 --> 00:00:16,119 Wow, đông quá nhỉ. Tốt, cảm ơn 4 00:00:16,119 --> 00:00:20,640 vì lời giới thiệu đáng yêu đó. 5 00:00:20,640 --> 00:00:22,680 6 00:00:22,680 --> 00:00:25,160 Được rồi, vậy 7 00:00:25,160 --> 00:00:28,279 trí tuệ nhân tạo sáng tạo (generative artificial intelligence) là gì? 8 00:00:28,279 --> 00:00:30,199 tôi muốn phần này có tính tương tác một chút 9 00:00:30,199 --> 00:00:32,200 vì vậy sẽ có phần tham gia 10 00:00:32,200 --> 00:00:34,920 tham gia từ những người ở đây 11 00:00:34,920 --> 00:00:36,960 Những người tổ chức buổi giảng này nói với tôi, "Oh, bạn là người 12 00:00:36,960 --> 00:00:40,120 ít hiểu biết về công nghệ đối với một người làm việc về AI." 13 00:00:40,120 --> 00:00:42,039 Tôi không có vụ nổ hay 14 00:00:42,039 --> 00:00:44,640 thí nghiệm nào nên tôi e rằng bạn sẽ phải 15 00:00:44,640 --> 00:00:47,600 tham gia vào. hy vọng điều đó không sao chứ. Được rồi, 16 00:00:47,600 --> 00:00:50,079 vậy trí tuệ nhân tạo tạo sinh là gì, 17 00:00:50,079 --> 00:00:53,680 thuật ngữ này được tạo thành 18 00:00:53,680 --> 00:00:56,680 từ hai thứ: trí tuệ nhân tạo 19 00:00:56,680 --> 00:00:58,800 và tạo sinh, 20 00:00:58,800 --> 00:01:02,440 trí tuệ nhân tạo là một thuật ngữ hoa mỹ để nói rằng 21 00:01:02,440 --> 00:01:04,959 chúng ta có một chương trình máy tính để thực hiện công việc 22 00:01:04,959 --> 00:01:07,880 mà con người sẽ làm và 23 00:01:07,880 --> 00:01:10,520 tạo sinh đây là phần thú vị chúng ta đang 24 00:01:10,520 --> 00:01:14,040 tạo ra nội dung mới mà máy tính 25 00:01:14,040 --> 00:01:16,560 chưa chắc đã thấy, nó có thể thấy 26 00:01:16,560 --> 00:01:19,159 một phần nào đó của nội dung đó và nó có thể tổng hợp nội 27 00:01:19,159 --> 00:01:22,119 dung đó và cung cấp cho chúng ta những điều mới, vậy 28 00:01:22,119 --> 00:01:25,439 nội dung mới này sẽ là gì, có thể là âm thanh, 29 00:01:25,439 --> 00:01:27,920 có thể là mã nguồn máy tính để tạo ra 30 00:01:27,920 --> 00:01:31,240 một chương trình cho chúng ta, nó có thể là một hình ảnh mới, 31 00:01:31,240 --> 00:01:33,720 nó có thể là một đoạn văn bản như email hoặc một 32 00:01:33,720 --> 00:01:37,079 bài luận mà bạn đã nghe hay video. Trong 33 00:01:37,079 --> 00:01:39,680 bài giảng này tôi sẽ chỉ 34 00:01:39,680 --> 00:01:41,840 tập trung chủ yếu vào văn bản vì tôi làm về 35 00:01:41,840 --> 00:01:43,119 xử lý ngôn ngữ tự nhiên và đó là lĩnh vực mà tôi 36 00:01:43,119 --> 00:01:46,840 hiểu biết rõ nhất và chúng ta sẽ xem 37 00:01:46,840 --> 00:01:50,079 công nghệ hoạt động như thế nào và hy vọng là 38 00:01:50,079 --> 00:01:53,960 sau bài giảng này các bạn biết sẽ hiểu rằng dù có 39 00:01:53,960 --> 00:01:55,759 có rất nhiều huyền thoại xung quanh nó, 40 00:01:55,759 --> 00:01:59,200 nhưng thật ra nó 41 00:01:59,200 --> 00:02:01,159 chỉ là một công cụ mà thôi, được chứ ? 42 00:02:01,159 --> 00:02:03,960 Được rồi, vậy phần bố cục của bài giảng 43 00:02:03,960 --> 00:02:05,200 có ba phần và nó hơi 44 00:02:05,200 --> 00:02:09,199 nhàm chán. Đây là Alice Morse Earle. Tôi không 45 00:02:09,199 --> 00:02:11,959 hi vọng các bạn biết người phụ nữ này, bà là một 46 00:02:11,959 --> 00:02:16,400 nhà văn người Mỹ và bà viết về 47 00:02:16,400 --> 00:02:19,720 kỷ vật và phong tục nhưng bà nổi tiếng 48 00:02:19,720 --> 00:02:22,120 với những câu trích dẫn của mình Ví dụ như câu này: 49 00:02:22,120 --> 00:02:24,319 "Hôm qua là lịch sử, 50 00:02:24,319 --> 00:02:26,640 ngày mai là bí ẩn, hôm nay là một món quà 51 00:02:26,640 --> 00:02:28,040 và đó là lý do tại sao nó được gọi là hiện tại" 52 00:02:28,040 --> 00:02:31,280 Đây là một câu trích dẫn rất lạc quan và 53 00:02:31,280 --> 00:02:34,560 bài giảng về cơ bản là về quá khứ, 54 00:02:34,560 --> 00:02:38,800 hiện tại và tương lai của AI, được rồi, 55 00:02:38,800 --> 00:02:41,560 điều tôi muốn nói ngay từ đầu 56 00:02:41,560 --> 00:02:45,480 là AI tạo sinh không phải là một 57 00:02:45,480 --> 00:02:50,599 khái niệm mới, nó đã tồn tại từ khá lâu rồi. Vậy có 58 00:02:50,599 --> 00:02:53,360 bao nhiêu người trong số các bạn đã sử dụng hoặc đang sử dụng 59 00:02:53,360 --> 00:02:56,560 quen thuộc với Google dịch ? Cho tôi xem 60 00:02:56,560 --> 00:03:00,480 cánh tay nào? Được rồi, ai có thể cho tôi biết 61 00:03:00,480 --> 00:03:02,879 Google dịch ra mắt 62 00:03:02,879 --> 00:03:04,440 63 00:03:04,440 --> 00:03:06,239 lần đầu tiên là khi nào ? 64 00:03:06,239 --> 00:03:10,400 Năm 1995 ? Ồ, điều đó sẽ tốt đây. Năm 2006, 65 00:03:10,400 --> 00:03:14,599 tức là nó đã tồn tại được 17 năm rồi và 66 00:03:14,599 --> 00:03:16,680 tất cả chúng ta đã sử dụng nó và đây là một 67 00:03:16,680 --> 00:03:19,080 ví dụ về AI tạo sinh, văn bản tiếng Hy Lạp 68 00:03:19,080 --> 00:03:21,959 được nhập vào (Tôi là người Hy Lạp, nên bạn biết đấy, hãy dành chút tình cảm 69 00:03:21,959 --> 00:03:26,680 Đúng vậy, đoạn văn bản tiếng Hy Lạp đã được nhập vào và 70 00:03:26,680 --> 00:03:29,799 đoạn văn bản tiếng Anh xuất hiện và Google 71 00:03:29,799 --> 00:03:31,720 dịch đã phục vụ chúng ta rất tốt trong 72 00:03:31,720 --> 00:03:34,200 suốt những năm qua và không ai làm 73 00:03:34,200 --> 00:03:39,200 ầm lên về nó cả. Một ví dụ khác là Siri 74 00:03:39,200 --> 00:03:43,080 trên điện thoại. Siri 75 00:03:43,080 --> 00:03:45,239 đã ra mắt vào 76 00:03:45,239 --> 00:03:50,480 năm 2011, 12 năm trước và nó đã trở thành một hiện tượng 77 00:03:50,480 --> 00:03:52,720 Đây cũng là một ví dụ khác về 78 00:03:52,720 --> 00:03:55,280 AI tạo sinh, chúng ta có thể yêu cầu Siri đặt 79 00:03:55,280 --> 00:03:59,120 báo thức và Siri sẽ trả lời lại, thật 80 00:03:59,120 --> 00:04:00,200 tuyệt vời, 81 00:04:00,200 --> 00:04:01,920 bạn có thể hỏi về báo thức 82 00:04:01,920 --> 00:04:03,959 hoặc bất cứ thứ gì khác, đây chính là AI tạo sinh, 83 00:04:03,959 --> 00:04:06,560 Dù không tinh vi như Chat GPT, 84 00:04:06,560 --> 00:04:09,000 nhưng nó đã xuất hiện từ trước rồi và không biết có bao 85 00:04:09,000 --> 00:04:10,799 nhiêu người trong số các bạn dùng 86 00:04:10,799 --> 00:04:14,640 iPhone? Xem kìa, iPhone khá phổ biến. Tôi 87 00:04:14,640 --> 00:04:18,238 không hiểu tại sao. Được rồi, vậy là chúng ta đều 88 00:04:18,238 --> 00:04:20,358 quen thuộc với nó và tất nhiên 89 00:04:20,358 --> 00:04:23,040 sau đó có Amazon Alexa và nhiều thứ khác nữa. Vậy một lần nữa, 90 00:04:23,040 --> 00:04:27,320 AI tạo sinh Không phải là một 91 00:04:27,320 --> 00:04:30,280 khái niệm mới, nó ở khắp mọi nơi, nó là một phần của 92 00:04:30,280 --> 00:04:33,039 điện thoại của bạn. Tính năng hoàn thành tự động khi bạn 93 00:04:33,039 --> 00:04:35,199 gửi email hoặc khi bạn gửi email hoặc 94 00:04:35,199 --> 00:04:39,400 tin nhắn. Điện thoại cố gắng hoàn thành 95 00:04:39,400 --> 00:04:42,280 câu của bạn, cố gắng suy nghĩ giống như 96 00:04:42,280 --> 00:04:44,639 bạn và nó giúp bạn tiết kiệm thời gian, đúng chứ ? vì 97 00:04:44,639 --> 00:04:46,680 một số gợi ý đã có sẵn rồi 98 00:04:46,680 --> 00:04:48,479 Tương tự như với Google, khi bạn nhập liệu, 99 00:04:48,479 --> 00:04:50,520 nó cố gắng đoán từ khóa tìm kiếm của bạn 100 00:04:50,520 --> 00:04:53,199 Đây là một ví dụ về 101 00:04:53,199 --> 00:04:55,120 mô hình ngôn ngữ, chúng ta sẽ nghe rất nhiều về 102 00:04:55,120 --> 00:04:58,080 mô hình ngôn ngữ trong bài nói chuyện này, vì vậy về cơ bản chúng ta đang 103 00:04:58,080 --> 00:04:59,880 đưa ra dự đoán về những gì 104 00:04:59,880 --> 00:05:03,680 tiếp theo sẽ như thế nào. Vì vậy, 105 00:05:03,680 --> 00:05:05,840 điều tôi muốn nói với bạn là AI tạo sinh 106 00:05:05,840 --> 00:05:08,960 không hẳn là mới mẻ. Vậy vấn đề là gì, tại sao mọi người lại bàn tán xôn xao 107 00:05:08,960 --> 00:05:11,080 chuyện gì đã xảy ra ? 108 00:05:11,080 --> 00:05:13,840 vào năm 109 00:05:13,840 --> 00:05:17,759 2023, Open AI mở một công ty ở 110 00:05:17,759 --> 00:05:19,720 California thực tế là ở San Francisco. Nếu 111 00:05:19,720 --> 00:05:21,560 bạn đến San Francisco, bạn thậm chí có thể nhìn thấy 112 00:05:21,560 --> 00:05:24,840 ánh đèn của tòa nhà họ vào ban đêm 113 00:05:24,840 --> 00:05:26,639 Họ đã công bố 114 00:05:26,639 --> 00:05:31,080 GPT-4 và tuyên bố rằng nó có thể vượt quá 90% 115 00:05:31,080 --> 00:05:34,199 con người trong bài kiểm tra SAT. Đối với 116 00:05:34,199 --> 00:05:36,919 những ai chưa biết, SAT là một 117 00:05:36,919 --> 00:05:39,759 bài kiểm tra tiêu chuẩn mà học sinh ở Mỹ 118 00:05:39,759 --> 00:05:41,840 phải làm để vào Đại học. Đó là một 119 00:05:41,840 --> 00:05:44,520 bài kiểm tra tuyển sinh và đó là bài trắc nghiệm 120 00:05:44,520 --> 00:05:48,759 được xem là không dễ. Vậy mà GPT-4 121 00:05:48,759 --> 00:05:50,919 có thể làm được, họ cũng tuyên bố rằng nó có thể 122 00:05:50,919 --> 00:05:54,840 đạt điểm cao trong các kỳ thi luật, y khoa 123 00:05:54,840 --> 00:05:57,160 và các kỳ thi khác. Họ có cả một loạt các kết quả 124 00:05:57,160 --> 00:05:59,880 mà họ không chỉ tuyên bố mà còn 125 00:05:59,880 --> 00:06:03,520 chứng minh rằng GPT-4 có thể làm được. 126 00:06:03,520 --> 00:06:07,360 Ngoài việc nó có thể vượt qua các kỳ thi 127 00:06:07,360 --> 00:06:10,520 chúng ta có thể yêu cầu nó làm những việc khác. Ví dụ, bạn 128 00:06:10,520 --> 00:06:14,199 có thể yêu cầu nó viết văn bản cho bạn. Chẳng 129 00:06:14,199 --> 00:06:17,560 hạn bạn có thể đưa ra một "prompt" (yêu cầu) 130 00:06:17,560 --> 00:06:19,440 cái mà bạn thấy trên kia, 131 00:06:19,440 --> 00:06:22,400 đó chính là prompt. Đó chính là những gì con người muốn 132 00:06:22,400 --> 00:06:24,960 công cụ thực hiện cho họ. Một 133 00:06:24,960 --> 00:06:26,919 prompt có thể là: "Tôi đang viết một bài luận 134 00:06:26,919 --> 00:06:28,880 về việc sử dụng điện thoại di động khi 135 00:06:28,880 --> 00:06:31,199 lái xe. Bạn có thể đưa ra cho tôi ba luận điểm 136 00:06:31,199 --> 00:06:34,160 ủng hộ điều này không ? Nếu 137 00:06:34,160 --> 00:06:36,199 bạn hỏi tôi, tôi không chắc tôi có thể đưa ra 137 00:06:36,199 --> 00:06:38,919 ba luận điểm. Bạn cũng có thể yêu cầu, và 138 00:06:38,919 --> 00:06:41,080 đây là những yêu cầu thực sự mà 139 00:06:41,080 --> 00:06:44,960 công cụ có thể làm. Bạn nói với Chat GPT hoặc GPT nói 140 00:06:44,960 --> 00:06:47,080 chung hoạt động như một lập trình viên JavaScript. 141 00:06:47,080 --> 00:06:48,599 Viết một chương trình kiểm tra 142 00:06:48,599 --> 00:06:51,560 thông tin trên biểu mẫu. Tên và email là 143 00:06:51,560 --> 00:06:53,720 bắt buộc, nhưng địa chỉ và tuổi thì không. "Vậy là 144 00:06:53,720 --> 00:06:56,639 tôi chỉ cần viết điều này và công cụ sẽ 145 00:06:56,639 --> 00:06:59,199 đưa ra một chương trình và đây là điều thú vị nhất: 146 00:06:59,199 --> 00:07:02,560 "Tạo một trang giới thiệu về tôi" cho một 147 00:07:02,560 --> 00:07:05,560 trang web. Tôi thích leo núi, 148 00:07:05,560 --> 00:07:07,919 thể thao ngoài trời và lập trình. Tôi bắt đầu 149 00:07:07,919 --> 00:07:09,840 sự nghiệp của mình với vai trò kỹ sư chất lượng trong 150 00:07:09,840 --> 00:07:13,360 ngành blah blah blah. Tôi cung cấp thông tin 151 00:07:13,360 --> 00:07:16,280 phiên bản như vậy về những gì tôi muốn trên website, và công cụ 152 00:07:16,280 --> 00:07:18,520 sẽ tạo ra nó cho 153 00:07:18,520 --> 00:07:20,160 tôi. 154 00:07:20,160 --> 00:07:23,360 Vậy, bạn thấy đấy, chúng ta đã đi từ Google 155 00:07:23,360 --> 00:07:24,840 dịch và Siri và tính năng 156 00:07:24,840 --> 00:07:26,479 hoàn thành tự động đến một thứ 157 00:07:26,479 --> 00:07:28,840 phức tạp hơn rất nhiều và có thể làm được nhiều hơn nữa 158 00:07:28,840 --> 00:07:31,080 159 00:07:31,080 --> 00:07:34,680 Một sự thật thú vị nữa. Đây là biểu đồ 160 00:07:34,680 --> 00:07:40,879 cho thấy thời gian cần thiết để chat GPT 161 00:07:40,879 --> 00:07:44,400 đạt được 100 triệu người dùng so 162 00:07:44,400 --> 00:07:46,120 với các công cụ khác đã ra mắt 163 00:07:46,120 --> 00:07:49,039 trong quá khứ và bạn thấy Google dịch, công cụ mà chúng ta yêu thích 164 00:07:49,039 --> 00:07:53,840 phải mất 78 tháng để 165 00:07:53,840 --> 00:07:58,280 đạt được 100 triệu người dùng. Một khoảng thời gian dài. 166 00:07:58,280 --> 00:08:02,680 Tik Tok chỉ mất 9 tháng và Chat GPT chỉ mất 167 00:08:02,680 --> 00:08:05,840 2 tháng. Chi trong vòng hai tháng, họ đã có 100 168 00:08:05,840 --> 00:08:10,759 triệu người dùng và những người dùng này trả một 169 00:08:10,759 --> 00:08:13,960 ít tiền để sử dụng hệ thống, bạn có thể 170 00:08:13,960 --> 00:08:15,599 nhân lên và tính xem họ kiếm được 171 00:08:15,599 --> 00:08:19,400 bao nhiêu tiền. Được rồi, 172 00:08:19,400 --> 00:08:25,039 đây là phần lịch sử. Vậy làm thế nào để 173 00:08:25,039 --> 00:08:29,240 chúng ta tạo ra Chat GPT ? 174 00:08:29,240 --> 00:08:31,479 Công nghệ nào đứng sau nó ? Hóa ra, công nghệ này 175 00:08:31,479 --> 00:08:34,120 không phải quá mới hoặc 176 00:08:34,120 --> 00:08:36,440 cực kỳ sáng tạo hoặc cực kỳ 177 00:08:36,440 --> 00:08:37,519 khó hiểu 178 00:08:37,519 --> 00:08:39,839 Vậy nên, hôm nay chúng ta 179 00:08:39,839 --> 00:08:41,159 sẽ nói về 180 00:08:41,159 --> 00:08:45,360 điều đó. Chúng ta sẽ giải quyết ba câu hỏi 181 00:08:45,360 --> 00:08:46,920 Trước hết là làm thế nào chúng ta chuyển từ các 182 00:08:46,920 --> 00:08:49,399 hệ thống chỉ có một mục đích đơn lẻ như Google 183 00:08:49,399 --> 00:08:51,880 Dịch sang Chat GPT, 184 00:08:51,880 --> 00:08:54,680 một công cụ tinh vi hơn và làm được nhiều việc hơn, 185 00:08:54,680 --> 00:08:56,640 cụ thể, 186 00:08:56,640 --> 00:08:59,480 công nghệ cốt lõi đằng sau Chat GPT là gì và 187 00:08:59,480 --> 00:09:02,079 rủi ro nếu có là gì và cuối cùng tôi 188 00:09:02,079 --> 00:09:04,640 sẽ chỉ cho bạn thấy cái nhìn thoáng qua về 189 00:09:04,640 --> 00:09:06,760 tương lai, cách mà nó sẽ trông như thế nào 190 00:09:06,760 --> 00:09:08,720 và liệu chúng ta có nên lo lắng hay 191 00:09:08,720 --> 00:09:12,760 không và bạn biết đấy tôi sẽ không để bạn phải băn 192 00:09:12,760 --> 00:09:16,600 khoăn đâu đừng lo lắng, được 193 00:09:16,600 --> 00:09:18,959 chứ ? 194 00:09:18,959 --> 00:09:22,959 Vậy tất cả các biến thể mô hình GPT này và 195 00:09:22,959 --> 00:09:24,880 có một ngành công nghiệp nhỏ đang nổi lên, 196 00:09:24,880 --> 00:09:27,760 tôi chỉ lấy GPT làm ví dụ 197 00:09:27,760 --> 00:09:30,079 công chúng đã biết đến nó 198 00:09:30,079 --> 00:09:32,440 và có rất nhiều 199 00:09:32,440 --> 00:09:34,279 các bài báo về nó, nhưng còn có 200 00:09:34,279 --> 00:09:36,240 những mô hình khác, các biến thể khác của mô hình mà chúng ta 201 00:09:36,240 --> 00:09:39,519 sử dụng trong học thuật. Tất cả chúng đều hoạt động dựa trên 202 00:09:39,519 --> 00:09:41,519 cùng một nguyên tắc, và nguyên tắc này được 203 00:09:41,519 --> 00:09:44,160 gọi là mô hình hóa ngôn ngữ 204 00:09:44,160 --> 00:09:47,440 Mô hình hóa ngôn ngữ làm gì nó giả định rằng chúng ta có 205 00:09:47,440 --> 00:09:51,399 một chuỗi các từ ngữ. Đó là ngữ cảnh cho đến nay 206 00:09:51,399 --> 00:09:52,920 và chúng ta đã thấy điều này trong tính năng 207 00:09:52,920 --> 00:09:55,760 hoàn thành tự động. tôi có một ví dụ ở đây 208 00:09:55,760 --> 00:10:00,160 Giả sử ngữ cảnh của tôi là cụm từ "Tôi muốn". 209 00:10:00,160 --> 00:10:03,240 công cụ mô hình hóa ngôn ngữ sẽ 210 00:10:03,240 --> 00:10:06,440 dự đoán những gì xảy ra tiếp theo. Vì vậy nếu tôi nói 211 00:10:06,440 --> 00:10:09,320 "Tôi muốn" sẽ có một số dự đoán:"Tôi 212 00:10:09,320 --> 00:10:12,040 muốn xúc tuyết", "Tôi muốn chơi", "Tôi muốn 213 00:10:12,040 --> 00:10:14,880 bơi", "Tôi muốn ăn" và tùy thuộc vào những gì 214 00:10:14,880 --> 00:10:17,600 chúng ta chọn là "xúc tuyết" sẽ tiếp tục với "tuyết", 215 00:10:17,600 --> 00:10:21,880 còn nhiều phần tiếp theo nữa. Vi vậy, 216 00:10:21,880 --> 00:10:25,240 đối với "xẻng" thì sẽ là "tuyết", "chơi" thì 217 00:10:25,240 --> 00:10:27,800 có thể tiếp tục với "tennis" hoặc "trò choi video", "bơi" không có phần tiếp theo và "ăn" 218 00:10:27,800 --> 00:10:30,240 có thể tiếp tục với "nhiều thứ" hoặc 219 00:10:30,240 --> 00:10:33,800 "trái cây". Đây là một ví dụ đơn giản nhưng hãy 220 00:10:33,800 --> 00:10:35,639 tưởng tượng bây giờ máy tính đã thấy 221 00:10:35,639 --> 00:10:40,480 rất nhiều văn bản và nó biết những từ nào 222 00:10:40,480 --> 00:10:42,399 theo sau 223 00:10:42,399 --> 00:10:46,720 những từ nào. Trước đây, chúng ta từng đếm các từ này. 224 00:10:46,720 --> 00:10:49,519 Tôi sẽ tải xuống một lượng lớn dữ liệu 225 00:10:49,519 --> 00:10:52,160 và đếm xem cụm "Tôi muốn cho họ thấy" 226 00:10:52,160 --> 00:10:54,160 xuất hiện bao nhiêu lần và 227 00:10:54,160 --> 00:10:56,040 những lần tiếp theo là gì. chúng ta 228 00:10:56,040 --> 00:10:58,040 Chúng ta đã từng lưu các con số đó. Nhưng giờ đây, 229 00:10:58,040 --> 00:11:00,760 mọi thứ đã thay đổi, 230 00:11:00,760 --> 00:11:03,519 chúng ta sử dụng mạng nơ-ron không chỉ đơn thuần đếm 231 00:11:03,519 --> 00:11:07,720 mà dự đoán, học hỏi 232 00:11:07,720 --> 00:11:10,040 theo cách tinh vi hơn, và 233 00:11:10,040 --> 00:11:12,079 tôi sẽ giải thích ngay. 234 00:11:12,079 --> 00:11:13,360 ChatGPT và 235 00:11:13,360 --> 00:11:17,760 các biến thể GPT dựa trên các 236 00:11:17,760 --> 00:11:21,560 nguyên tắc này: Tôi có một ngữ cảnh, 237 00:11:21,560 --> 00:11:24,600 tôi sẽ dự đoán điều gì sẽ xảy ra tiếp theo. 238 00:11:24,600 --> 00:11:26,639 Và đó chính là prompt, phần yêu cầu mà tôi đã 239 00:11:26,639 --> 00:11:29,800 cho bạn thấy. 240 00:11:29,800 --> 00:11:32,399 Đây là ngữ cảnh, và sau đó công cụ sẽ 241 00:11:32,399 --> 00:11:35,680 thực hiện nhiệm vụ, điều gì sẽ xảy ra tiếp theo ? trong một số 242 00:11:35,680 --> 00:11:37,639 trường hợp, đó sẽ là ba luận điểm. 243 00:11:37,639 --> 00:11:39,920 Trong trường hợp của lập trình viên web, đó 244 00:11:39,920 --> 00:11:41,320 sẽ là một 245 00:11:41,320 --> 00:11:45,440 trang web. Tóm lại nhiệm vụ của mô hình hóa ngôn ngữ 246 00:11:45,440 --> 00:11:47,519 là có ngữ cảnh. 247 00:11:47,519 --> 00:11:49,200 và đây là một ví dụ khác: 248 00:11:49,200 --> 00:11:53,160 "Màu sắc của bầu trời là". Chúng ta có 249 00:11:53,160 --> 00:11:56,760 một mô hình ngôn ngữ nơ-ron, 250 00:11:56,760 --> 00:12:00,320 thực chất chỉ là một thuật toán, 251 00:12:00,320 --> 00:12:03,279 nó sẽ dự đoán phần tiếp theo có 252 00:12:03,279 --> 00:12:06,160 khả năng xảy ra nhất. Khả năng xảy ra rất quan trọng. 253 00:12:06,160 --> 00:12:09,160 Tất cả các dự đoán dựa trên việc đoán 254 00:12:09,160 --> 00:12:11,959 điều gì sẽ xảy ra tiếp theo. 255 00:12:11,959 --> 00:12:13,519 Và đó là lý do đôi khi chúng thất bại, vì 256 00:12:13,519 --> 00:12:15,519 chúng dự đoán câu trả lời có khả năng cao nhất 257 00:12:15,519 --> 00:12:18,279 trong khi bạn muốn một câu trả lời ít có khả năng xảy ra hơn nhưng 258 00:12:18,279 --> 00:12:19,880 đây là cách chúng được huấn luyện để 259 00:12:19,880 --> 00:12:24,120 đưa ra những câu trả lời có khả năng là cao nhất, vì vậy 260 00:12:24,120 --> 00:12:25,920 chúng ta không đếm các từ nữa, mà cố gắng 261 00:12:25,920 --> 00:12:29,959 dự đoán chúng bằng mô hình ngôn ngữ này. 262 00:12:29,959 --> 00:12:33,760 Vậy làm thế nào để bạn tự xây dựng một mô hình ngôn ngữ? 263 00:12:33,760 --> 00:12:36,160 Đây là công thức, cách mà mọi người thực hiện: 264 00:12:36,160 --> 00:12:40,000 Bước 1: Chúng ta cần rất nhiều dữ liệu. 265 00:12:40,000 --> 00:12:43,040 Cần thu thập một tập dữ liệu khổng lồ. 266 00:12:43,040 --> 00:12:46,360 Vậy chúng ta tìm đâu ra 267 00:12:46,360 --> 00:12:48,959 một tập dữ liệu khổng lồ như vậy? 268 00:12:48,959 --> 00:12:52,360 Ý tôi là, chúng ta tìm trên web, đúng không? 269 00:12:52,360 --> 00:12:55,800 Chúng ta tải xuống toàn bộ Wikipedia, 270 00:12:55,800 --> 00:12:59,399 các trang Stack Overflow, Quora, 271 00:12:59,399 --> 00:13:02,160 mạng xã hội, GitHub, Reddit, bất kỳ thứ gì bạn 272 00:13:02,160 --> 00:13:03,880 có thể tìm được trên đó 273 00:13:03,880 --> 00:13:06,240 Tất nhiên, bạn cần giải quyết các vấn đề về quyền sử dụng dữ liệu, phải hợp pháp. 274 00:13:06,240 --> 00:13:08,079 Bạn tải xuống toàn bộ tập dữ liệu này. 275 00:13:08,079 --> 00:13:10,680 Vậy sau đó bạn làm gì? Sau đó, bạn 276 00:13:10,680 --> 00:13:12,360 có mô hình ngôn ngữ này. Tôi chưa 277 00:13:12,360 --> 00:13:14,120 giải thích chính xác mô hình 278 00:13:14,120 --> 00:13:15,959 ngôn ngữ này là gì, và cũng chưa nói 279 00:13:15,959 --> 00:13:17,519 về mạng nơ-ron thực hiện 280 00:13:17,519 --> 00:13:20,639 dự đoán, nhưng giả sử bạn đã có nó. 281 00:13:20,639 --> 00:13:23,199 Vậy bạn có một cơ chế 282 00:13:23,199 --> 00:13:25,920 học tập, và nhiệm vụ giờ đây 283 00:13:25,920 --> 00:13:28,920 là dự đoán từ tiếp theo. 284 00:13:28,920 --> 00:13:32,040 Nhưng làm thế nào để chúng ta làm điều đó? 285 00:13:32,040 --> 00:13:36,079 Đây chính là phần sáng tạo. 286 00:13:36,079 --> 00:13:38,720 Chúng ta có các câu trong tập dữ liệu. Chúng ta có thể xóa một số từ 287 00:13:38,720 --> 00:13:41,040 trong các câu đó và yêu cầu mô hình ngôn ngữ dự đoán 288 00:13:41,040 --> 00:13:45,199 các từ mà chúng ta đã xóa. 289 00:13:45,199 --> 00:13:48,440 Cách này rất rẻ tiền. Tôi chỉ cần xóa chúng đi, 290 00:13:48,440 --> 00:13:50,639 giả vờ như chúng không có, và để mô hình ngôn ngữ 291 00:13:50,639 --> 00:13:54,360 dự đoán chúng. Tôi sẽ 292 00:13:54,360 --> 00:13:57,240 ngẫu nhiên cắt ngắn, "truncate" nghĩa là xóa bớt, 293 00:13:57,240 --> 00:13:59,600 phần cuối của câu đầu vào. 294 00:13:59,600 --> 00:14:01,720 Sau đó, tôi sẽ sử dụng mạng nơ-ron 295 00:14:01,720 --> 00:14:04,560 để tính xác suất của các từ bị thiếu. Nếu dự đoán 296 00:14:04,560 --> 00:14:06,440 đúng, thì tốt. Nếu không đúng, tôi cần 297 00:14:06,440 --> 00:14:08,600 quay lại và điều chỉnh một số điều 298 00:14:08,600 --> 00:14:10,240 vì rõ ràng tôi đã mắc sai lầm, 299 00:14:10,240 --> 00:14:12,959 và tôi tiếp tục lặp lại. Tôi sẽ điều chỉnh 300 00:14:12,959 --> 00:14:14,880 và đưa phản hồi vào mô hình, 301 00:14:14,880 --> 00:14:16,920 sau đó so sánh kết quả mà mô hình dự đoán với 302 00:14:16,920 --> 00:14:18,639 "ground truth" (thực tế) 303 00:14:18,639 --> 00:14:20,199 vì tôi đã 304 00:14:20,199 --> 00:14:23,000 biết trước đáp án thực. 305 00:14:23,000 --> 00:14:27,320 Chúng ta cứ tiếp tục quá trình này trong vài tháng, 306 00:14:27,320 --> 00:14:30,639 hoặc có thể vài năm. Không, chỉ vài tháng thôi. 307 00:14:30,639 --> 00:14:32,480 Quá trình này mất thời gian vì, 308 00:14:32,480 --> 00:14:34,120 như bạn có thể hình dung, tôi có một 309 00:14:34,120 --> 00:14:35,880 tập dữ liệu rất lớn với rất nhiều câu, 310 00:14:35,880 --> 00:14:37,480 và tôi cần thực hiện 311 00:14:37,480 --> 00:14:40,199 dự đoán, sau đó quay lại sửa sai, 312 00:14:40,199 --> 00:14:43,240 và cứ thế. Nhưng cuối cùng 313 00:14:43,240 --> 00:14:45,639 mô hình sẽ hội tụ và tôi sẽ có kết quả. 314 00:14:45,639 --> 00:14:47,240 Công cụ tôi vừa nhắc đến, 315 00:14:47,240 --> 00:14:50,199 công cụ này chính là 316 00:14:50,199 --> 00:14:53,440 mô hình ngôn ngữ. 317 00:14:53,440 --> 00:14:56,440 Một mô hình ngôn ngữ đơn giản 318 00:14:56,440 --> 00:15:00,000 trông như thế này. Có thể 319 00:15:00,000 --> 00:15:02,320 khán giả đã từng thấy những mô hình này, 320 00:15:02,320 --> 00:15:05,160 đây là một đồ thị đơn giản, 321 00:15:05,160 --> 00:15:08,440 nhưng nó giúp minh họa cách thức hoạt động. 322 00:15:08,440 --> 00:15:10,600 Mạng nơ-ron mô hình ngôn ngữ này 323 00:15:10,600 --> 00:15:14,320 sẽ có vài đầu vào 324 00:15:14,320 --> 00:15:17,519 các nút tròn, 325 00:15:17,519 --> 00:15:21,240 vâng bên phải của tôi và của bạn, ok 326 00:15:21,240 --> 00:15:24,720 ở bên phải là đầu vào, 327 00:15:24,720 --> 00:15:28,360 và các nút tròn bên trái là đầu ra. 328 00:15:28,360 --> 00:15:31,160 Chúng ta đưa vào 329 00:15:31,160 --> 00:15:33,000 năm đầu vào, 330 00:15:33,000 --> 00:15:36,880 năm vòng tròn, 331 00:15:36,880 --> 00:15:39,800 và có ba đầu ra, ba vòng tròn. 332 00:15:39,800 --> 00:15:41,959 Và có những thứ ở giữa mà tôi 333 00:15:41,959 --> 00:15:44,680 không nói gì cả. Đây là 334 00:15:44,680 --> 00:15:47,680 các lớp (layers). Đây là những nút khác 335 00:15:47,680 --> 00:15:51,360 được cho là trừu tượng hóa dữ liệu đầu vào của tôi. 336 00:15:51,360 --> 00:15:54,759 Vì vậy, họ khái quát hóa. Ý tưởng là nếu tôi đặt 337 00:15:54,759 --> 00:15:58,399 nhiều lớp hơn 338 00:15:58,399 --> 00:16:00,600 các lớp giữa sẽ tổng quát hóa đầu vào 339 00:16:00,600 --> 00:16:03,000 và nhận ra các mẫu mà ban đầu 340 00:16:03,000 --> 00:16:05,880 không rõ ràng. 341 00:16:05,880 --> 00:16:07,399 Đầu vào cho các nút này 342 00:16:07,399 --> 00:16:10,399 không phải là từ, mà là vector - chuỗi số, 343 00:16:10,399 --> 00:16:13,279 nhưng hãy tạm quên điều đó. 344 00:16:13,279 --> 00:16:15,480 Vậy chúng ta có đầu vào, các lớp giữa, 345 00:16:15,480 --> 00:16:17,880 và đầu ra. Các kết nối 346 00:16:17,880 --> 00:16:20,880 giữa các nút được gọi 347 00:16:20,880 --> 00:16:23,240 là trọng số (weights), 348 00:16:23,240 --> 00:16:26,480 chính trọng số này là thứ mà mạng học được. 349 00:16:26,480 --> 00:16:29,240 Các trọng số thực chất là các con số. 350 00:16:29,240 --> 00:16:31,880 và ở đây tất cả đều được kết nối đầy đủ, vì vậy tôi có rất nhiều 351 00:16:31,880 --> 00:16:34,880 kết nối. Tại sao tôi lại thực hiện 352 00:16:34,880 --> 00:16:36,800 quá trình này để thực sự nói với bạn tất cả 353 00:16:36,800 --> 00:16:40,720 những điều đó? Bạn sẽ thấy trong một phút. Vì vậy, bạn có thể 354 00:16:40,720 --> 00:16:44,839 tính toán được 355 00:16:44,839 --> 00:16:48,360 mạng nơ-ron này lớn hay nhỏ tùy thuộc vào 356 00:16:48,360 --> 00:16:51,800 số lượng kết nối mà nó có. Vì vậy đối với 357 00:16:51,800 --> 00:16:54,800 mạng nơ-ron đơn giản này, tôi 358 00:16:54,800 --> 00:16:58,880 đã tính được số lượng trọng số 359 00:16:58,880 --> 00:17:01,399 Chúng tôi gọi là tham số, 360 00:17:01,399 --> 00:17:03,800 mà mạng cần học. 361 00:17:03,800 --> 00:17:07,240 Vì vậy, các tham số là 362 00:17:07,240 --> 00:17:10,359 số lượng đơn vị đầu vào, trong trường hợp này 363 00:17:10,359 --> 00:17:14,760 là 5, nhân với số đơn vị ở 364 00:17:14,760 --> 00:17:18,559 lớp tiếp theo, là 8. Cộng với 8, 365 00:17:18,559 --> 00:17:22,119 kết quả này cộng với 8 là độ lệch, 366 00:17:22,119 --> 00:17:24,480 đó là một điều gian lận mà các mạng nơ-ron này có. Một lần nữa, 367 00:17:24,480 --> 00:17:27,119 bạn cần phải học nó 368 00:17:27,119 --> 00:17:28,960 và nó sẽ sửa một chút cho mạng nơ-ron nếu nó bị tắt. 369 00:17:28,960 --> 00:17:30,440 Nó thực sự là thiên tài. 370 00:17:30,440 --> 00:17:32,600 Nếu dự đoán không đúng, 371 00:17:32,600 --> 00:17:34,520 Nó cố gắng điều chỉnh một chút để sửa lỗi. Vì vậy, cho 372 00:17:34,520 --> 00:17:36,799 mục đích của buổi nói chuyện này, tôi sẽ không đi sâu vào chi tiết, 373 00:17:36,799 --> 00:17:38,799 đi sâu vào chi tiết, tất cả những gì tôi muốn bạn 374 00:17:38,799 --> 00:17:40,840 thấy là có một cách để tính 375 00:17:40,840 --> 00:17:43,080 ra các tham số, cơ bản là 376 00:17:43,080 --> 00:17:46,760 số lượng đơn vị đầu vào nhân với số 377 00:17:46,760 --> 00:17:49,919 đơn vị mà đầu vào đang kết nối tới. 378 00:17:49,919 --> 00:17:52,720 Với mạng nơ-ron được kết nối đầy đủ này, 379 00:17:52,720 --> 00:17:56,840 nếu chúng ta cộng tất cả lại, ta sẽ có 380 00:17:56,840 --> 00:18:00,000 99 tham số có thể huấn luyện. 381 00:18:00,000 --> 00:18:02,679 Đây là một mạng nhỏ, phải không? Nhưng tôi muốn bạn 382 00:18:02,679 --> 00:18:04,919 nhớ rằng, mạng nhỏ này có 99 tham số. 383 00:18:04,919 --> 00:18:08,280 Khi bạn nghe về mạng có 384 00:18:08,280 --> 00:18:10,720 một tỷ tham số, 385 00:18:10,720 --> 00:18:15,120 hãy hình dung kích thước khổng lồ của nó. 386 00:18:15,120 --> 00:18:18,200 Vậy là chỉ có 99 cho mạng nơ-ron đơn giản này. 387 00:18:18,200 --> 00:18:21,440 Và đây là cách chúng ta đánh giá mô hình lớn như thế nào, 388 00:18:21,440 --> 00:18:24,720 mất bao lâu và tốn bao nhiêu, 389 00:18:24,720 --> 00:18:26,360 đó là số lượng 390 00:18:26,360 --> 00:18:29,480 tham số. Trong thực tế 391 00:18:29,480 --> 00:18:32,440 không ai sử dụng mạng nhỏ này. 392 00:18:32,440 --> 00:18:35,039 Đây chỉ là ví dụ cho sinh viên 393 00:18:35,039 --> 00:18:36,760 năm nhất học đại học. 394 00:18:36,760 --> 00:18:38,600 Thực tế, chúng ta 395 00:18:38,600 --> 00:18:41,440 sử dụng những 396 00:18:41,440 --> 00:18:45,000 mô hình khổng lồ, 397 00:18:45,000 --> 00:18:48,960 gồm nhiều khối. Và khối này có nghĩa là chúng được 398 00:18:48,960 --> 00:18:53,520 tạo thành từ các mạng nơ-ron khác. Vì vậy, tôi 399 00:18:53,520 --> 00:18:55,919 không biết có bao nhiêu người đã nghe về 400 00:18:55,919 --> 00:18:59,919 Bộ chuyển đổi. Tôi hy vọng là chưa. 401 00:18:59,919 --> 00:19:03,240 Oh wo, ok. Bộ chuyển đổi là các mạng nơ-ron được dùng 402 00:19:03,240 --> 00:19:06,640 để xây dựng ChatGPT. 403 00:19:06,640 --> 00:19:11,080 Trên thực tế GPT là viết tắt của "generative pre-trained transformers" 404 00:19:11,080 --> 00:19:13,600 (transformers cũng được có ngày trong tiêu đề). 405 00:19:13,600 --> 00:19:17,600 Đây là bản phác thảo của một transformer. 406 00:19:17,600 --> 00:19:21,320 Bạn có đầu vào 407 00:19:21,320 --> 00:19:23,799 và đầu vào không phải là từ, 408 00:19:23,799 --> 00:19:26,640 như tôi đã nói, nó là vector (embeddings). 409 00:19:26,640 --> 00:19:30,000 Và sau đó bạn sẽ có nó, 410 00:19:30,000 --> 00:19:33,760 một phiên bản lớn hơn của mạng kết nối. 411 00:19:33,760 --> 00:19:35,720 412 00:19:35,720 --> 00:19:39,480 Các vector này được đưa qua nhiều khối (blocks), 413 00:19:39,480 --> 00:19:42,679 và mỗi khối là một hệ thống phức tạp 414 00:19:42,679 --> 00:19:46,559 chứa mạng nơ-ron bên trong. Chúng ta 415 00:19:46,559 --> 00:19:48,320 sẽ không đi vào chi tiết, tôi không muốn, 416 00:19:48,320 --> 00:19:51,480 xin đừng đi, tất cả những gì tôi đang 417 00:19:51,480 --> 00:19:55,159 cố gắng, (khán giả cười) tất cả những gì tôi đang cố gắng nói là, bạn biết đấy, 418 00:19:55,159 --> 00:19:59,159 chúng ta có những khối này xếp chồng 419 00:19:59,159 --> 00:20:01,159 lên nhau, Transformer có 420 00:20:01,159 --> 00:20:03,360 tám khối như vậy, là những mạng nơ-ron mini, 421 00:20:03,360 --> 00:20:06,840 và nhiệm vụ này vẫn giữ nguyên. 422 00:20:06,840 --> 00:20:08,320 Đó là những gì tôi muốn bạn rút ra từ đây. 423 00:20:08,320 --> 00:20:10,559 Nhiệm vụ vẫn không thay đổi: đầu vào là ngữ cảnh, ví dụ 424 00:20:10,559 --> 00:20:12,760 "con gà bước đi," sau đó thực hiện 425 00:20:12,760 --> 00:20:15,960 xử lý để dự đoán phần tiếp theo 426 00:20:15,960 --> 00:20:18,120 ví dụ "qua đường". 427 00:20:18,120 --> 00:20:21,640 Và EOS (end of sentence) 428 00:20:21,640 --> 00:20:22,880 được dùng để 429 00:20:22,880 --> 00:20:24,600 đánh dấu kết thúc câu, giúp mạng nơ-ron nhận biết điểm dừng. 430 00:20:24,600 --> 00:20:26,240 Ý tôi là, chúng khá "ngốc," đúng không? 431 00:20:26,240 --> 00:20:28,280 Chúng ta cần chỉ rõ mọi thứ cho chúng. Khi tôi nghe rằng AI 432 00:20:28,280 --> 00:20:30,200 sẽ chiếm lĩnh thế giới, tôi chỉ nghĩ, 433 00:20:30,200 --> 00:20:33,520 "Thật sao? Chúng ta thậm chí còn phải 434 00:20:33,520 --> 00:20:37,919 viết ra từng chi tiết". Đây chính là transformer (bộ chuyển đổi), 435 00:20:37,919 --> 00:20:39,600 vua của các kiến trúc mô hình. 436 00:20:39,600 --> 00:20:41,240 Transformers ra đời 437 00:20:41,240 --> 00:20:43,600 năm 2017. Hiện tại không ai làm việc trên 438 00:20:43,600 --> 00:20:46,280 các kiến ​​trúc mới nữa. Thật đáng tiếc, 439 00:20:46,280 --> 00:20:48,080 trước đây mọi người 440 00:20:48,080 --> 00:20:50,240 sử dụng nhiều chúng, nhưng 441 00:20:50,240 --> 00:20:52,480 giờ thì không, tất cả mọi người đều sử dụng Transformers, 442 00:20:52,480 --> 00:20:55,799 chúng ta đã quyết định rằng chúng rất tuyệt. 443 00:20:55,799 --> 00:20:58,240 Được rồi, vậy chúng ta sẽ làm gì với chúng? 444 00:20:58,240 --> 00:20:59,960 Điều quan trọng và 445 00:20:59,960 --> 00:21:02,240 tuyệt vời là chúng ta sẽ thực hiện 446 00:21:02,240 --> 00:21:04,039 học tự giám sát (self-supervised learning). 447 00:21:04,039 --> 00:21:06,360 Đây chính là điều tôi đã nói: chúng ta có câu, cắt bớt, 448 00:21:06,360 --> 00:21:09,919 dự đoán, và tiếp tục cho đến khi 449 00:21:09,919 --> 00:21:11,640 chúng ta học được 450 00:21:11,640 --> 00:21:15,960 các xác suất. Hiểu kịp không? 451 00:21:15,960 --> 00:21:20,320 Tốt, được rồi. Khi chúng ta có 452 00:21:20,320 --> 00:21:23,720 transformer và đã cung cấp cho nó tất cả 453 00:21:23,720 --> 00:21:26,600 dữ liệu mà thế giới có, 454 00:21:26,600 --> 00:21:29,520 chúng ta sẽ có một mô hình huấn luyện trước (pre-trained model). Đó là lý do tại sao GPT 455 00:21:29,520 --> 00:21:32,000 được gọi là transformer tạo sinh, được huấn luyện sẵn (generative pre-trained transformer). 456 00:21:32,000 --> 00:21:34,919 Đây là một mô hình cơ bản đã được đào tạo 457 00:21:34,919 --> 00:21:37,400 từ rất nhiều nguồn dữ liệu 458 00:21:37,400 --> 00:21:39,840 của thế giới. 459 00:21:39,840 --> 00:21:42,600 Sau đó, chúng ta thường làm gì? Chúng ta 460 00:21:42,600 --> 00:21:44,440 có mô hình mục đích chung này và 461 00:21:44,440 --> 00:21:47,400 cần chuyên biệt hóa nó cho một nhiệm vụ cụ thể. 462 00:21:47,400 --> 00:21:49,760 Đây là điều gọi là fine-tuning 463 00:21:49,760 --> 00:21:52,080 (tinh chỉnh). Điều này có nghĩa là mạng nơ-ron 464 00:21:52,080 --> 00:21:53,679 đã có một số 465 00:21:53,679 --> 00:21:57,279 trọng số, và chúng ta cần chuyên biệt hóa 466 00:21:57,279 --> 00:21:59,240 mạng này. Chúng ta sẽ khởi tạo 467 00:21:59,240 --> 00:22:00,919 trọng số dựa trên những gì đã học được từ 468 00:22:00,919 --> 00:22:03,000 quá trình huấn luyện trước, và sau đó, đối với nhiệm vụ cụ thể, chúng ta sẽ 469 00:22:03,000 --> 00:22:05,919 điều chỉnh một tập trọng số mới. 470 00:22:05,919 --> 00:22:09,679 Ví dụ, nếu tôi có dữ liệu y tế, tôi sẽ 471 00:22:09,679 --> 00:22:12,679 lấy mô hình huấn luyện trước (pre-trained model), chuyên biệt hóa nó 472 00:22:12,679 --> 00:22:15,000 với dữ liệu y tế này, và sau đó tôi 473 00:22:15,000 --> 00:22:17,880 có thể thực hiện các 474 00:22:17,880 --> 00:22:20,400 nhiệm vụ cụ thể, chẳng hạn như viết một 475 00:22:20,400 --> 00:22:23,600 chẩn đoán từ một báo cáo. 476 00:22:23,600 --> 00:22:27,360 Khái niệm tinh chỉnh này rất quan trọng 477 00:22:27,360 --> 00:22:29,919 vì nó cho phép chúng ta ứng dụng mục đích đặc biệt từ 478 00:22:29,919 --> 00:22:32,279 các mô hình 479 00:22:32,279 --> 00:22:34,000 huấn luyện chung. 480 00:22:34,000 --> 00:22:37,039 Bây giờ, mọi người nghĩ rằng GPT và 481 00:22:37,039 --> 00:22:38,559 các mô hình tương tự là công cụ mục đích chung, 482 00:22:38,559 --> 00:22:41,880 mục đích chung nhưng thực tế, chúng được tinh chỉnh để trở thành 483 00:22:41,880 --> 00:22:44,159 mục đích chung, và chúng ta sẽ thấy cách thức 484 00:22:44,159 --> 00:22:49,320 của nó như thế nào. Câu hỏi bây giờ là: chúng ta 485 00:22:49,320 --> 00:22:52,039 có công nghệ cơ bản để thực hiện 486 00:22:52,039 --> 00:22:54,120 huấn luyện trước. Và tôi đã nói cho bạn cách làm, 487 00:22:54,120 --> 00:22:57,039 nếu bạn tải xuống toàn bộ web. 488 00:22:57,039 --> 00:22:59,720 Mô hình ngôn ngữ có thể tốt đến mức nào? 489 00:22:59,720 --> 00:23:02,120 Làm thế nào để nó trở nên tuyệt vời? 490 00:23:02,120 --> 00:23:06,400 Bởi vì khi GPT-1 và GPT-2 ra mắt, 491 00:23:06,400 --> 00:23:08,679 chúng không thực sự ấn tượng. 492 00:23:08,679 --> 00:23:12,039 Vậy nên, càng lớn càng tốt. 493 00:23:12,039 --> 00:23:14,919 Quy mô là yếu tố quan trọng, 494 00:23:14,919 --> 00:23:17,720 dù điều này không hay lắm, vì trước đây 495 00:23:17,720 --> 00:23:19,240 bạn biết đấy, mọi người không tin vào quy mô 496 00:23:19,240 --> 00:23:21,520 và bây giờ chúng ta thấy rằng quy mô rất 497 00:23:21,520 --> 00:23:24,120 quan trọng vì vậy kể từ 498 00:23:24,120 --> 00:23:29,159 năm 2018, chúng ta đã chứng kiến ​​sự 499 00:23:29,159 --> 00:23:33,400 gia tăng cực độ về 500 00:23:33,400 --> 00:23:36,080 kích thước mô hình và tôi có một số biểu đồ để minh họa cho 501 00:23:36,080 --> 00:23:38,559 điều này. Ok, tôi hi vọng những người ngồi phía sau 502 00:23:38,559 --> 00:23:40,080 có thể nhìn thấy đồ thị này. Vâng, bạn đã ổn thôi. 503 00:23:40,080 --> 00:23:41,760 504 00:23:41,760 --> 00:23:46,159 Đây là biểu đồ cho thấy 505 00:23:46,159 --> 00:23:48,960 số lượng tham số. Nhớ rằng, mạng nơ-ron đơn giản 506 00:23:48,960 --> 00:23:52,360 có 99 tham số. Biểu đồ này cho thấy số lượng tham số 507 00:23:52,360 --> 00:23:56,039 mà các mô hình này có. Chúng ta bắt đầu với 508 00:23:56,039 --> 00:23:59,320 một số lượng "bình thường". 509 00:23:59,320 --> 00:24:00,799 Vâng, đối với GPT-1 và tăng dần đến 510 00:24:00,799 --> 00:24:06,840 GPT-4, có một 511 00:24:06,840 --> 00:24:08,600 nghìn tỷ tham số 512 00:24:08,600 --> 00:24:11,520 (1 trillion). Đây là một 513 00:24:11,520 --> 00:24:14,520 mô hình rất rất lớn và bạn có thể thấy ở đây so sánh với 514 00:24:14,520 --> 00:24:17,679 não kiến, não chuột và bộ 515 00:24:17,679 --> 00:24:22,279 não người. 516 00:24:22,279 --> 00:24:26,799 Bộ não con người có 100 nghìn tỷ 517 00:24:26,799 --> 00:24:30,840 tham số (100 trillion). Vậy chúng ta vẫn còn cách xa mức độ 518 00:24:30,840 --> 00:24:32,720 của bộ não con người, và 519 00:24:32,720 --> 00:24:35,120 có lẽ chúng ta sẽ không bao giờ đạt đến được và chúng ta không thể 520 00:24:35,120 --> 00:24:37,120 so sánh GPT với não con người. 521 00:24:37,120 --> 00:24:40,279 Tôi chỉ muốn minh họa kích thước 522 00:24:40,279 --> 00:24:43,440 mô hình này lớn đến mức nào 523 00:24:43,440 --> 00:24:46,440 Còn số lượng từ mà mô hình đã "thấy" thì sao? 524 00:24:46,440 --> 00:24:48,880 Biểu đồ này cho thấy số lượng từ 525 00:24:48,880 --> 00:24:50,799 các mô hình ngôn ngữ này đã xử lý 526 00:24:50,799 --> 00:24:53,399 trong quá trình huấn luyện. Bạn sẽ thấy 527 00:24:53,399 --> 00:24:56,520 rằng số lượng này 528 00:24:56,520 --> 00:25:00,000 tăng lớn lên nhưng không tăng nhanh bằng 529 00:25:00,000 --> 00:25:03,480 số lượng tham số. Cộng đồng 530 00:25:03,480 --> 00:25:06,360 tập trung vào kích thước tham số của 531 00:25:06,360 --> 00:25:09,200 các mô hình này, nhưng trong thực tế là chúng ta hiện biết rằng 532 00:25:09,200 --> 00:25:12,360 chúng cần phải xử lý một lượng văn bản rất lớn. 533 00:25:12,360 --> 00:25:15,000 GPT-4 đã xử lý 534 00:25:15,000 --> 00:25:18,360 khoảng vài tỷ từ. 535 00:25:18,360 --> 00:25:22,159 Tôi không biết, vài tỷ từ. 536 00:25:22,159 --> 00:25:26,159 Tôi nghĩ tất cả các văn bản do con người viết ra là 100 tỷ, 537 00:25:26,159 --> 00:25:28,440 nên nó đang tiến gần mức đó. 538 00:25:28,440 --> 00:25:31,399 Nếu so sánh với số lượng từ mà một người đọc 539 00:25:31,399 --> 00:25:34,399 trong suốt cuộc đời của họ, nó ít hơn nhiều 540 00:25:34,399 --> 00:25:35,840 ngay cả khi họ đọc bạn biết đấy bởi vì 541 00:25:35,840 --> 00:25:38,200 mọi người ngày nay, bạn biết đấy, họ đọc nhưng 542 00:25:38,200 --> 00:25:39,520 họ không đọc tiểu thuyết, họ đọc 543 00:25:39,520 --> 00:25:42,039 điện thoại, dù sao thì, bạn thấy Wikipedia tiếng Anh 544 00:25:42,039 --> 00:25:44,880 vậy là chúng ta đang dần đạt đến 545 00:25:44,880 --> 00:25:47,919 giới hạn về lượng văn bản có sẵn mà 546 00:25:47,919 --> 00:25:50,960 chúng ta có thể có được và trên thực tế người ta có thể nói rằng 547 00:25:50,960 --> 00:25:53,080 GPT thật tuyệt vời, bạn thực sự có thể sử dụng nó để 548 00:25:53,080 --> 00:25:54,919 tạo ra nhiều văn bản hơn và sau đó sử dụng 549 00:25:54,919 --> 00:25:56,880 văn bản mà GPT đã tạo ra để 550 00:25:56,880 --> 00:25:59,120 huấn luyện lại mô hình. Nhưng chúng ta biết rằng văn bản do GPT tạo ra 551 00:25:59,120 --> 00:26:01,640 là không hoàn toàn chính xác 552 00:26:01,640 --> 00:26:03,520 và sẽ dẫn đến hiệu suất giảm dần, 553 00:26:03,520 --> 00:26:05,440 nên tại một thời điểm 554 00:26:05,440 --> 00:26:09,840 nào đó, chúng ta sẽ chạm đến ngưỡng giới hạn. 555 00:26:09,840 --> 00:26:12,039 Vậy chi phí để làm điều này là bao nhiêu? 556 00:26:12,039 --> 00:26:19,360 Được rồi, chi phí để huấn luyện GPT-4 557 00:26:19,640 --> 00:26:22,520 là 100 triệu USD ? 558 00:26:22,520 --> 00:26:25,520 Vậy khi nào họ nên bắt đầu làm lại? 559 00:26:25,520 --> 00:26:27,840 Rõ ràng đây không phải là một quy trình bạn có thể 560 00:26:27,840 --> 00:26:29,760 lặp đi lặp lại nhiều lần. 561 00:26:29,760 --> 00:26:31,720 Bạn cần phải rất cẩn thận, vì nếu mắc 562 00:26:31,720 --> 00:26:36,720 sai lầm, bạn có thể mất đến 563 00:26:36,720 --> 00:26:40,159 50 triệu USD. Bạn không thể bắt đầu lại từ đầu, 564 00:26:40,159 --> 00:26:42,000 vì vậy việc lập kế hoạch huấn luyện 565 00:26:42,000 --> 00:26:45,360 phải được thực hiện cực kỳ tinh vi, 566 00:26:45,360 --> 00:26:47,960 vì sai lầm sẽ rất tốn kém. Và tất nhiên, 567 00:26:47,960 --> 00:26:49,679 không phải ai cũng có thể làm điều này. Không phải ai cũng có 568 00:26:49,679 --> 00:26:53,080 100 triệu USD. Họ làm được điều đó vì 569 00:26:53,080 --> 00:26:56,360 có Microsoft hậu thuẫn, chứ không phải ai cũng có khả năng này. 570 00:26:56,360 --> 00:26:59,159 Giờ thì, đây là một video 571 00:26:59,159 --> 00:27:01,640 minh họa ảnh hưởng của việc mở rộng mô hình, hãy xem thử. 572 00:27:01,640 --> 00:27:04,120 tác động của việc mở rộng quy mô 573 00:27:04,120 --> 00:27:07,720 xem liệu nó có hiệu quả không. Vậy nên tôi sẽ chơi thêm một lần nữa. 574 00:27:07,720 --> 00:27:08,440 Vì vậy, 575 00:27:08,440 --> 00:27:12,080 đây là những nhiệm vụ bạn có thể thực hiện 576 00:27:12,080 --> 00:27:16,320 và số lượng nhiệm vụ 577 00:27:16,320 --> 00:27:18,760 so với số lượng tham số. Chúng ta bắt đầu 578 00:27:18,760 --> 00:27:20,799 với 8 tỷ tham số và 579 00:27:20,799 --> 00:27:22,080 mô hình chỉ có thể thực hiện 580 00:27:22,080 --> 00:27:26,520 một số nhiệm vụ cơ bản. Sau đó, khi số tham số tăng lên 581 00:27:26,520 --> 00:27:28,840 các nhiệm vụ cũng tăng, 582 00:27:28,840 --> 00:27:32,360 ví dụ: tóm tắt văn bản, trả lời câu hỏi, dịch thuật. 583 00:27:32,360 --> 00:27:35,600 Với 540 tỷ tham số, chúng ta có thêm nhiều nhiệm vụ phức tạp hơn, như hoàn thành mã lệnh, 584 00:27:35,600 --> 00:27:38,480 nhiệm vụ hơn, chúng ta bắt đầu 585 00:27:38,480 --> 00:27:41,559 với những nhiệm vụ rất đơn giản và 586 00:27:41,559 --> 00:27:45,000 sau đó chúng ta có thêm nhiều nhiệm vụ phức tạp hơn, như hoàn thành mã lệnh, 587 00:27:45,000 --> 00:27:46,799 Và sau đó chúng ta có thể đọc hiểu, hiểu ngôn ngữ, 588 00:27:46,799 --> 00:27:48,919 và dịch thuật. Vì vậy, bạn hiểu ý tôi chứ, 589 00:27:48,919 --> 00:27:52,200 cây nhiệm vụ này càng ngày càng phát triển mạnh mẽ hơn 590 00:27:52,200 --> 00:27:54,279 khi mô hình mở rộng. 591 00:27:54,279 --> 00:27:56,120 Và đây chính là điều mà mọi người phát hiện ra 592 00:27:56,120 --> 00:27:58,720 khi bạn mở rộng mô hình ngôn ngữ, bạn có thể làm được nhiều nhiệm vụ hơn. 593 00:27:58,720 --> 00:28:00,640 Ok, 594 00:28:00,640 --> 00:28:03,640 và bây giờ 595 00:28:03,679 --> 00:28:06,480 Có lẽ chúng ta đã xong. 596 00:28:06,480 --> 00:28:09,720 Nhưng những gì mọi người khám phá ra là 597 00:28:09,720 --> 00:28:13,600 nếu bạn thực sự sử dụng GPT 598 00:28:13,600 --> 00:28:16,360 nó không luôn hoạt động theo cách mà mọi người mong muốn. 599 00:28:16,360 --> 00:28:18,760 GPT được 600 00:28:18,760 --> 00:28:21,640 huấn luyện để dự đoán và 602 00:28:21,640 --> 00:28:23,799 hoàn thành câu, nhưng 601 00:28:23,799 --> 00:28:27,240 con người lại muốn dùng nó 602 00:28:27,240 --> 00:28:29,279 cho các nhiệm vụ khác, 603 00:28:29,279 --> 00:28:33,440 bởi vì họ có những tác vụ riêng mà các nhà phát triển chưa nghĩ ra. 604 00:28:33,440 --> 00:28:35,960 Đây là lúc khái niệm fine-tuning (tinh chỉnh) xuất hiện trở lại. 605 00:28:35,960 --> 00:28:39,399 nó không bao giờ rời khỏi chúng ta. Vì vậy, bây giờ những gì 606 00:28:39,399 --> 00:28:41,760 chúng ta sẽ làm là chúng ta sẽ thu thập rất 607 00:28:41,760 --> 00:28:44,000 nhiều hướng dẫn. Hướng dẫn này là 608 00:28:44,000 --> 00:28:46,720 ví dụ về những gì người dùng muốn 609 00:28:46,720 --> 00:28:49,799 ChatGPT thực hiện. Chẳng hạn như 610 00:28:49,799 --> 00:28:53,640 trả lời câu hỏi sau đây, hoặc trả thời câu hỏi theo 611 00:28:53,640 --> 00:28:56,120 từng bước. Chúng ta sẽ đưa các 612 00:28:56,120 --> 00:28:58,320 ví dụ này vào mô hình, 613 00:28:58,320 --> 00:29:02,360 gần 2.000 ví dụ, 614 00:29:02,360 --> 00:29:05,679 và tiến hành tinh chỉnh, 615 00:29:05,679 --> 00:29:07,880 dạy cho mô hình hiểu 616 00:29:07,880 --> 00:29:09,399 các nhiệm vụ mà con người 617 00:29:09,399 --> 00:29:13,720 muốn nó thực hiện. 618 00:29:13,720 --> 00:29:15,799 Cố gắng học chúng, Sau đó, mô hình có thể 619 00:29:15,799 --> 00:29:18,880 tổng quát hóa các 620 00:29:18,880 --> 00:29:21,120 nhiệm vụ chưa từng thấy, vì bạn và tôi 621 00:29:21,120 --> 00:29:23,919 có thể có các mục đích sử dụng khác nhau với 622 00:29:23,919 --> 00:29:26,320 mô hình ngôn ngữ này. 623 00:29:26,320 --> 00:29:28,039 624 00:29:28,039 --> 00:29:31,760 Nhưng đây là vấn đề: 625 00:29:32,159 --> 00:29:34,919 Chúng ta đang gặp vấn đề về sự liên kết và 626 00:29:34,919 --> 00:29:36,960 thực tế đây là vấn đề rất quan trọng và 627 00:29:36,960 --> 00:29:40,240 sẽ không để lại hậu quả trong 628 00:29:40,240 --> 00:29:41,519 trong 629 00:29:41,519 --> 00:29:44,039 tương lai và câu hỏi đặt ra là làm cách nào để 630 00:29:44,039 --> 00:29:46,679 tạo ra một tác nhân hành xử phù hợp 631 00:29:46,679 --> 00:29:49,480 với mong muốn của con người? 632 00:29:49,480 --> 00:29:51,360 Và tôi biết có rất nhiều từ và 633 00:29:51,360 --> 00:29:54,640 câu hỏi ở đây. Câu hỏi thực sự là: 634 00:29:54,640 --> 00:29:57,320 nếu chúng ta có các hệ thống AI với những kỹ năng 635 00:29:57,320 --> 00:30:00,840 mà chúng ta cho là quan trọng hoặc hữu ích, 636 00:30:00,840 --> 00:30:03,600 làm thế nào để chúng ta đảm bảo rằng chúng sẽ sử dụng 637 00:30:03,600 --> 00:30:06,960 các kỹ năng đó một cách đáng tin cậy 638 00:30:06,960 --> 00:30:11,480 cho các nhiệm vụ chúng ta muốn? 639 00:30:11,480 --> 00:30:15,559 Có một khung tư duy được gọi là khung vấn đề HHH 640 00:30:15,559 --> 00:30:20,760 Chúng ta muốn GPT phải hữu ích (helpful), trung thực (honest), 641 00:30:20,760 --> 00:30:24,159 và vô hại (harmless). Đây là yêu cầu tối thiểu. 642 00:30:24,159 --> 00:30:26,799 Sự hữu ích có nghĩa là gì ? 643 00:30:26,799 --> 00:30:28,720 nó phải làm theo hướng dẫn 644 00:30:28,720 --> 00:30:31,360 thực hiện các nhiệm vụ mà chúng ta muốn thực hiện 645 00:30:31,360 --> 00:30:34,039 và cung cấp câu trả lời và đặt 646 00:30:34,039 --> 00:30:37,559 những câu hỏi có liên quan theo 647 00:30:37,559 --> 00:30:38,960 ý định của người dùng. 648 00:30:38,960 --> 00:30:41,159 649 00:30:41,159 --> 00:30:43,080 GPT ban đầu không làm được điều này, 650 00:30:43,080 --> 00:30:46,279 nhưng dần dần nó đã cải thiện 651 00:30:46,279 --> 00:30:47,880 và hiện tại có thể đặt 652 00:30:47,880 --> 00:30:50,679 câu hỏi để làm rõ. Nó cần chính xác 653 00:30:50,679 --> 00:30:53,559 mặc dù vẫn chưa đạt 100% 654 00:30:53,559 --> 00:30:56,240 vì đôi khi thông tin 655 00:30:56,240 --> 00:30:58,480 vẫn sai lệch. 656 00:30:58,480 --> 00:31:02,600 Và vô hại, nghĩa là tránh các phản hồi độc hại, thiên vị hoặc xúc phạm. 657 00:31:02,600 --> 00:31:04,960 Và câu hỏi dành cho bạn là 658 00:31:04,960 --> 00:31:07,760 Làm thế nào để 659 00:31:07,760 --> 00:31:10,720 đạt được những điều này? 660 00:31:11,519 --> 00:31:14,559 Bạn biết câu 661 00:31:14,559 --> 00:31:16,679 trả lời rồi: tinh chỉnh (fine-tuning). 662 00:31:16,679 --> 00:31:18,720 Nhưng lần này, chúng ta sẽ 663 00:31:18,720 --> 00:31:20,960 tinh chỉnh theo cách khác: 664 00:31:20,960 --> 00:31:25,440 nhờ con người tham gia 665 00:31:25,440 --> 00:31:27,679 đánh giá các phản hồi. 666 00:31:27,679 --> 00:31:30,279 Ví dụ: với tiêu chí hữu ích, 667 00:31:30,279 --> 00:31:31,519 chúng ta có thể đặt câu hỏi, "Nguyên nhân nào khiến 668 00:31:31,519 --> 00:31:34,039 các mùa thay đổi?" Và đưa ra hai lựa chọn cho con người: 669 00:31:34,039 --> 00:31:36,679 "Sự thay đổi xảy ra liên tục và 670 00:31:36,679 --> 00:31:38,600 là một khía cạnh quan trọng 671 00:31:38,600 --> 00:31:41,200 của cuộc sống," (phản hồi tệ). 672 00:31:41,200 --> 00:31:43,679 "Các mùa thay đổi chủ yếu do độ nghiêng của trục Trái Đất," (phản hồi tốt). 673 00:31:43,679 --> 00:31:46,639 Chúng ta sẽ dùng đánh giá này 674 00:31:46,639 --> 00:31:49,279 để huấn luyện lại mô hình. 675 00:31:49,279 --> 00:31:52,679 Tinh chỉnh là điều rất 676 00:31:52,679 --> 00:31:55,960 quan trọng. Và bây giờ, dù ban đầu đã rất tốn kém, 677 00:31:55,960 --> 00:31:58,200 giờ đây chúng ta còn làm nó đắt đỏ hơn 678 00:31:58,200 --> 00:32:00,480 khi đưa con người vào quy trình. 679 00:32:00,480 --> 00:32:01,960 Bởi vì chúng ta phải trả tiền cho 680 00:32:01,960 --> 00:32:03,639 những người đưa ra các ưu tiên, chúng ta cần suy 681 00:32:03,639 --> 00:32:06,240 nghĩ về các nhiệm vụ. Điều này cũng áp dụng cho 682 00:32:06,240 --> 00:32:08,600 sự trung thực có thể chứng minh rằng P 683 00:32:08,600 --> 00:32:11,399 bằng NP không ? Không, điều đó là không thể, không phải là một câu trả lời 684 00:32:11,399 --> 00:32:13,720 Đây được xem là một 685 00:32:13,720 --> 00:32:15,519 vấn đề rất khó và chưa có lời giải trong ngành 686 00:32:15,519 --> 00:32:18,279 khoa học máy tính, là một câu trả lời tốt hơn. 687 00:32:18,279 --> 00:32:21,840 Và điều này cũng tương tự với sự vô hại. 688 00:32:21,840 --> 00:32:24,960 Được rồi, tôi nghĩ đã đến lúc, hãy xem liệu chúng ta có thể thực hiện một bản trình diễn 689 00:32:24,960 --> 00:32:26,639 hay không ?. Vâng, thật tệ nếu bạn xóa hết tất cả 690 00:32:26,639 --> 00:32:27,720 các tệp 691 00:32:27,720 --> 00:32:33,159 Được rồi, chờ chút, được rồi. Bây giờ chúng ta có GPT ở đây. 692 00:32:33,159 --> 00:32:35,960 Tôi sẽ hỏi một số câu hỏi, sau đó 693 00:32:35,960 --> 00:32:37,360 chúng ta sẽ nhận câu hỏi từ 694 00:32:37,360 --> 00:32:40,480 khán giả, được chứ? Hãy hỏi một câu hỏi. 695 00:32:40,480 --> 00:32:44,360 "Vương quốc Anh có phải là một chế độ quân chủ không?" 696 00:32:44,360 --> 00:32:47,039 Bạn có nhìn thấy câu hỏi đó ở trên không? 697 00:32:47,600 --> 00:32:51,840 Tôi không chắc. 698 00:32:52,639 --> 00:32:55,720 Và nó không tạo ra câu trả lời. 699 00:32:55,720 --> 00:32:58,320 Ồ, hoàn hảo, được rồi. 700 00:32:58,320 --> 00:33:01,600 Bạn nhận thấy điều gì? Đầu tiên, câu trả lời 701 00:33:01,600 --> 00:33:04,600 quá dài. Tôi luôn thấy phiền về điều này. 702 00:33:04,600 --> 00:33:07,000 Nó quá dài. Bạn thấy nó nói gì không? "Theo bản cập nhật kiến thức cuối cùng của tôi vào tháng 9 năm 2021, 703 00:33:07,000 --> 00:33:09,360 Vương quốc Anh là một chế độ 704 00:33:09,360 --> 00:33:10,960 quân chủ lập hiến." Có thể là nó không còn là vậy nữa, đúng không? 705 00:33:10,960 --> 00:33:12,919 Điều gì đó đã xảy ra. 706 00:33:12,919 --> 00:33:15,399 "Điều này có nghĩa là dù có một vị vua 707 00:33:15,399 --> 00:33:17,880 hoặc nữ hoàng, nhưng người trị vì vào 708 00:33:17,880 --> 00:33:21,480 thời điểm đó là Nữ hoàng Elizabeth III." 709 00:33:21,480 --> 00:33:23,200 Vậy nó nói với bạn rằng, bạn biết đấy, 710 00:33:23,200 --> 00:33:25,480 tôi không biết điều gì đã xảy ra, nhưng lúc đó có 711 00:33:25,480 --> 00:33:30,159 Nữ hoàng Elizabeth. 712 00:33:30,159 --> 00:33:34,440 Giờ nếu bạn hỏi nó, "Ai là Rishi?" 713 00:33:34,440 --> 00:33:38,639 Nếu tôi có thể gõ, "Rishi Sunak," nó có biết không? 714 00:33:43,960 --> 00:33:47,039 "Một chính trị gia người Anh. Theo bản 715 00:33:47,039 --> 00:33:49,639 cập nhật kiến thức cuối cùng của tôi, 716 00:33:49,639 --> 00:33:53,000 ông ấy là Bộ trưởng Tài chính." 717 00:33:53,000 --> 00:33:54,639 Vậy là nó không biết rằng ông ấy là 718 00:33:54,639 --> 00:33:57,720 Thủ tướng. "Hãy 719 00:33:57,720 --> 00:34:01,320 viết cho tôi một bài thơ, 720 00:34:01,320 --> 00:34:03,960 viết một bài thơ về." Về cái gì đây? 721 00:34:03,960 --> 00:34:08,120 Cho tôi hai gợi ý, được không? [Khán giả] Trí tuệ nhân tạo tạo sinh. 722 00:34:08,159 --> 00:34:11,520 (Khán giả cười)- Nó sẽ biết. 723 00:34:11,520 --> 00:34:13,399 Nó sẽ biết, hãy làm một bài thơ khác về... 724 00:34:13,399 --> 00:34:17,159 ... mèo. 725 00:34:17,159 --> 00:34:20,239 Một con mèo và một con sóc, chúng ta sẽ làm về mèo và sóc. 726 00:34:20,239 --> 00:34:24,678 "Mèo và 727 00:34:25,879 --> 00:34:27,679 ...sóc." 728 00:34:27,679 --> 00:34:30,040 "Mèo và sóc gặp nhau và hiểu nhau. Một câu chuyện về sự 729 00:34:30,040 --> 00:34:32,599 tò mò," ồ. (Khán giả cười) 730 00:34:32,599 --> 00:34:36,239 Ôi trời, được rồi, tôi sẽ không đọc hết. 731 00:34:36,239 --> 00:34:38,960 Họ muốn tôi kết thúc 732 00:34:38,960 --> 00:34:42,719 lúc 8 giờ, nên... 733 00:34:42,719 --> 00:34:48,359 Hãy nói, "Bạn có thể thử một 734 00:34:48,359 --> 00:34:51,679 bài thơ ngắn hơn không?" [Khán giả] Thử một bài haiku. 735 00:34:51,679 --> 00:34:54,960 "Bạn có thể thử, bạn có thể 736 00:34:54,960 --> 00:34:55,879 thử làm 737 00:34:55,879 --> 00:34:57,680 một bài 738 00:34:57,680 --> 00:35:01,240 haiku không?" Làm cho tôi một bài haiku. 739 00:35:04,480 --> 00:35:07,800 "Giữa sắc thu vàng, 740 00:35:07,800 --> 00:35:11,440 lá thì thầm bí mật chưa từng kể, câu chuyện của thiên nhiên, đậm nét." 741 00:35:11,440 --> 00:35:16,200 (Khán giả vỗ tay) Được rồi, đừng vỗ tay, 742 00:35:16,200 --> 00:35:18,960 được chứ, tiếp tục, được rồi, 743 00:35:18,960 --> 00:35:21,119 còn điều gì nữa mà khán giả muốn hỏi không, 744 00:35:21,119 --> 00:35:22,599 nhưng phải khó? Có ai không? 745 00:35:22,599 --> 00:35:27,920 [Khán giả] Alan Turing học trường nào? 746 00:35:27,920 --> 00:35:36,480 Hoàn hảo, "Alan Turing học trường nào?" 747 00:35:38,520 --> 00:35:42,920 Ôi trời. (Khán giả cười) Ông ấy đã học, bạn có biết không? 748 00:35:42,920 --> 00:35:44,200 Tôi không biết liệu điều này có đúng không, đây là 749 00:35:44,200 --> 00:35:46,119 vấn đề. Trường Sherborne, có ai 750 00:35:46,119 --> 00:35:49,480 xác minh được không? Trường King's College, Cambridge, 751 00:35:49,480 --> 00:35:52,599 Princeton. Đúng, được rồi, đây là một câu hỏi khác. 752 00:35:52,599 --> 00:35:53,839 "Hãy nói một câu chuyện cười 753 00:35:53,839 --> 00:35:57,720 về 754 00:35:57,720 --> 00:36:00,560 Alan Turing. Được rồi, tôi không thể gõ nhưng nó sẽ, được chứ. 755 00:36:00,560 --> 00:36:03,119 "Câu chuyện cười nhẹ nhàng. Tại sao 756 00:36:03,119 --> 00:36:04,800 Alan Turing giữ cho máy tính của mình luôn lạnh?" 757 00:36:04,800 --> 00:36:08,079 Bởi vì ông ấy không muốn nó bị 758 00:36:09,480 --> 00:36:11,560 "cắn byte." 759 00:36:11,560 --> 00:36:16,040 (Khán giả cười) Tệ quá. Được rồi, 760 00:36:16,040 --> 00:36:22,920 được rồi. - Giải thích 761 00:36:22,920 --> 00:36:25,640 762 00:36:25,720 --> 00:36:28,119 tại sao điều đó buồn cười. 763 00:36:28,119 --> 00:36:30,599 Khán giả cười) - Ồ, rất hay. 764 00:36:30,599 --> 00:36:33,680 "Tại sao đây lại là một câu chuyện cười hài hước?" 765 00:36:33,680 --> 00:36:36,000 (Khán giả cười) "Bị cắn byte 766 00:36:36,119 --> 00:36:39,000 767 00:36:39,000 --> 00:36:40,839 là một cách 768 00:36:40,839 --> 00:36:43,440 chơi chữ thông minh 769 00:36:43,440 --> 00:36:45,440 và bất ngờ." (Khán giả cười) Được rồi, bạn mất hết tinh thần, 770 00:36:45,440 --> 00:36:48,640 nhưng nó giải thích được, nó giải thích được, được chứ. 771 00:36:48,640 --> 00:36:52,359 Đúng, còn gì nữa không từ các bạn. 772 00:36:52,359 --> 00:36:53,760 [Khán giả] Ý thức là gì? 773 00:36:53,760 --> 00:36:56,000 Nó sẽ biết vì nó đã thấy 774 00:36:56,000 --> 00:36:59,440 các định nghĩa và sẽ tạo ra 775 00:36:59,440 --> 00:37:03,720 một đoạn dài lê thê. Chúng ta thử nhé? 776 00:37:03,880 --> 00:37:06,319 Nói lại? [Khán giả] Viết một bài hát về 777 00:37:06,319 --> 00:37:11,760 thuyết tương đối. 778 00:37:11,760 --> 00:37:19,040 Được rồi, "Viết một bài hát." - Ngắn. (Khán giả cười) - Các bạn học nhanh đấy. 779 00:37:21,280 --> 00:37:25,079 "Một bài hát ngắn về thuyết tương đối." 780 00:37:25,599 --> 00:37:28,599 Ôi trời ơi. (Khán giả cười) 781 00:37:29,240 --> 00:37:31,560 Đây 782 00:37:32,079 --> 00:37:35,880 là ngắn sao ? (Khán giả cười) Được rồi, phần kết, được chứ, vậy hãy xem, 783 00:37:35,880 --> 00:37:38,839 nó không làm theo chỉ dẫn. Nó không hữu ích. 784 00:37:38,839 --> 00:37:41,040 Và điều này đã được tinh chỉnh. 785 00:37:41,040 --> 00:37:43,920 Được rồi, phần hay nhất là ở đây. Nó nói rằng, 786 00:37:43,920 --> 00:37:46,760 "Einstein nói, 'Eureka!'một ngày định mệnh, 787 00:37:46,760 --> 00:37:49,480 khi ông suy ngẫm về các vì sao theo 788 00:37:49,480 --> 00:37:52,319 cách rất riêng của mình. 789 00:37:52,319 --> 00:37:55,720 Thuyết tương đối, ông ấy đã hé lộ, 790 00:37:55,720 --> 00:37:58,200 một câu chuyện vũ trụ, cổ xưa và đậm chất." Tôi phải khen ngợi điều đó, được chứ. 791 00:37:58,200 --> 00:38:02,079 Giờ quay lại bài nói chuyện, 792 00:38:02,079 --> 00:38:04,040 vì tôi muốn nói một chút, 793 00:38:04,040 --> 00:38:06,560 trình bày, tôi muốn nói thêm một chút về, 794 00:38:06,560 --> 00:38:07,359 795 00:38:07,359 --> 00:38:10,800 bạn biết đấy: Điều này tốt hay xấu, 796 00:38:10,800 --> 00:38:13,480 có công bằng không, liệu chúng ta có đang gặp nguy hiểm không? 797 00:38:13,480 --> 00:38:15,359 Được rồi, gần như không thể kiểm soát hoàn toàn 798 00:38:15,359 --> 00:38:19,000 nội dung mà họ tiếp xúc, đúng chứ? 799 00:38:19,000 --> 00:38:20,640 Và luôn tồn tại các thiên kiến lịch sử. 800 00:38:20,640 --> 00:38:22,560 Chúng ta đã thấy điều này qua ví dụ về Nữ hoàng 801 00:38:22,560 --> 00:38:23,760 và Rishi Sunak. 802 00:38:23,760 --> 00:38:27,599 Các mô hình AI đôi khi cũng thể hiện 803 00:38:27,599 --> 00:38:30,640 những hành vi không mong muốn. 804 00:38:30,640 --> 00:38:34,359 Ví dụ, đây là một trường hợp nổi tiếng: 805 00:38:34,359 --> 00:38:37,839 Google giới thiệu mô hình của họ mang tên 806 00:38:37,839 --> 00:38:42,240 Bard và đăng một dòng tweet, 807 00:38:42,240 --> 00:38:44,240 họ đã hỏi Bard rằng 808 00:38:44,240 --> 00:38:46,240 809 00:38:46,240 --> 00:38:49,680 "Có phát hiện mới nào từ Kính viễn vọng Không gian James Webb 810 00:38:49,680 --> 00:38:52,760 mà tôi có thể kể cho con trai 9 tuổi của mình không?" 811 00:38:52,760 --> 00:38:55,240 Và nó trả lời ba điều. Trong đó, nó tuyên bố rằng: 812 00:38:55,240 --> 00:38:58,440 "Kính viễn vọng này đã chụp được bức ảnh đầu tiên về 813 00:38:58,440 --> 00:39:02,800 một hành tinh ngoài Hệ Mặt Trời." 814 00:39:02,800 --> 00:39:04,839 Rồi xuất hiện Grant Tremblay, 815 00:39:04,839 --> 00:39:07,280 một nhà vật lý thiên văn có tiếng, và ông ấy nói: 816 00:39:07,280 --> 00:39:09,480 "Tôi rất tiếc, chắc chắn 817 00:39:09,480 --> 00:39:13,079 Bard rất tuyệt vời, nhưng nó đã sai. 818 00:39:13,079 --> 00:39:15,880 Hình ảnh đầu tiên về một hành tinh ngoài Hệ Mặt Trời không phải do kính viễn vọng này chụp 819 00:39:15,880 --> 00:39:18,160 mà do một nhóm khác 820 00:39:18,160 --> 00:39:21,560 vào năm 2004." Kết quả là, 821 00:39:21,560 --> 00:39:24,960 lỗi này đã khiến Google, 822 00:39:24,960 --> 00:39:29,640 thuộc công ty Alphabet, mất 100 tỷ USD. 823 00:39:29,640 --> 00:39:31,560 được rồi 824 00:39:31,560 --> 00:39:34,960 Quá tệ. Nếu bạn hỏi ChatGPT: "Kể một câu chuyện 825 00:39:34,960 --> 00:39:38,560 cười về đàn ông," nó sẽ trả lời và nói rằng câu chuyện 828 00:39:38,560 --> 00:39:40,760 có thể hài hước. Ví dụ: "Tại sao đàn ông cần xem lại pha quay chậm 826 00:39:40,760 --> 00:39:42,680 khi xem thể thao? Vì sau 827 00:39:42,680 --> 00:39:45,040 30 giây, họ quên mất chuyện gì đã xảy ra". 828 00:39:45,040 --> 00:39:47,480 Hy vọng bạn thấy vui. Nhưng nếu bạn hỏi về 829 00:39:47,480 --> 00:39:49,960 phụ nữ, nó sẽ từ chối. 830 00:39:51,520 --> 00:39:53,560 (Khán giả cười) Đúng vậy. 831 00:39:53,560 --> 00:39:55,400 832 00:39:55,400 --> 00:39:59,440 Nó được tinh chỉnh. 833 00:39:59,440 --> 00:40:02,160 - Chính xác, nó đã được tinh chỉnh. (Khán giả cười) "Ai là nhà độc tài tồi tệ nhất trong nhóm này: 834 00:40:02,160 --> 00:40:04,760 Trump, Hitler, Stalin, Mao?" 835 00:40:04,760 --> 00:40:08,040 Nó không đưa ra quan điểm rõ ràng, 836 00:40:08,040 --> 00:40:11,200 chỉ nói rằng tất cả họ đều tồi tệ. 837 00:40:11,200 --> 00:40:13,119 "Những nhà lãnh đạo này được xem là một trong những 838 00:40:13,119 --> 00:40:18,000 nhà độc tài tồi tệ nhất trong lịch sử" 839 00:40:18,000 --> 00:40:21,000 Được rồi, đúng vậy. 840 00:40:21,800 --> 00:40:25,400 Một truy vấn của ChatGPT như chúng ta vừa thực hiện tiêu tốn năng lượng 841 00:40:25,400 --> 00:40:28,240 gấp 100 lần so với 842 00:40:28,240 --> 00:40:30,800 một truy vấn 843 00:40:30,800 --> 00:40:33,760 tìm kiếm Google. Việc suy luận, tức là tạo ra 844 00:40:33,760 --> 00:40:36,760 ngôn ngữ, tiêu thụ rất nhiều năng lượng, thậm chí còn đắt đỏ hơn 845 00:40:36,760 --> 00:40:38,880 việc huấn luyện mô hình. Ví dụ, khi huấn luyện 846 00:40:38,880 --> 00:40:42,400 Llama 2, một mô hình tương tự GPT, 847 00:40:42,400 --> 00:40:45,880 nó đã thải ra 539 tấn CO2. 848 00:40:45,880 --> 00:40:49,119 Mô hình càng lớn, 849 00:40:49,119 --> 00:40:52,280 chúng càng cần nhiều năng lượng và thải ra nhiều khí 850 00:40:52,280 --> 00:40:55,400 trong quá trình hoạt động. 851 00:40:55,400 --> 00:40:57,839 Hãy tưởng tượng có rất nhiều mô hình như vậy 852 00:40:57,839 --> 00:41:00,720 hoạt động cùng lúc. 853 00:41:00,720 --> 00:41:03,880 Về xã hội, một số công việc sẽ bị mất. Chúng ta không thể phủ nhận điều này. 854 00:41:03,880 --> 00:41:05,319 Goldman Sachs 855 00:41:05,319 --> 00:41:08,160 dự đoán 300 triệu việc làm có thể bị ảnh hưởng. 856 00:41:08,160 --> 00:41:10,119 Tôi không chắc về điều đó, bạn biết chúng ta không biết 857 00:41:10,119 --> 00:41:14,440 tương lai thế nào, nhưng một số công việc, 858 00:41:14,440 --> 00:41:17,240 đặc biệt là các nhiệm vụ lặp đi lặp lại, sẽ gặp rủi ro. 859 00:41:17,240 --> 00:41:19,640 Ví dụ, tạo tin tức giả. 860 00:41:19,640 --> 00:41:22,880 Đây là những trường hợp đã được ghi nhận 861 00:41:22,880 --> 00:41:25,839 trên báo chí. Một sinh viên đại học đã viết một bài 862 00:41:25,839 --> 00:41:28,319 blog và đánh lừa mọi người 863 00:41:28,319 --> 00:41:32,920 bằng cách sử dụng ChatGPT. 864 00:41:32,920 --> 00:41:36,160 Chúng có thể tạo ra tin giả. 865 00:41:36,160 --> 00:41:38,800 Và đây là một bài hát, các bạn có biết chuyện này không? 866 00:41:38,800 --> 00:41:40,680 Tôi biết rằng chúng ta đang tập trung 867 00:41:40,680 --> 00:41:44,200 vào văn bản nhưng công nghệ tương tự cũng có thể được 868 00:41:44,200 --> 00:41:46,720 sử dụng cho âm thành và đây là một 869 00:41:46,720 --> 00:41:50,040 trường hợp nổi tiếng khi ai đó 870 00:41:50,040 --> 00:41:53,280 đã tạo ra bài hát này và tuyên bố rằng 871 00:41:53,280 --> 00:41:55,640 nó là sự hợp tác giữa 872 00:41:55,640 --> 00:41:58,640 Drake và The Weeknd. Có ai biết họ 873 00:41:58,640 --> 00:42:00,720 là ai không? Đúng rồi, 874 00:42:00,720 --> 00:42:03,240 những rapper người Canada, và họ cũng khá nổi tiếng. 875 00:42:03,240 --> 00:42:09,400 Tôi có nên bật bài hát này không? - Có. - Được rồi. 876 00:42:09,400 --> 00:42:12,310 Bài hát nghe rất thuyết phục. 877 00:42:12,310 --> 00:42:22,889 ♪ Tôi quay lại với người yêu cũ, như Selena tái xuất, ay ♪ ♪ Nghe Justin Bieber, cơn sốt vẫn chưa hết, ay ♪ ♪ Cô ấy biết điều mình cần ♪ 878 00:42:25,160 --> 00:42:27,640 - Nghe có vẻ 879 00:42:27,640 --> 00:42:29,599 hoàn toàn thuyết phục, 880 00:42:29,599 --> 00:42:33,200 đúng không? 881 00:42:33,200 --> 00:42:35,839 Bạn đã thấy công nghệ tương tự này nhưng hơi khác một chút chưa? 882 00:42:35,839 --> 00:42:37,920 Đây là một deepfake cho thấy Trump bị bắt. 883 00:42:37,920 --> 00:42:38,800 Làm thế nào để bạn biết 884 00:42:38,800 --> 00:42:42,480 đó là deepfake? 885 00:42:42,480 --> 00:42:46,200 Bàn tay của ông ấy, đúng không? 886 00:42:46,200 --> 00:42:49,119 Nó quá ngắn, không đúng tỷ lệ. 887 00:42:49,119 --> 00:42:53,280 Đúng vậy, bạn có thể thấy nó gần như thật, nhưng vẫn không hoàn toàn đúng. Được rồi, 888 00:42:53,280 --> 00:42:54,800 tôi còn hai slide về tương lai 889 00:42:54,800 --> 00:42:56,680 trước khi họ đến và yêu cầu tôi dừng lại, 890 00:42:56,680 --> 00:42:58,160 vì tôi được thông báo rằng tôi phải kết thúc lúc 8 giờ để dành thời gian 891 00:42:58,160 --> 00:43:00,880 cho các câu hỏi. Được rồi, ngày mai. 892 00:43:00,880 --> 00:43:05,359 Chúng ta không thể đoán trước tương lai, và không, 893 00:43:05,359 --> 00:43:07,359 tôi không nghĩ rằng những 894 00:43:07,359 --> 00:43:08,880 cỗ máy "ác quỷ" này 895 00:43:08,880 --> 00:43:11,160 sẽ xuất hiện và tiêu diệt tất cả chúng ta. Tôi sẽ để lại cho bạn một số 896 00:43:11,160 --> 00:43:14,240 suy nghĩ từ Tim Berners-Lee. 897 00:43:14,240 --> 00:43:15,720 Đối với những ai chưa biết, ông ấy là người phát minh ra 898 00:43:15,720 --> 00:43:18,359 Internet.Thực ra, ông ấy là Sir Tim Berners-Lee. 899 00:43:18,359 --> 00:43:21,359 Ông ấy đã nói hai điều rất hợp lý với tôi. 900 00:43:21,359 --> 00:43:23,720 Đầu tiên, chúng ta thực sự không biết 901 00:43:23,720 --> 00:43:26,400 AI siêu thông minh sẽ trông như thế nào 902 00:43:26,400 --> 00:43:28,839 sẽ trông như thế nào. Chúng ta chưa tạo ra nó, vì vậy 903 00:43:28,839 --> 00:43:31,119 khó mà đưa ra những tuyên bố như vậy. 904 00:43:31,119 --> 00:43:33,240 Tuy nhiên, khả năng cao là sẽ có rất nhiều 905 00:43:33,240 --> 00:43:36,119 AI thông minh, và khi nói đến AI thông minh, 906 00:43:36,119 --> 00:43:39,880 chúng ta đang nói về những thứ như GPT. 907 00:43:39,880 --> 00:43:42,359 Nhiều công nghệ trong số đó sẽ tốt và giúp chúng ta 908 00:43:42,359 --> 00:43:45,040 làm nhiều việc. Tuy nhiên, một số có thể 909 00:43:45,040 --> 00:43:48,359 rơi vào tay những cá nhân 910 00:43:48,359 --> 00:43:51,400 những cá nhân đó muốn gây hại và 911 00:43:51,400 --> 00:43:54,160 và dường như việc giảm thiểu thiệt hại do 912 00:43:54,160 --> 00:43:57,720 các công cụ này gây ra dễ dàng hơn là 913 00:43:57,720 --> 00:44:00,440 ngăn chặn hoàn toàn sự tồn tại của chúng. Vì vậy, chúng ta 914 00:44:00,440 --> 00:44:02,200 không thể loại bỏ chúng hoàn toàn, 915 00:44:02,200 --> 00:44:04,079 nhưng chúng ta với tư cách là một xã hội có thể 916 00:44:04,079 --> 00:44:05,400 giảm thiểu 917 00:44:05,400 --> 00:44:07,760 rủi ro. Điều này rất thú vị. 918 00:44:07,760 --> 00:44:10,400 Đây là một cuộc khảo sát của Hội đồng Nghiên cứu Úc, trong đó họ 919 00:44:10,400 --> 00:44:12,960 đã tiến hành một cuộc khảo sát và họ đã giải quyết 920 00:44:12,960 --> 00:44:15,800 một kịch bản giả định rằng 921 00:44:15,800 --> 00:44:20,640 liệu Chad GPT 4 có thể tự 922 00:44:20,640 --> 00:44:23,359 nhân bản, 923 00:44:23,359 --> 00:44:26,040 tự tạo bản sao, thu thập tài nguyên và 924 00:44:26,040 --> 00:44:28,800 trở thành một tác nhân nguy hiểm hay không, 925 00:44:28,800 --> 00:44:31,319 giống như trong phim ảnh. 926 00:44:31,319 --> 00:44:35,800 Câu trả lời là không, nó không thể làm được điều này, nó không thể 927 00:44:35,800 --> 00:44:37,720 và họ đã có một số thử nghiệm cụ thể 928 00:44:37,720 --> 00:44:39,800 và nó đã thất bại trên tất cả các thử nghiệm đó, chẳng hạn như 929 00:44:39,800 --> 00:44:41,599 thiết lập một mô hình ngôn ngữ nguồn mở 930 00:44:41,599 --> 00:44:44,200 trên một máy chủ mới, nó không thể làm được 931 00:44:44,200 --> 00:44:48,440 điều đó, được rồi, slide cuối cùng, quan điểm của tôi về vấn đề này 932 00:44:48,440 --> 00:44:50,839 là chúng ta không thể quay ngược 933 00:44:50,839 --> 00:44:54,480 thời gian và mỗi khi bạn nghĩ về 934 00:44:54,480 --> 00:44:57,119 AI đến đó để giết bạn, bạn 935 00:44:57,119 --> 00:44:58,880 nên nghĩ xem mối đe dọa lớn hơn 936 00:44:58,880 --> 00:45:02,480 đối với nhân loại là gì: AI hay biến đổi khí hậu 937 00:45:02,480 --> 00:45:04,160 Cá nhân tôi cho rằng biến đổi khí hậu sẽ 938 00:45:04,160 --> 00:45:06,200 xóa sổ tất cả chúng ta trước khi AI trở nên 939 00:45:06,200 --> 00:45:07,119 siêu 940 00:45:07,119 --> 00:45:10,359 thông minh. Vậy ai là người kiểm soát AI 941 00:45:10,359 --> 00:45:12,280 có một số người ở đó, 942 00:45:12,280 --> 00:45:14,680 hy vọng có lý trí. Và ai là người 943 00:45:14,680 --> 00:45:17,640 hưởng lợi từ nó? Lợi ích có lớn hơn 944 00:45:17,640 --> 00:45:20,520 rủi ro không? Trong một số trường hợp thì có, 945 00:45:20,520 --> 00:45:24,079 nhưng trong nhiều trường hợp khác thì không. 946 00:45:24,079 --> 00:45:26,920 Lịch sử đã cho thấy rằng tất cả các công nghệ tiềm ẩn rủi ro, 947 00:45:26,920 --> 00:45:29,960 chẳng hạn như năng lượng hạt nhân, 948 00:45:29,960 --> 00:45:32,359 đều đã được quản lý chặt chẽ. 949 00:45:32,359 --> 00:45:34,760 Vì vậy, quy định đang được tiến hành, 950 00:45:34,760 --> 00:45:38,480 và hãy quan sát lĩnh vực này. Với điều đó, tôi xin dừng lại và 951 00:45:38,480 --> 00:45:40,440 sẵn sàng lắng nghe câu hỏi từ các bạn. 952 00:45:40,440 --> 00:45:43,080 Cảm ơn các bạn rất nhiều vì đã lắng nghe, các bạn thật tuyệt vời. 953 00:45:43,080 --> 00:45:54,880 954 00:45:54,880 --> 00:45:57,880 tuyệt vời