0:00:06.470,0:00:09.400 [Âm nhạc] 0:00:09.400,0:00:12.040 [Vỗ tay] 0:00:12.040,0:00:16.119 Wow, đông quá nhỉ. Tốt, cảm ơn 0:00:16.119,0:00:20.640 vì lời giới thiệu đáng yêu đó. 0:00:20.640,0:00:22.680 0:00:22.680,0:00:25.160 Được rồi, vậy 0:00:25.160,0:00:28.279 trí tuệ nhân tạo sáng tạo (generative artificial intelligence) là gì? 0:00:28.279,0:00:30.199 tôi muốn phần này có tính tương tác một chút 0:00:30.199,0:00:32.200 vì vậy sẽ có phần tham gia 0:00:32.200,0:00:34.920 tham gia từ những người ở đây 0:00:34.920,0:00:36.960 Những người tổ chức buổi giảng này nói với tôi, "Oh, bạn là người 0:00:36.960,0:00:40.120 ít hiểu biết về công nghệ đối với một người làm việc về AI." 0:00:40.120,0:00:42.039 Tôi không có vụ nổ hay 0:00:42.039,0:00:44.640 thí nghiệm nào nên tôi e rằng bạn sẽ phải 0:00:44.640,0:00:47.600 tham gia vào. hy vọng điều đó không sao chứ. Được rồi, 0:00:47.600,0:00:50.079 vậy trí tuệ nhân tạo tạo sinh là gì, 0:00:50.079,0:00:53.680 thuật ngữ này được tạo thành 0:00:53.680,0:00:56.680 từ hai thứ: trí tuệ nhân tạo 0:00:56.680,0:00:58.800 và tạo sinh, 0:00:58.800,0:01:02.440 trí tuệ nhân tạo là một thuật ngữ hoa mỹ để nói rằng 0:01:02.440,0:01:04.959 chúng ta có một chương trình máy tính để thực hiện công việc 0:01:04.959,0:01:07.880 mà con người sẽ làm và 0:01:07.880,0:01:10.520 tạo sinh đây là phần thú vị chúng ta đang 0:01:10.520,0:01:14.040 tạo ra nội dung mới mà máy tính 0:01:14.040,0:01:16.560 chưa chắc đã thấy, nó có thể thấy 0:01:16.560,0:01:19.159 một phần nào đó của nội dung đó và nó có thể tổng hợp nội 0:01:19.159,0:01:22.119 dung đó và cung cấp cho chúng ta những điều mới, vậy 0:01:22.119,0:01:25.439 nội dung mới này sẽ là gì, có thể là âm thanh, 0:01:25.439,0:01:27.920 có thể là mã nguồn máy tính để tạo ra 0:01:27.920,0:01:31.240 một chương trình cho chúng ta, nó có thể là một hình ảnh mới, 0:01:31.240,0:01:33.720 nó có thể là một đoạn văn bản như email hoặc một 0:01:33.720,0:01:37.079 bài luận mà bạn đã nghe hay video. Trong 0:01:37.079,0:01:39.680 bài giảng này tôi sẽ chỉ 0:01:39.680,0:01:41.840 tập trung chủ yếu vào văn bản vì tôi làm về 0:01:41.840,0:01:43.119 xử lý ngôn ngữ tự nhiên và đó là lĩnh vực mà tôi 0:01:43.119,0:01:46.840 hiểu biết rõ nhất và chúng ta sẽ xem 0:01:46.840,0:01:50.079 công nghệ hoạt động như thế nào và hy vọng là 0:01:50.079,0:01:53.960 sau bài giảng này các bạn biết sẽ hiểu rằng dù có 0:01:53.960,0:01:55.759 có rất nhiều huyền thoại xung quanh nó, 0:01:55.759,0:01:59.200 nhưng thật ra nó 0:01:59.200,0:02:01.159 chỉ là một công cụ mà thôi, được chứ ? 0:02:01.159,0:02:03.960 Được rồi, vậy phần bố cục của bài giảng 0:02:03.960,0:02:05.200 có ba phần và nó hơi 0:02:05.200,0:02:09.199 nhàm chán. Đây là Alice Morse Earle. Tôi không 0:02:09.199,0:02:11.959 hi vọng các bạn biết người phụ nữ này, bà là một 0:02:11.959,0:02:16.400 nhà văn người Mỹ và bà viết về 0:02:16.400,0:02:19.720 kỷ vật và phong tục nhưng bà nổi tiếng 0:02:19.720,0:02:22.120 với những câu trích dẫn của mình Ví dụ như câu này: 0:02:22.120,0:02:24.319 "Hôm qua là lịch sử, 0:02:24.319,0:02:26.640 ngày mai là bí ẩn, hôm nay là một món quà 0:02:26.640,0:02:28.040 và đó là lý do tại sao nó được gọi là hiện tại" 0:02:28.040,0:02:31.280 Đây là một câu trích dẫn rất lạc quan và 0:02:31.280,0:02:34.560 bài giảng về cơ bản là về quá khứ, 0:02:34.560,0:02:38.800 hiện tại và tương lai của AI, được rồi, 0:02:38.800,0:02:41.560 điều tôi muốn nói ngay từ đầu 0:02:41.560,0:02:45.480 là AI tạo sinh không phải là một 0:02:45.480,0:02:50.599 khái niệm mới, nó đã tồn tại từ khá lâu rồi. Vậy có 0:02:50.599,0:02:53.360 bao nhiêu người trong số các bạn đã sử dụng hoặc đang sử dụng 0:02:53.360,0:02:56.560 quen thuộc với Google dịch ? Cho tôi xem 0:02:56.560,0:03:00.480 cánh tay nào? Được rồi, ai có thể cho tôi biết 0:03:00.480,0:03:02.879 Google dịch ra mắt 0:03:02.879,0:03:04.440 0:03:04.440,0:03:06.239 lần đầu tiên là khi nào ? 0:03:06.239,0:03:10.400 Năm 1995 ? Ồ, điều đó sẽ tốt đây. Năm 2006, 0:03:10.400,0:03:14.599 tức là nó đã tồn tại được 17 năm rồi và 0:03:14.599,0:03:16.680 tất cả chúng ta đã sử dụng nó và đây là một 0:03:16.680,0:03:19.080 ví dụ về AI tạo sinh, văn bản tiếng Hy Lạp 0:03:19.080,0:03:21.959 được nhập vào (Tôi là người Hy Lạp, nên bạn biết đấy, hãy dành chút tình cảm 0:03:21.959,0:03:26.680 Đúng vậy, đoạn văn bản tiếng Hy Lạp đã được nhập vào và 0:03:26.680,0:03:29.799 đoạn văn bản tiếng Anh xuất hiện và Google 0:03:29.799,0:03:31.720 dịch đã phục vụ chúng ta rất tốt trong 0:03:31.720,0:03:34.200 suốt những năm qua và không ai làm 0:03:34.200,0:03:39.200 ầm lên về nó cả. Một ví dụ khác là Siri 0:03:39.200,0:03:43.080 trên điện thoại. Siri 0:03:43.080,0:03:45.239 đã ra mắt vào 0:03:45.239,0:03:50.480 năm 2011, 12 năm trước và nó đã trở thành một hiện tượng 0:03:50.480,0:03:52.720 Đây cũng là một ví dụ khác về 0:03:52.720,0:03:55.280 AI tạo sinh, chúng ta có thể yêu cầu Siri đặt 0:03:55.280,0:03:59.120 báo thức và Siri sẽ trả lời lại, thật 0:03:59.120,0:04:00.200 tuyệt vời, 0:04:00.200,0:04:01.920 bạn có thể hỏi về báo thức 0:04:01.920,0:04:03.959 hoặc bất cứ thứ gì khác, đây chính là AI tạo sinh, 0:04:03.959,0:04:06.560 Dù không tinh vi như Chat GPT, 0:04:06.560,0:04:09.000 nhưng nó đã xuất hiện từ trước rồi và không biết có bao 0:04:09.000,0:04:10.799 nhiêu người trong số các bạn dùng 0:04:10.799,0:04:14.640 iPhone? Xem kìa, iPhone khá phổ biến. Tôi 0:04:14.640,0:04:18.238 không hiểu tại sao. Được rồi, vậy là chúng ta đều 0:04:18.238,0:04:20.358 quen thuộc với nó và tất nhiên 0:04:20.358,0:04:23.040 sau đó có Amazon Alexa và nhiều thứ khác nữa. Vậy một lần nữa, 0:04:23.040,0:04:27.320 AI tạo sinh Không phải là một 0:04:27.320,0:04:30.280 khái niệm mới, nó ở khắp mọi nơi, nó là một phần của 0:04:30.280,0:04:33.039 điện thoại của bạn. Tính năng hoàn thành tự động khi bạn 0:04:33.039,0:04:35.199 gửi email hoặc khi bạn gửi email hoặc 0:04:35.199,0:04:39.400 tin nhắn. Điện thoại cố gắng hoàn thành 0:04:39.400,0:04:42.280 câu của bạn, cố gắng suy nghĩ giống như 0:04:42.280,0:04:44.639 bạn và nó giúp bạn tiết kiệm thời gian, đúng chứ ? vì 0:04:44.639,0:04:46.680 một số gợi ý đã có sẵn rồi 0:04:46.680,0:04:48.479 Tương tự như với Google, khi bạn nhập liệu, 0:04:48.479,0:04:50.520 nó cố gắng đoán từ khóa tìm kiếm của bạn 0:04:50.520,0:04:53.199 Đây là một ví dụ về 0:04:53.199,0:04:55.120 mô hình ngôn ngữ, chúng ta sẽ nghe rất nhiều về 0:04:55.120,0:04:58.080 mô hình ngôn ngữ trong bài nói chuyện này, vì vậy về cơ bản chúng ta đang 0:04:58.080,0:04:59.880 đưa ra dự đoán về những gì 0:04:59.880,0:05:03.680 tiếp theo sẽ như thế nào. Vì vậy, 0:05:03.680,0:05:05.840 điều tôi muốn nói với bạn là AI tạo sinh 0:05:05.840,0:05:08.960 không hẳn là mới mẻ. Vậy vấn đề là gì, tại sao mọi người lại bàn tán xôn xao 0:05:08.960,0:05:11.080 chuyện gì đã xảy ra ? 0:05:11.080,0:05:13.840 vào năm 0:05:13.840,0:05:17.759 2023, Open AI mở một công ty ở 0:05:17.759,0:05:19.720 California thực tế là ở San Francisco. Nếu 0:05:19.720,0:05:21.560 bạn đến San Francisco, bạn thậm chí có thể nhìn thấy 0:05:21.560,0:05:24.840 ánh đèn của tòa nhà họ vào ban đêm 0:05:24.840,0:05:26.639 Họ đã công bố 0:05:26.639,0:05:31.080 GPT-4 và tuyên bố rằng nó có thể vượt quá 90% 0:05:31.080,0:05:34.199 con người trong bài kiểm tra SAT. Đối với 0:05:34.199,0:05:36.919 những ai chưa biết, SAT là một 0:05:36.919,0:05:39.759 bài kiểm tra tiêu chuẩn mà học sinh ở Mỹ 0:05:39.759,0:05:41.840 phải làm để vào Đại học. Đó là một 0:05:41.840,0:05:44.520 bài kiểm tra tuyển sinh và đó là bài trắc nghiệm 0:05:44.520,0:05:48.759 được xem là không dễ. Vậy mà GPT-4 0:05:48.759,0:05:50.919 có thể làm được, họ cũng tuyên bố rằng nó có thể 0:05:50.919,0:05:54.840 đạt điểm cao trong các kỳ thi luật, y khoa 0:05:54.840,0:05:57.160 và các kỳ thi khác. Họ có cả một loạt các kết quả 0:05:57.160,0:05:59.880 mà họ không chỉ tuyên bố mà còn 0:05:59.880,0:06:03.520 chứng minh rằng GPT-4 có thể làm được. 0:06:03.520,0:06:07.360 Ngoài việc nó có thể vượt qua các kỳ thi 0:06:07.360,0:06:10.520 chúng ta có thể yêu cầu nó làm những việc khác. Ví dụ, bạn 0:06:10.520,0:06:14.199 có thể yêu cầu nó viết văn bản cho bạn. Chẳng 0:06:14.199,0:06:17.560 hạn bạn có thể đưa ra một "prompt" (yêu cầu) 0:06:17.560,0:06:19.440 cái mà bạn thấy trên kia, 0:06:19.440,0:06:22.400 đó chính là prompt. Đó chính là những gì con người muốn 0:06:22.400,0:06:24.960 công cụ thực hiện cho họ. Một 0:06:24.960,0:06:26.919 prompt có thể là: "Tôi đang viết một bài luận 0:06:26.919,0:06:28.880 về việc sử dụng điện thoại di động khi 0:06:28.880,0:06:31.199 lái xe. Bạn có thể đưa ra cho tôi ba luận điểm 0:06:31.199,0:06:34.160 ủng hộ điều này không ? Nếu[br]137[br]00:06:34,160 --> 00:06:36,199[br]bạn hỏi tôi, tôi không chắc tôi có thể đưa ra 0:06:36.199,0:06:38.919 ba luận điểm. Bạn cũng có thể yêu cầu, và 0:06:38.919,0:06:41.080 đây là những yêu cầu thực sự mà 0:06:41.080,0:06:44.960 công cụ có thể làm. Bạn nói với Chat GPT hoặc GPT nói 0:06:44.960,0:06:47.080 chung hoạt động như một lập trình viên JavaScript. 0:06:47.080,0:06:48.599 Viết một chương trình kiểm tra 0:06:48.599,0:06:51.560 thông tin trên biểu mẫu. Tên và email là 0:06:51.560,0:06:53.720 bắt buộc, nhưng địa chỉ và tuổi thì không. "Vậy là 0:06:53.720,0:06:56.639 tôi chỉ cần viết điều này và công cụ sẽ 0:06:56.639,0:06:59.199 đưa ra một chương trình và đây là điều thú vị nhất: 0:06:59.199,0:07:02.560 "Tạo một trang giới thiệu về tôi" cho một 0:07:02.560,0:07:05.560 trang web. Tôi thích leo núi, 0:07:05.560,0:07:07.919 thể thao ngoài trời và lập trình. Tôi bắt đầu 0:07:07.919,0:07:09.840 sự nghiệp của mình với vai trò kỹ sư chất lượng trong 0:07:09.840,0:07:13.360 ngành blah blah blah. Tôi cung cấp thông tin 0:07:13.360,0:07:16.280 phiên bản như vậy về những gì tôi muốn trên website, và công cụ 0:07:16.280,0:07:18.520 sẽ tạo ra nó cho 0:07:18.520,0:07:20.160 tôi. 0:07:20.160,0:07:23.360 Vậy, bạn thấy đấy, chúng ta đã đi từ Google 0:07:23.360,0:07:24.840 dịch và Siri và tính năng 0:07:24.840,0:07:26.479 hoàn thành tự động đến một thứ 0:07:26.479,0:07:28.840 phức tạp hơn rất nhiều và có thể làm được nhiều hơn nữa 0:07:28.840,0:07:31.080 0:07:31.080,0:07:34.680 Một sự thật thú vị nữa. Đây là biểu đồ 0:07:34.680,0:07:40.879 cho thấy thời gian cần thiết để chat GPT 0:07:40.879,0:07:44.400 đạt được 100 triệu người dùng so 0:07:44.400,0:07:46.120 với các công cụ khác đã ra mắt 0:07:46.120,0:07:49.039 trong quá khứ và bạn thấy Google dịch, công cụ mà chúng ta yêu thích 0:07:49.039,0:07:53.840 phải mất 78 tháng để 0:07:53.840,0:07:58.280 đạt được 100 triệu người dùng. Một khoảng thời gian dài. 0:07:58.280,0:08:02.680 Tik Tok chỉ mất 9 tháng và Chat GPT chỉ mất 0:08:02.680,0:08:05.840 2 tháng. Chi trong vòng hai tháng, họ đã có 100 0:08:05.840,0:08:10.759 triệu người dùng và những người dùng này trả một 0:08:10.759,0:08:13.960 ít tiền để sử dụng hệ thống, bạn có thể 0:08:13.960,0:08:15.599 nhân lên và tính xem họ kiếm được 0:08:15.599,0:08:19.400 bao nhiêu tiền. Được rồi, 0:08:19.400,0:08:25.039 đây là phần lịch sử. Vậy làm thế nào để 0:08:25.039,0:08:29.240 chúng ta tạo ra Chat GPT ? 0:08:29.240,0:08:31.479 Công nghệ nào đứng sau nó ? Hóa ra, công nghệ này 0:08:31.479,0:08:34.120 không phải quá mới hoặc 0:08:34.120,0:08:36.440 cực kỳ sáng tạo hoặc cực kỳ 0:08:36.440,0:08:37.519 khó hiểu 0:08:37.519,0:08:39.839 Vậy nên, hôm nay chúng ta 0:08:39.839,0:08:41.159 sẽ nói về 0:08:41.159,0:08:45.360 điều đó. Chúng ta sẽ giải quyết ba câu hỏi 0:08:45.360,0:08:46.920 Trước hết là làm thế nào chúng ta chuyển từ các 0:08:46.920,0:08:49.399 hệ thống chỉ có một mục đích đơn lẻ như Google 0:08:49.399,0:08:51.880 Dịch sang Chat GPT, 0:08:51.880,0:08:54.680 một công cụ tinh vi hơn và làm được nhiều việc hơn, 0:08:54.680,0:08:56.640 cụ thể, 0:08:56.640,0:08:59.480 công nghệ cốt lõi đằng sau Chat GPT là gì và 0:08:59.480,0:09:02.079 rủi ro nếu có là gì và cuối cùng tôi 0:09:02.079,0:09:04.640 sẽ chỉ cho bạn thấy cái nhìn thoáng qua về 0:09:04.640,0:09:06.760 tương lai, cách mà nó sẽ trông như thế nào 0:09:06.760,0:09:08.720 và liệu chúng ta có nên lo lắng hay 0:09:08.720,0:09:12.760 không và bạn biết đấy tôi sẽ không để bạn phải băn 0:09:12.760,0:09:16.600 khoăn đâu đừng lo lắng, được 0:09:16.600,0:09:18.959 chứ ? 0:09:18.959,0:09:22.959 Vậy tất cả các biến thể mô hình GPT này và 0:09:22.959,0:09:24.880 có một ngành công nghiệp nhỏ đang nổi lên, 0:09:24.880,0:09:27.760 tôi chỉ lấy GPT làm ví dụ 0:09:27.760,0:09:30.079 công chúng đã biết đến nó 0:09:30.079,0:09:32.440 và có rất nhiều 0:09:32.440,0:09:34.279 các bài báo về nó, nhưng còn có 0:09:34.279,0:09:36.240 những mô hình khác, các biến thể khác của mô hình mà chúng ta 0:09:36.240,0:09:39.519 sử dụng trong học thuật. Tất cả chúng đều hoạt động dựa trên 0:09:39.519,0:09:41.519 cùng một nguyên tắc, và nguyên tắc này được 0:09:41.519,0:09:44.160 gọi là mô hình hóa ngôn ngữ 0:09:44.160,0:09:47.440 Mô hình hóa ngôn ngữ làm gì nó giả định rằng chúng ta có 0:09:47.440,0:09:51.399 một chuỗi các từ ngữ. Đó là ngữ cảnh cho đến nay 0:09:51.399,0:09:52.920 và chúng ta đã thấy điều này trong tính năng 0:09:52.920,0:09:55.760 hoàn thành tự động. tôi có một ví dụ ở đây 0:09:55.760,0:10:00.160 Giả sử ngữ cảnh của tôi là cụm từ "Tôi muốn". 0:10:00.160,0:10:03.240 công cụ mô hình hóa ngôn ngữ sẽ 0:10:03.240,0:10:06.440 dự đoán những gì xảy ra tiếp theo. Vì vậy nếu tôi nói 0:10:06.440,0:10:09.320 "Tôi muốn" sẽ có một số dự đoán:"Tôi 0:10:09.320,0:10:12.040 muốn xúc tuyết", "Tôi muốn chơi", "Tôi muốn 0:10:12.040,0:10:14.880 bơi", "Tôi muốn ăn" và tùy thuộc vào những gì 0:10:14.880,0:10:17.600 chúng ta chọn là "xúc tuyết" sẽ tiếp tục với "tuyết", 0:10:17.600,0:10:21.880 còn nhiều phần tiếp theo nữa. Vi vậy, 0:10:21.880,0:10:25.240 đối với "xẻng" thì sẽ là "tuyết", "chơi" thì 0:10:25.240,0:10:27.800 có thể tiếp tục với "tennis" hoặc "trò choi video", "bơi" không có phần tiếp theo và "ăn" 0:10:27.800,0:10:30.240 có thể tiếp tục với "nhiều thứ" hoặc 0:10:30.240,0:10:33.800 "trái cây". Đây là một ví dụ đơn giản nhưng hãy 0:10:33.800,0:10:35.639 tưởng tượng bây giờ máy tính đã thấy 0:10:35.639,0:10:40.480 rất nhiều văn bản và nó biết những từ nào 0:10:40.480,0:10:42.399 theo sau 0:10:42.399,0:10:46.720 những từ nào. Trước đây, chúng ta từng đếm các từ này. 0:10:46.720,0:10:49.519 Tôi sẽ tải xuống một lượng lớn dữ liệu 0:10:49.519,0:10:52.160 và đếm xem cụm "Tôi muốn cho họ thấy" 0:10:52.160,0:10:54.160 xuất hiện bao nhiêu lần và 0:10:54.160,0:10:56.040 những lần tiếp theo là gì. chúng ta 0:10:56.040,0:10:58.040 Chúng ta đã từng lưu các con số đó. Nhưng giờ đây, 0:10:58.040,0:11:00.760 mọi thứ đã thay đổi, 0:11:00.760,0:11:03.519 chúng ta sử dụng mạng nơ-ron không chỉ đơn thuần đếm 0:11:03.519,0:11:07.720 mà dự đoán, học hỏi 0:11:07.720,0:11:10.040 theo cách tinh vi hơn, và 0:11:10.040,0:11:12.079 tôi sẽ giải thích ngay. 0:11:12.079,0:11:13.360 ChatGPT và 0:11:13.360,0:11:17.760 các biến thể GPT dựa trên các 0:11:17.760,0:11:21.560 nguyên tắc này: Tôi có một ngữ cảnh, 0:11:21.560,0:11:24.600 tôi sẽ dự đoán điều gì sẽ xảy ra tiếp theo. 0:11:24.600,0:11:26.639 Và đó chính là prompt, phần yêu cầu mà tôi đã 0:11:26.639,0:11:29.800 cho bạn thấy. 0:11:29.800,0:11:32.399 Đây là ngữ cảnh, và sau đó công cụ sẽ 0:11:32.399,0:11:35.680 thực hiện nhiệm vụ, điều gì sẽ xảy ra tiếp theo ? trong một số 0:11:35.680,0:11:37.639 trường hợp, đó sẽ là ba luận điểm. 0:11:37.639,0:11:39.920 Trong trường hợp của lập trình viên web, đó 0:11:39.920,0:11:41.320 sẽ là một 0:11:41.320,0:11:45.440 trang web. Tóm lại nhiệm vụ của mô hình hóa ngôn ngữ 0:11:45.440,0:11:47.519 là có ngữ cảnh. 0:11:47.519,0:11:49.200 và đây là một ví dụ khác: 0:11:49.200,0:11:53.160 "Màu sắc của bầu trời là". Chúng ta có 0:11:53.160,0:11:56.760 một mô hình ngôn ngữ nơ-ron, 0:11:56.760,0:12:00.320 thực chất chỉ là một thuật toán, 0:12:00.320,0:12:03.279 nó sẽ dự đoán phần tiếp theo có 0:12:03.279,0:12:06.160 khả năng xảy ra nhất. Khả năng xảy ra rất quan trọng. 0:12:06.160,0:12:09.160 Tất cả các dự đoán dựa trên việc đoán 0:12:09.160,0:12:11.959 điều gì sẽ xảy ra tiếp theo. 0:12:11.959,0:12:13.519 Và đó là lý do đôi khi chúng thất bại, vì 0:12:13.519,0:12:15.519 chúng dự đoán câu trả lời có khả năng cao nhất 0:12:15.519,0:12:18.279 trong khi bạn muốn một câu trả lời ít có khả năng xảy ra hơn nhưng 0:12:18.279,0:12:19.880 đây là cách chúng được huấn luyện để 0:12:19.880,0:12:24.120 đưa ra những câu trả lời có khả năng là cao nhất, vì vậy 0:12:24.120,0:12:25.920 chúng ta không đếm các từ nữa, mà cố gắng 0:12:25.920,0:12:29.959 dự đoán chúng bằng mô hình ngôn ngữ này. 0:12:29.959,0:12:33.760 Vậy làm thế nào để bạn tự xây dựng một mô hình ngôn ngữ? 0:12:33.760,0:12:36.160 Đây là công thức, cách mà mọi người thực hiện: 0:12:36.160,0:12:40.000 Bước 1: Chúng ta cần rất nhiều dữ liệu. 0:12:40.000,0:12:43.040 Cần thu thập một tập dữ liệu khổng lồ. 0:12:43.040,0:12:46.360 Vậy chúng ta tìm đâu ra 0:12:46.360,0:12:48.959 một tập dữ liệu khổng lồ như vậy? 0:12:48.959,0:12:52.360 Ý tôi là, chúng ta tìm trên web, đúng không? 0:12:52.360,0:12:55.800 Chúng ta tải xuống toàn bộ Wikipedia, 0:12:55.800,0:12:59.399 các trang Stack Overflow, Quora, 0:12:59.399,0:13:02.160 mạng xã hội, GitHub, Reddit, bất kỳ thứ gì bạn 0:13:02.160,0:13:03.880 có thể tìm được trên đó 0:13:03.880,0:13:06.240 Tất nhiên, bạn cần giải quyết các vấn đề về quyền sử dụng dữ liệu, phải hợp pháp. 0:13:06.240,0:13:08.079 Bạn tải xuống toàn bộ tập dữ liệu này. 0:13:08.079,0:13:10.680 Vậy sau đó bạn làm gì? Sau đó, bạn 0:13:10.680,0:13:12.360 có mô hình ngôn ngữ này. Tôi chưa 0:13:12.360,0:13:14.120 giải thích chính xác mô hình 0:13:14.120,0:13:15.959 ngôn ngữ này là gì, và cũng chưa nói 0:13:15.959,0:13:17.519 về mạng nơ-ron thực hiện 0:13:17.519,0:13:20.639 dự đoán, nhưng giả sử bạn đã có nó. 0:13:20.639,0:13:23.199 Vậy bạn có một cơ chế 0:13:23.199,0:13:25.920 học tập, và nhiệm vụ giờ đây 0:13:25.920,0:13:28.920 là dự đoán từ tiếp theo. 0:13:28.920,0:13:32.040 Nhưng làm thế nào để chúng ta làm điều đó? 0:13:32.040,0:13:36.079 Đây chính là phần sáng tạo. 0:13:36.079,0:13:38.720 Chúng ta có các câu trong tập dữ liệu. Chúng ta có thể xóa một số từ 0:13:38.720,0:13:41.040 trong các câu đó và yêu cầu mô hình ngôn ngữ dự đoán 0:13:41.040,0:13:45.199 các từ mà chúng ta đã xóa. 0:13:45.199,0:13:48.440 Cách này rất rẻ tiền. Tôi chỉ cần xóa chúng đi, 0:13:48.440,0:13:50.639 giả vờ như chúng không có, và để mô hình ngôn ngữ 0:13:50.639,0:13:54.360 dự đoán chúng. Tôi sẽ 0:13:54.360,0:13:57.240 ngẫu nhiên cắt ngắn, "truncate" nghĩa là xóa bớt, 0:13:57.240,0:13:59.600 phần cuối của câu đầu vào. 0:13:59.600,0:14:01.720 Sau đó, tôi sẽ sử dụng mạng nơ-ron 0:14:01.720,0:14:04.560 để tính xác suất của các từ bị thiếu. Nếu dự đoán 0:14:04.560,0:14:06.440 đúng, thì tốt. Nếu không đúng, tôi cần 0:14:06.440,0:14:08.600 quay lại và điều chỉnh một số điều 0:14:08.600,0:14:10.240 vì rõ ràng tôi đã mắc sai lầm, 0:14:10.240,0:14:12.959 và tôi tiếp tục lặp lại. Tôi sẽ điều chỉnh 0:14:12.959,0:14:14.880 và đưa phản hồi vào mô hình, 0:14:14.880,0:14:16.920 sau đó so sánh kết quả mà mô hình dự đoán với 0:14:16.920,0:14:18.639 "ground truth" (thực tế) 0:14:18.639,0:14:20.199 vì tôi đã 0:14:20.199,0:14:23.000 biết trước đáp án thực. 0:14:23.000,0:14:27.320 Chúng ta cứ tiếp tục quá trình này trong vài tháng, 0:14:27.320,0:14:30.639 hoặc có thể vài năm. Không, chỉ vài tháng thôi. 0:14:30.639,0:14:32.480 Quá trình này mất thời gian vì, 0:14:32.480,0:14:34.120 như bạn có thể hình dung, tôi có một 0:14:34.120,0:14:35.880 tập dữ liệu rất lớn với rất nhiều câu, 0:14:35.880,0:14:37.480 và tôi cần thực hiện 0:14:37.480,0:14:40.199 dự đoán, sau đó quay lại sửa sai, 0:14:40.199,0:14:43.240 và cứ thế. Nhưng cuối cùng 0:14:43.240,0:14:45.639 mô hình sẽ hội tụ và tôi sẽ có kết quả. 0:14:45.639,0:14:47.240 Công cụ tôi vừa nhắc đến, 0:14:47.240,0:14:50.199 công cụ này chính là 0:14:50.199,0:14:53.440 mô hình ngôn ngữ. 0:14:53.440,0:14:56.440 Một mô hình ngôn ngữ đơn giản 0:14:56.440,0:15:00.000 trông như thế này. Có thể 0:15:00.000,0:15:02.320 khán giả đã từng thấy những mô hình này, 0:15:02.320,0:15:05.160 đây là một đồ thị đơn giản, 0:15:05.160,0:15:08.440 nhưng nó giúp minh họa cách thức hoạt động. 0:15:08.440,0:15:10.600 Mạng nơ-ron mô hình ngôn ngữ này 0:15:10.600,0:15:14.320 sẽ có vài đầu vào 0:15:14.320,0:15:17.519 các nút tròn, 0:15:17.519,0:15:21.240 vâng bên phải của tôi và của bạn, ok 0:15:21.240,0:15:24.720 ở bên phải là đầu vào, 0:15:24.720,0:15:28.360 và các nút tròn bên trái là đầu ra. 0:15:28.360,0:15:31.160 Chúng ta đưa vào 0:15:31.160,0:15:33.000 năm đầu vào, 0:15:33.000,0:15:36.880 năm vòng tròn, 0:15:36.880,0:15:39.800 và có ba đầu ra, ba vòng tròn. 0:15:39.800,0:15:41.959 Và có những thứ ở giữa mà tôi 0:15:41.959,0:15:44.680 không nói gì cả. Đây là 0:15:44.680,0:15:47.680 các lớp (layers). Đây là những nút khác 0:15:47.680,0:15:51.360 được cho là trừu tượng hóa dữ liệu đầu vào của tôi. 0:15:51.360,0:15:54.759 Vì vậy, họ khái quát hóa. Ý tưởng là nếu tôi đặt 0:15:54.759,0:15:58.399 nhiều lớp hơn 0:15:58.399,0:16:00.600 các lớp giữa sẽ tổng quát hóa đầu vào 0:16:00.600,0:16:03.000 và nhận ra các mẫu mà ban đầu 0:16:03.000,0:16:05.880 không rõ ràng. 0:16:05.880,0:16:07.399 Đầu vào cho các nút này 0:16:07.399,0:16:10.399 không phải là từ, mà là vector - chuỗi số, 0:16:10.399,0:16:13.279 nhưng hãy tạm quên điều đó. 0:16:13.279,0:16:15.480 Vậy chúng ta có đầu vào, các lớp giữa, 0:16:15.480,0:16:17.880 và đầu ra. Các kết nối 0:16:17.880,0:16:20.880 giữa các nút được gọi 0:16:20.880,0:16:23.240 là trọng số (weights), 0:16:23.240,0:16:26.480 chính trọng số này là thứ mà mạng học được. 0:16:26.480,0:16:29.240 Các trọng số thực chất là các con số. 0:16:29.240,0:16:31.880 và ở đây tất cả đều được kết nối đầy đủ, vì vậy tôi có rất nhiều 0:16:31.880,0:16:34.880 kết nối. Tại sao tôi lại thực hiện 0:16:34.880,0:16:36.800 quá trình này để thực sự nói với bạn tất cả 0:16:36.800,0:16:40.720 những điều đó? Bạn sẽ thấy trong một phút. Vì vậy, bạn có thể 0:16:40.720,0:16:44.839 tính toán được 0:16:44.839,0:16:48.360 mạng nơ-ron này lớn hay nhỏ tùy thuộc vào 0:16:48.360,0:16:51.800 số lượng kết nối mà nó có. Vì vậy đối với 0:16:51.800,0:16:54.800 mạng nơ-ron đơn giản này, tôi 0:16:54.800,0:16:58.880 đã tính được số lượng trọng số 0:16:58.880,0:17:01.399 Chúng tôi gọi là tham số, 0:17:01.399,0:17:03.800 mà mạng cần học. 0:17:03.800,0:17:07.240 Vì vậy, các tham số là 0:17:07.240,0:17:10.359 số lượng đơn vị đầu vào, trong trường hợp này 0:17:10.359,0:17:14.760 là 5, nhân với số đơn vị ở 0:17:14.760,0:17:18.559 lớp tiếp theo, là 8. Cộng với 8, 0:17:18.559,0:17:22.119 kết quả này cộng với 8 là độ lệch, 0:17:22.119,0:17:24.480 đó là một điều gian lận mà các mạng nơ-ron này có. Một lần nữa, 0:17:24.480,0:17:27.119 bạn cần phải học nó 0:17:27.119,0:17:28.960 và nó sẽ sửa một chút cho mạng nơ-ron nếu nó bị tắt. 0:17:28.960,0:17:30.440 Nó thực sự là thiên tài. 0:17:30.440,0:17:32.600 Nếu dự đoán không đúng, 0:17:32.600,0:17:34.520 Nó cố gắng điều chỉnh một chút để sửa lỗi. Vì vậy, cho 0:17:34.520,0:17:36.799 mục đích của buổi nói chuyện này, tôi sẽ không đi sâu vào chi tiết, 0:17:36.799,0:17:38.799 đi sâu vào chi tiết, tất cả những gì tôi muốn bạn 0:17:38.799,0:17:40.840 thấy là có một cách để tính 0:17:40.840,0:17:43.080 ra các tham số, cơ bản là 0:17:43.080,0:17:46.760 số lượng đơn vị đầu vào nhân với số 0:17:46.760,0:17:49.919 đơn vị mà đầu vào đang kết nối tới. 0:17:49.919,0:17:52.720 Với mạng nơ-ron được kết nối đầy đủ này, 0:17:52.720,0:17:56.840 nếu chúng ta cộng tất cả lại, ta sẽ có 0:17:56.840,0:18:00.000 99 tham số có thể huấn luyện. 0:18:00.000,0:18:02.679 Đây là một mạng nhỏ, phải không? Nhưng tôi muốn bạn 0:18:02.679,0:18:04.919 nhớ rằng, mạng nhỏ này có 99 tham số. 0:18:04.919,0:18:08.280 Khi bạn nghe về mạng có 0:18:08.280,0:18:10.720 một tỷ tham số, 0:18:10.720,0:18:15.120 hãy hình dung kích thước khổng lồ của nó. 0:18:15.120,0:18:18.200 Vậy là chỉ có 99 cho mạng nơ-ron đơn giản này. 0:18:18.200,0:18:21.440 Và đây là cách chúng ta đánh giá mô hình lớn như thế nào, 0:18:21.440,0:18:24.720 mất bao lâu và tốn bao nhiêu, 0:18:24.720,0:18:26.360 đó là số lượng 0:18:26.360,0:18:29.480 tham số. Trong thực tế 0:18:29.480,0:18:32.440 không ai sử dụng mạng nhỏ này. 0:18:32.440,0:18:35.039 Đây chỉ là ví dụ cho sinh viên 0:18:35.039,0:18:36.760 năm nhất học đại học. 0:18:36.760,0:18:38.600 Thực tế, chúng ta 0:18:38.600,0:18:41.440 sử dụng những 0:18:41.440,0:18:45.000 mô hình khổng lồ, 0:18:45.000,0:18:48.960 gồm nhiều khối. Và khối này có nghĩa là chúng được 0:18:48.960,0:18:53.520 tạo thành từ các mạng nơ-ron khác. Vì vậy, tôi 0:18:53.520,0:18:55.919 không biết có bao nhiêu người đã nghe về 0:18:55.919,0:18:59.919 Bộ chuyển đổi. Tôi hy vọng là chưa. 0:18:59.919,0:19:03.240 Oh wo, ok. Bộ chuyển đổi là các mạng nơ-ron được dùng 0:19:03.240,0:19:06.640 để xây dựng ChatGPT. 0:19:06.640,0:19:11.080 Trên thực tế GPT là viết tắt của "generative pre-trained transformers" 0:19:11.080,0:19:13.600 (transformers cũng được có ngày trong tiêu đề). 0:19:13.600,0:19:17.600 Đây là bản phác thảo của một transformer. 0:19:17.600,0:19:21.320 Bạn có đầu vào 0:19:21.320,0:19:23.799 và đầu vào không phải là từ, 0:19:23.799,0:19:26.640 như tôi đã nói, nó là vector (embeddings). 0:19:26.640,0:19:30.000 Và sau đó bạn sẽ có nó, 0:19:30.000,0:19:33.760 một phiên bản lớn hơn của mạng kết nối. 0:19:33.760,0:19:35.720 0:19:35.720,0:19:39.480 Các vector này được đưa qua nhiều khối (blocks), 0:19:39.480,0:19:42.679 và mỗi khối là một hệ thống phức tạp 0:19:42.679,0:19:46.559 chứa mạng nơ-ron bên trong. Chúng ta 0:19:46.559,0:19:48.320 sẽ không đi vào chi tiết, tôi không muốn, 0:19:48.320,0:19:51.480 xin đừng đi, tất cả những gì tôi đang 0:19:51.480,0:19:55.159 cố gắng, (khán giả cười) tất cả những gì tôi đang cố gắng nói là, bạn biết đấy, 0:19:55.159,0:19:59.159 chúng ta có những khối này xếp chồng 0:19:59.159,0:20:01.159 lên nhau, Transformer có 0:20:01.159,0:20:03.360 tám khối như vậy, là những mạng nơ-ron mini, 0:20:03.360,0:20:06.840 và nhiệm vụ này vẫn giữ nguyên. 0:20:06.840,0:20:08.320 Đó là những gì tôi muốn bạn rút ra từ đây. 0:20:08.320,0:20:10.559 Nhiệm vụ vẫn không thay đổi: đầu vào là ngữ cảnh, ví dụ 0:20:10.559,0:20:12.760 "con gà bước đi," sau đó thực hiện 0:20:12.760,0:20:15.960 xử lý để dự đoán phần tiếp theo 0:20:15.960,0:20:18.120 ví dụ "qua đường". 0:20:18.120,0:20:21.640 Và EOS (end of sentence) 0:20:21.640,0:20:22.880 được dùng để 0:20:22.880,0:20:24.600 đánh dấu kết thúc câu, giúp mạng nơ-ron nhận biết điểm dừng. 0:20:24.600,0:20:26.240 Ý tôi là, chúng khá "ngốc," đúng không? 0:20:26.240,0:20:28.280 Chúng ta cần chỉ rõ mọi thứ cho chúng. Khi tôi nghe rằng AI 0:20:28.280,0:20:30.200 sẽ chiếm lĩnh thế giới, tôi chỉ nghĩ, 0:20:30.200,0:20:33.520 "Thật sao? Chúng ta thậm chí còn phải 0:20:33.520,0:20:37.919 viết ra từng chi tiết". Đây chính là transformer (bộ chuyển đổi), 0:20:37.919,0:20:39.600 vua của các kiến trúc mô hình. 0:20:39.600,0:20:41.240 Transformers ra đời 0:20:41.240,0:20:43.600 năm 2017. Hiện tại không ai làm việc trên 0:20:43.600,0:20:46.280 các kiến ​​trúc mới nữa. Thật đáng tiếc, 0:20:46.280,0:20:48.080 trước đây mọi người 0:20:48.080,0:20:50.240 sử dụng nhiều chúng, nhưng 0:20:50.240,0:20:52.480 giờ thì không, tất cả mọi người đều sử dụng Transformers, 0:20:52.480,0:20:55.799 chúng ta đã quyết định rằng chúng rất tuyệt. 0:20:55.799,0:20:58.240 Được rồi, vậy chúng ta sẽ làm gì với chúng? 0:20:58.240,0:20:59.960 Điều quan trọng và 0:20:59.960,0:21:02.240 tuyệt vời là chúng ta sẽ thực hiện 0:21:02.240,0:21:04.039 học tự giám sát (self-supervised learning). 0:21:04.039,0:21:06.360 Đây chính là điều tôi đã nói: chúng ta có câu, cắt bớt, 0:21:06.360,0:21:09.919 dự đoán, và tiếp tục cho đến khi 0:21:09.919,0:21:11.640 chúng ta học được 0:21:11.640,0:21:15.960 các xác suất. Hiểu kịp không? 0:21:15.960,0:21:20.320 Tốt, được rồi. Khi chúng ta có 0:21:20.320,0:21:23.720 transformer và đã cung cấp cho nó tất cả 0:21:23.720,0:21:26.600 dữ liệu mà thế giới có, 0:21:26.600,0:21:29.520 chúng ta sẽ có một mô hình huấn luyện trước (pre-trained model). Đó là lý do tại sao GPT 0:21:29.520,0:21:32.000 được gọi là transformer tạo sinh, được huấn luyện sẵn (generative pre-trained transformer). 0:21:32.000,0:21:34.919 Đây là một mô hình cơ bản đã được đào tạo 0:21:34.919,0:21:37.400 từ rất nhiều nguồn dữ liệu 0:21:37.400,0:21:39.840 của thế giới. 0:21:39.840,0:21:42.600 Sau đó, chúng ta thường làm gì? Chúng ta 0:21:42.600,0:21:44.440 có mô hình mục đích chung này và 0:21:44.440,0:21:47.400 cần chuyên biệt hóa nó cho một nhiệm vụ cụ thể. 0:21:47.400,0:21:49.760 Đây là điều gọi là fine-tuning 0:21:49.760,0:21:52.080 (tinh chỉnh). Điều này có nghĩa là mạng nơ-ron 0:21:52.080,0:21:53.679 đã có một số 0:21:53.679,0:21:57.279 trọng số, và chúng ta cần chuyên biệt hóa 0:21:57.279,0:21:59.240 mạng này. Chúng ta sẽ khởi tạo 0:21:59.240,0:22:00.919 trọng số dựa trên những gì đã học được từ 0:22:00.919,0:22:03.000 quá trình huấn luyện trước, và sau đó, đối với nhiệm vụ cụ thể, chúng ta sẽ 0:22:03.000,0:22:05.919 điều chỉnh một tập trọng số mới. 0:22:05.919,0:22:09.679 Ví dụ, nếu tôi có dữ liệu y tế, tôi sẽ 0:22:09.679,0:22:12.679 lấy mô hình huấn luyện trước (pre-trained model), chuyên biệt hóa nó 0:22:12.679,0:22:15.000 với dữ liệu y tế này, và sau đó tôi 0:22:15.000,0:22:17.880 có thể thực hiện các 0:22:17.880,0:22:20.400 nhiệm vụ cụ thể, chẳng hạn như viết một 0:22:20.400,0:22:23.600 chẩn đoán từ một báo cáo. 0:22:23.600,0:22:27.360 Khái niệm tinh chỉnh này rất quan trọng 0:22:27.360,0:22:29.919 vì nó cho phép chúng ta ứng dụng mục đích đặc biệt từ 0:22:29.919,0:22:32.279 các mô hình 0:22:32.279,0:22:34.000 huấn luyện chung. 0:22:34.000,0:22:37.039 Bây giờ, mọi người nghĩ rằng GPT và 0:22:37.039,0:22:38.559 các mô hình tương tự là công cụ mục đích chung, 0:22:38.559,0:22:41.880 mục đích chung nhưng thực tế, chúng được tinh chỉnh để trở thành 0:22:41.880,0:22:44.159 mục đích chung, và chúng ta sẽ thấy cách thức 0:22:44.159,0:22:49.320 của nó như thế nào. Câu hỏi bây giờ là: chúng ta 0:22:49.320,0:22:52.039 có công nghệ cơ bản để thực hiện 0:22:52.039,0:22:54.120 huấn luyện trước. Và tôi đã nói cho bạn cách làm, 0:22:54.120,0:22:57.039 nếu bạn tải xuống toàn bộ web. 0:22:57.039,0:22:59.720 Mô hình ngôn ngữ có thể tốt đến mức nào? 0:22:59.720,0:23:02.120 Làm thế nào để nó trở nên tuyệt vời? 0:23:02.120,0:23:06.400 Bởi vì khi GPT-1 và GPT-2 ra mắt, 0:23:06.400,0:23:08.679 chúng không thực sự ấn tượng. 0:23:08.679,0:23:12.039 Vậy nên, càng lớn càng tốt. 0:23:12.039,0:23:14.919 Quy mô là yếu tố quan trọng, 0:23:14.919,0:23:17.720 dù điều này không hay lắm, vì trước đây 0:23:17.720,0:23:19.240 bạn biết đấy, mọi người không tin vào quy mô 0:23:19.240,0:23:21.520 và bây giờ chúng ta thấy rằng quy mô rất 0:23:21.520,0:23:24.120 quan trọng vì vậy kể từ 0:23:24.120,0:23:29.159 năm 2018, chúng ta đã chứng kiến ​​sự 0:23:29.159,0:23:33.400 gia tăng cực độ về 0:23:33.400,0:23:36.080 kích thước mô hình và tôi có một số biểu đồ để minh họa cho 0:23:36.080,0:23:38.559 điều này. Ok, tôi hi vọng những người ngồi phía sau 0:23:38.559,0:23:40.080 có thể nhìn thấy đồ thị này. Vâng, bạn đã ổn thôi. 0:23:40.080,0:23:41.760 0:23:41.760,0:23:46.159 Đây là biểu đồ cho thấy 0:23:46.159,0:23:48.960 số lượng tham số. Nhớ rằng, mạng nơ-ron đơn giản 0:23:48.960,0:23:52.360 có 99 tham số.[br]Biểu đồ này cho thấy số lượng tham số 0:23:52.360,0:23:56.039 mà các mô hình này có. Chúng ta bắt đầu với 0:23:56.039,0:23:59.320 một số lượng "bình thường". 0:23:59.320,0:24:00.799 Vâng, đối với GPT-1 và tăng dần đến 0:24:00.799,0:24:06.840 GPT-4, có một 0:24:06.840,0:24:08.600 nghìn tỷ tham số 0:24:08.600,0:24:11.520 (1 trillion). Đây là một 0:24:11.520,0:24:14.520 mô hình rất rất lớn và bạn có thể thấy ở đây so sánh với 0:24:14.520,0:24:17.679 não kiến, não chuột và bộ 0:24:17.679,0:24:22.279 não người. 0:24:22.279,0:24:26.799 Bộ não con người có 100 nghìn tỷ 0:24:26.799,0:24:30.840 tham số (100 trillion). Vậy chúng ta vẫn còn cách xa mức độ 0:24:30.840,0:24:32.720 của bộ não con người, và 0:24:32.720,0:24:35.120 có lẽ chúng ta sẽ không bao giờ đạt đến được và chúng ta không thể 0:24:35.120,0:24:37.120 so sánh GPT với não con người. 0:24:37.120,0:24:40.279 Tôi chỉ muốn minh họa kích thước 0:24:40.279,0:24:43.440 mô hình này lớn đến mức nào 0:24:43.440,0:24:46.440 Còn số lượng từ mà mô hình đã "thấy" thì sao? 0:24:46.440,0:24:48.880 Biểu đồ này cho thấy số lượng từ 0:24:48.880,0:24:50.799 các mô hình ngôn ngữ này đã xử lý 0:24:50.799,0:24:53.399 trong quá trình huấn luyện. Bạn sẽ thấy 0:24:53.399,0:24:56.520 rằng số lượng này 0:24:56.520,0:25:00.000 tăng lớn lên nhưng không tăng nhanh bằng 0:25:00.000,0:25:03.480 số lượng tham số. Cộng đồng 0:25:03.480,0:25:06.360 tập trung vào kích thước tham số của 0:25:06.360,0:25:09.200 các mô hình này, nhưng trong thực tế là chúng ta hiện biết rằng 0:25:09.200,0:25:12.360 chúng cần phải xử lý một lượng văn bản rất lớn. 0:25:12.360,0:25:15.000 GPT-4 đã xử lý 0:25:15.000,0:25:18.360 khoảng vài tỷ từ. 0:25:18.360,0:25:22.159 Tôi không biết, vài tỷ từ. 0:25:22.159,0:25:26.159 Tôi nghĩ tất cả các văn bản do con người viết ra là 100 tỷ, 0:25:26.159,0:25:28.440 nên nó đang tiến gần mức đó. 0:25:28.440,0:25:31.399 Nếu so sánh với số lượng từ mà một người đọc 0:25:31.399,0:25:34.399 trong suốt cuộc đời của họ, nó ít hơn nhiều 0:25:34.399,0:25:35.840 ngay cả khi họ đọc bạn biết đấy bởi vì 0:25:35.840,0:25:38.200 mọi người ngày nay, bạn biết đấy, họ đọc nhưng 0:25:38.200,0:25:39.520 họ không đọc tiểu thuyết, họ đọc 0:25:39.520,0:25:42.039 điện thoại, dù sao thì, bạn thấy Wikipedia tiếng Anh 0:25:42.039,0:25:44.880 vậy là chúng ta đang dần đạt đến 0:25:44.880,0:25:47.919 giới hạn về lượng văn bản có sẵn mà 0:25:47.919,0:25:50.960 chúng ta có thể có được và trên thực tế người ta có thể nói rằng 0:25:50.960,0:25:53.080 GPT thật tuyệt vời, bạn thực sự có thể sử dụng nó để 0:25:53.080,0:25:54.919 tạo ra nhiều văn bản hơn và sau đó sử dụng 0:25:54.919,0:25:56.880 văn bản mà GPT đã tạo ra để 0:25:56.880,0:25:59.120 huấn luyện lại mô hình. Nhưng chúng ta biết rằng văn bản do GPT tạo ra 0:25:59.120,0:26:01.640 là không hoàn toàn chính xác 0:26:01.640,0:26:03.520 và sẽ dẫn đến hiệu suất giảm dần, 0:26:03.520,0:26:05.440 nên tại một thời điểm 0:26:05.440,0:26:09.840 nào đó, chúng ta sẽ chạm đến ngưỡng giới hạn. 0:26:09.840,0:26:12.039 Vậy chi phí để làm điều này là bao nhiêu? 0:26:12.039,0:26:19.360 Được rồi, chi phí để huấn luyện GPT-4 0:26:19.640,0:26:22.520 là 100 triệu USD ? 0:26:22.520,0:26:25.520 Vậy khi nào họ nên bắt đầu làm lại? 0:26:25.520,0:26:27.840 Rõ ràng đây không phải là một quy trình bạn có thể 0:26:27.840,0:26:29.760 lặp đi lặp lại nhiều lần. 0:26:29.760,0:26:31.720 Bạn cần phải rất cẩn thận, vì nếu mắc 0:26:31.720,0:26:36.720 sai lầm, bạn có thể mất đến 0:26:36.720,0:26:40.159 50 triệu USD. Bạn không thể bắt đầu lại từ đầu, 0:26:40.159,0:26:42.000 vì vậy việc lập kế hoạch huấn luyện 0:26:42.000,0:26:45.360 phải được thực hiện cực kỳ tinh vi, 0:26:45.360,0:26:47.960 vì sai lầm sẽ rất tốn kém. Và tất nhiên, 0:26:47.960,0:26:49.679 không phải ai cũng có thể làm điều này. Không phải ai cũng có 0:26:49.679,0:26:53.080 100 triệu USD. Họ làm được điều đó vì 0:26:53.080,0:26:56.360 có Microsoft hậu thuẫn, chứ không phải ai cũng có khả năng này. 0:26:56.360,0:26:59.159 Giờ thì, đây là một video 0:26:59.159,0:27:01.640 minh họa ảnh hưởng của việc mở rộng mô hình, hãy xem thử. 0:27:01.640,0:27:04.120 tác động của việc mở rộng quy mô 0:27:04.120,0:27:07.720 xem liệu nó có hiệu quả không. Vậy nên tôi sẽ chơi thêm một lần nữa. 0:27:07.720,0:27:08.440 Vì vậy, 0:27:08.440,0:27:12.080 đây là những nhiệm vụ bạn có thể thực hiện 0:27:12.080,0:27:16.320 và số lượng nhiệm vụ 0:27:16.320,0:27:18.760 so với số lượng tham số. Chúng ta bắt đầu 0:27:18.760,0:27:20.799 với 8 tỷ tham số và 0:27:20.799,0:27:22.080 mô hình chỉ có thể thực hiện 0:27:22.080,0:27:26.520 một số nhiệm vụ cơ bản. Sau đó, khi số tham số tăng lên 0:27:26.520,0:27:28.840 các nhiệm vụ cũng tăng, 0:27:28.840,0:27:32.360 ví dụ: tóm tắt văn bản, trả lời câu hỏi, dịch thuật. 0:27:32.360,0:27:35.600 Với 540 tỷ tham số, chúng ta có thêm nhiều nhiệm vụ phức tạp hơn, như hoàn thành mã lệnh, 0:27:35.600,0:27:38.480 nhiệm vụ hơn, chúng ta bắt đầu 0:27:38.480,0:27:41.559 với những nhiệm vụ rất đơn giản và 0:27:41.559,0:27:45.000 sau đó chúng ta có thêm nhiều nhiệm vụ phức tạp hơn, như hoàn thành mã lệnh, 0:27:45.000,0:27:46.799 Và sau đó chúng ta có thể đọc hiểu, hiểu ngôn ngữ, 0:27:46.799,0:27:48.919 và dịch thuật. Vì vậy, bạn hiểu ý tôi chứ, 0:27:48.919,0:27:52.200 cây nhiệm vụ này càng ngày càng phát triển mạnh mẽ hơn 0:27:52.200,0:27:54.279 khi mô hình mở rộng. 0:27:54.279,0:27:56.120 Và đây chính là điều mà mọi người phát hiện ra 0:27:56.120,0:27:58.720 khi bạn mở rộng mô hình ngôn ngữ, bạn có thể làm được nhiều nhiệm vụ hơn. 0:27:58.720,0:28:00.640 Ok, 0:28:00.640,0:28:03.640 và bây giờ 0:28:03.679,0:28:06.480 Có lẽ chúng ta đã xong. 0:28:06.480,0:28:09.720 Nhưng những gì mọi người khám phá ra là 0:28:09.720,0:28:13.600 nếu bạn thực sự sử dụng GPT 0:28:13.600,0:28:16.360 nó không luôn hoạt động theo cách mà mọi người mong muốn. 0:28:16.360,0:28:18.760 GPT được 0:28:18.760,0:28:21.640 huấn luyện để dự đoán và [br]602[br]00:28:21,640 --> 00:28:23,799[br]hoàn thành câu, nhưng 0:28:23.799,0:28:27.240 con người lại muốn dùng nó 0:28:27.240,0:28:29.279 cho các nhiệm vụ khác, 0:28:29.279,0:28:33.440 bởi vì họ có những tác vụ riêng mà các nhà phát triển chưa nghĩ ra. 0:28:33.440,0:28:35.960 Đây là lúc khái niệm fine-tuning (tinh chỉnh) xuất hiện trở lại. 0:28:35.960,0:28:39.399 nó không bao giờ rời khỏi chúng ta. Vì vậy, bây giờ những gì 0:28:39.399,0:28:41.760 chúng ta sẽ làm là chúng ta sẽ thu thập rất 0:28:41.760,0:28:44.000 nhiều hướng dẫn. Hướng dẫn này là 0:28:44.000,0:28:46.720 ví dụ về những gì người dùng muốn 0:28:46.720,0:28:49.799 ChatGPT thực hiện. Chẳng hạn như 0:28:49.799,0:28:53.640 trả lời câu hỏi sau đây, hoặc trả thời câu hỏi theo 0:28:53.640,0:28:56.120 từng bước. Chúng ta sẽ đưa các 0:28:56.120,0:28:58.320 ví dụ này vào mô hình, 0:28:58.320,0:29:02.360 gần 2.000 ví dụ, 0:29:02.360,0:29:05.679 và tiến hành tinh chỉnh, 0:29:05.679,0:29:07.880 dạy cho mô hình hiểu 0:29:07.880,0:29:09.399 các nhiệm vụ mà con người 0:29:09.399,0:29:13.720 muốn nó thực hiện. 0:29:13.720,0:29:15.799 Cố gắng học chúng, Sau đó, mô hình có thể 0:29:15.799,0:29:18.880 tổng quát hóa các 0:29:18.880,0:29:21.120 nhiệm vụ chưa từng thấy, vì bạn và tôi 0:29:21.120,0:29:23.919 có thể có các mục đích sử dụng khác nhau với 0:29:23.919,0:29:26.320 mô hình ngôn ngữ này. 0:29:26.320,0:29:28.039 0:29:28.039,0:29:31.760 Nhưng đây là vấn đề: 0:29:32.159,0:29:34.919 Chúng ta đang gặp vấn đề về sự liên kết và 0:29:34.919,0:29:36.960 thực tế đây là vấn đề rất quan trọng và 0:29:36.960,0:29:40.240 sẽ không để lại hậu quả trong 0:29:40.240,0:29:41.519 trong 0:29:41.519,0:29:44.039 tương lai và câu hỏi đặt ra là làm cách nào để 0:29:44.039,0:29:46.679 tạo ra một tác nhân hành xử phù hợp 0:29:46.679,0:29:49.480 với mong muốn của con người? 0:29:49.480,0:29:51.360 Và tôi biết có rất nhiều từ và 0:29:51.360,0:29:54.640 câu hỏi ở đây. Câu hỏi thực sự là: 0:29:54.640,0:29:57.320 nếu chúng ta có các hệ thống AI với những kỹ năng 0:29:57.320,0:30:00.840 mà chúng ta cho là quan trọng hoặc hữu ích, 0:30:00.840,0:30:03.600 làm thế nào để chúng ta đảm bảo rằng chúng sẽ sử dụng 0:30:03.600,0:30:06.960 các kỹ năng đó một cách đáng tin cậy 0:30:06.960,0:30:11.480 cho các nhiệm vụ chúng ta muốn? 0:30:11.480,0:30:15.559 Có một khung tư duy được gọi là khung vấn đề HHH 0:30:15.559,0:30:20.760 Chúng ta muốn GPT phải hữu ích (helpful), trung thực (honest), 0:30:20.760,0:30:24.159 và vô hại (harmless). Đây là yêu cầu tối thiểu. 0:30:24.159,0:30:26.799 Sự hữu ích có nghĩa là gì ? 0:30:26.799,0:30:28.720 nó phải làm theo hướng dẫn 0:30:28.720,0:30:31.360 thực hiện các nhiệm vụ mà chúng ta muốn thực hiện 0:30:31.360,0:30:34.039 và cung cấp câu trả lời và đặt 0:30:34.039,0:30:37.559 những câu hỏi có liên quan theo 0:30:37.559,0:30:38.960 ý định của người dùng. 0:30:38.960,0:30:41.159 0:30:41.159,0:30:43.080 GPT ban đầu không làm được điều này, 0:30:43.080,0:30:46.279 nhưng dần dần nó đã cải thiện 0:30:46.279,0:30:47.880 và hiện tại có thể đặt 0:30:47.880,0:30:50.679 câu hỏi để làm rõ. Nó cần chính xác 0:30:50.679,0:30:53.559 mặc dù vẫn chưa đạt 100% 0:30:53.559,0:30:56.240 vì đôi khi thông tin 0:30:56.240,0:30:58.480 vẫn sai lệch. 0:30:58.480,0:31:02.600 Và vô hại, nghĩa là tránh các phản hồi độc hại, thiên vị hoặc xúc phạm. 0:31:02.600,0:31:04.960 Và câu hỏi dành cho bạn là 0:31:04.960,0:31:07.760 Làm thế nào để 0:31:07.760,0:31:10.720 đạt được những điều này? 0:31:11.519,0:31:14.559 Bạn biết câu 0:31:14.559,0:31:16.679 trả lời rồi: tinh chỉnh (fine-tuning). 0:31:16.679,0:31:18.720 Nhưng lần này, chúng ta sẽ 0:31:18.720,0:31:20.960 tinh chỉnh theo cách khác: 0:31:20.960,0:31:25.440 nhờ con người tham gia 0:31:25.440,0:31:27.679 đánh giá các phản hồi. 0:31:27.679,0:31:30.279 Ví dụ: với tiêu chí hữu ích, 0:31:30.279,0:31:31.519 chúng ta có thể đặt câu hỏi, "Nguyên nhân nào khiến 0:31:31.519,0:31:34.039 các mùa thay đổi?" Và đưa ra hai lựa chọn cho con người: 0:31:34.039,0:31:36.679 "Sự thay đổi xảy ra liên tục và 0:31:36.679,0:31:38.600 là một khía cạnh quan trọng 0:31:38.600,0:31:41.200 của cuộc sống," (phản hồi tệ). 0:31:41.200,0:31:43.679 "Các mùa thay đổi chủ yếu do độ nghiêng của trục Trái Đất," (phản hồi tốt). 0:31:43.679,0:31:46.639 Chúng ta sẽ dùng đánh giá này 0:31:46.639,0:31:49.279 để huấn luyện lại mô hình. 0:31:49.279,0:31:52.679 Tinh chỉnh là điều rất 0:31:52.679,0:31:55.960 quan trọng. Và bây giờ, dù ban đầu đã rất tốn kém, 0:31:55.960,0:31:58.200 giờ đây chúng ta còn làm nó đắt đỏ hơn 0:31:58.200,0:32:00.480 khi đưa con người vào quy trình. 0:32:00.480,0:32:01.960 Bởi vì chúng ta phải trả tiền cho 0:32:01.960,0:32:03.639 những người đưa ra các ưu tiên, chúng ta cần suy 0:32:03.639,0:32:06.240 nghĩ về các nhiệm vụ. Điều này cũng áp dụng cho 0:32:06.240,0:32:08.600 sự trung thực có thể chứng minh rằng P 0:32:08.600,0:32:11.399 bằng NP không ? Không, điều đó là không thể, không phải là một câu trả lời 0:32:11.399,0:32:13.720 Đây được xem là một 0:32:13.720,0:32:15.519 vấn đề rất khó và chưa có lời giải trong ngành 0:32:15.519,0:32:18.279 khoa học máy tính, là một câu trả lời tốt hơn. 0:32:18.279,0:32:21.840 Và điều này cũng tương tự với sự vô hại. 0:32:21.840,0:32:24.960 Được rồi, tôi nghĩ đã đến lúc, hãy xem liệu chúng ta có thể thực hiện một bản trình diễn 0:32:24.960,0:32:26.639 hay không ?. Vâng, thật tệ nếu bạn xóa hết tất cả 0:32:26.639,0:32:27.720 các tệp 0:32:27.720,0:32:33.159 Được rồi, chờ chút, được rồi. Bây giờ chúng ta có GPT ở đây. 0:32:33.159,0:32:35.960 Tôi sẽ hỏi một số câu hỏi, sau đó 0:32:35.960,0:32:37.360 chúng ta sẽ nhận câu hỏi từ 0:32:37.360,0:32:40.480 khán giả, được chứ? Hãy hỏi một câu hỏi. 0:32:40.480,0:32:44.360 "Vương quốc Anh có phải là một chế độ quân chủ không?" 0:32:44.360,0:32:47.039 Bạn có nhìn thấy câu hỏi đó ở trên không? 0:32:47.600,0:32:51.840 Tôi không chắc. 0:32:52.639,0:32:55.720 Và nó không tạo ra câu trả lời. 0:32:55.720,0:32:58.320 Ồ, hoàn hảo, được rồi. 0:32:58.320,0:33:01.600 Bạn nhận thấy điều gì? Đầu tiên, câu trả lời 0:33:01.600,0:33:04.600 quá dài. Tôi luôn thấy phiền về điều này. 0:33:04.600,0:33:07.000 Nó quá dài. Bạn thấy nó nói gì không? "Theo bản cập nhật kiến thức cuối cùng của tôi vào tháng 9 năm 2021, 0:33:07.000,0:33:09.360 Vương quốc Anh là một chế độ 0:33:09.360,0:33:10.960 quân chủ lập hiến." Có thể là nó không còn là vậy nữa, đúng không? 0:33:10.960,0:33:12.919 Điều gì đó đã xảy ra. 0:33:12.919,0:33:15.399 "Điều này có nghĩa là dù có một vị vua 0:33:15.399,0:33:17.880 hoặc nữ hoàng, nhưng người trị vì vào 0:33:17.880,0:33:21.480 thời điểm đó là Nữ hoàng Elizabeth III." 0:33:21.480,0:33:23.200 Vậy nó nói với bạn rằng, bạn biết đấy, 0:33:23.200,0:33:25.480 tôi không biết điều gì đã xảy ra, nhưng lúc đó có 0:33:25.480,0:33:30.159 Nữ hoàng Elizabeth. 0:33:30.159,0:33:34.440 Giờ nếu bạn hỏi nó, "Ai là Rishi?" 0:33:34.440,0:33:38.639 Nếu tôi có thể gõ, "Rishi Sunak," nó có biết không? 0:33:43.960,0:33:47.039 "Một chính trị gia người Anh. Theo bản 0:33:47.039,0:33:49.639 cập nhật kiến thức cuối cùng của tôi, 0:33:49.639,0:33:53.000 ông ấy là Bộ trưởng Tài chính." 0:33:53.000,0:33:54.639 Vậy là nó không biết rằng ông ấy là 0:33:54.639,0:33:57.720 Thủ tướng. "Hãy 0:33:57.720,0:34:01.320 viết cho tôi một bài thơ, 0:34:01.320,0:34:03.960 viết một bài thơ về." Về cái gì đây? 0:34:03.960,0:34:08.120 Cho tôi hai gợi ý, được không?[br][Khán giả] Trí tuệ nhân tạo tạo sinh. 0:34:08.159,0:34:11.520 (Khán giả cười)- Nó sẽ biết. 0:34:11.520,0:34:13.399 Nó sẽ biết, hãy làm một bài thơ khác về... 0:34:13.399,0:34:17.159 ... mèo. 0:34:17.159,0:34:20.239 Một con mèo và một con sóc, chúng ta sẽ làm về mèo và sóc. 0:34:20.239,0:34:24.678 "Mèo và 0:34:25.879,0:34:27.679 ...sóc." 0:34:27.679,0:34:30.040 "Mèo và sóc gặp nhau và hiểu nhau. Một câu chuyện về sự 0:34:30.040,0:34:32.599 tò mò," ồ. (Khán giả cười) 0:34:32.599,0:34:36.239 Ôi trời, được rồi, tôi sẽ không đọc hết. 0:34:36.239,0:34:38.960 Họ muốn tôi kết thúc 0:34:38.960,0:34:42.719 lúc 8 giờ, nên... 0:34:42.719,0:34:48.359 Hãy nói, "Bạn có thể thử một 0:34:48.359,0:34:51.679 bài thơ ngắn hơn không?"[br][Khán giả] Thử một bài haiku. 0:34:51.679,0:34:54.960 "Bạn có thể thử, bạn có thể 0:34:54.960,0:34:55.879 thử làm 0:34:55.879,0:34:57.680 một bài 0:34:57.680,0:35:01.240 haiku không?" Làm cho tôi một bài haiku. 0:35:04.480,0:35:07.800 "Giữa sắc thu vàng, 0:35:07.800,0:35:11.440 lá thì thầm bí mật chưa từng kể, câu chuyện của thiên nhiên, đậm nét." 0:35:11.440,0:35:16.200 (Khán giả vỗ tay) Được rồi, đừng vỗ tay, 0:35:16.200,0:35:18.960 được chứ, tiếp tục, được rồi, 0:35:18.960,0:35:21.119 còn điều gì nữa mà khán giả muốn hỏi không, 0:35:21.119,0:35:22.599 nhưng phải khó? Có ai không? 0:35:22.599,0:35:27.920 [Khán giả] Alan Turing học trường nào? 0:35:27.920,0:35:36.480 Hoàn hảo, "Alan Turing học trường nào?" 0:35:38.520,0:35:42.920 Ôi trời. (Khán giả cười) Ông ấy đã học, bạn có biết không? 0:35:42.920,0:35:44.200 Tôi không biết liệu điều này có đúng không, đây là 0:35:44.200,0:35:46.119 vấn đề. Trường Sherborne, có ai 0:35:46.119,0:35:49.480 xác minh được không? Trường King's College, Cambridge, 0:35:49.480,0:35:52.599 Princeton. Đúng, được rồi, đây là một câu hỏi khác. 0:35:52.599,0:35:53.839 "Hãy nói một câu chuyện cười 0:35:53.839,0:35:57.720 về 0:35:57.720,0:36:00.560 Alan Turing. Được rồi, tôi không thể gõ nhưng nó sẽ, được chứ. 0:36:00.560,0:36:03.119 "Câu chuyện cười nhẹ nhàng. Tại sao 0:36:03.119,0:36:04.800 Alan Turing giữ cho máy tính của mình luôn lạnh?" 0:36:04.800,0:36:08.079 Bởi vì ông ấy không muốn nó bị 0:36:09.480,0:36:11.560 "cắn byte." 0:36:11.560,0:36:16.040 (Khán giả cười) Tệ quá. Được rồi, 0:36:16.040,0:36:22.920 được rồi. - Giải thích 0:36:22.920,0:36:25.640 0:36:25.720,0:36:28.119 tại sao điều đó buồn cười. 0:36:28.119,0:36:30.599 Khán giả cười) - Ồ, rất hay. 0:36:30.599,0:36:33.680 "Tại sao đây lại là một câu chuyện cười hài hước?" 0:36:33.680,0:36:36.000 (Khán giả cười) "Bị cắn byte 0:36:36.119,0:36:39.000 0:36:39.000,0:36:40.839 là một cách 0:36:40.839,0:36:43.440 chơi chữ thông minh 0:36:43.440,0:36:45.440 và bất ngờ." (Khán giả cười) Được rồi, bạn mất hết tinh thần, 0:36:45.440,0:36:48.640 nhưng nó giải thích được, nó giải thích được, được chứ. 0:36:48.640,0:36:52.359 Đúng, còn gì nữa không từ các bạn. 0:36:52.359,0:36:53.760 [Khán giả] Ý thức là gì? 0:36:53.760,0:36:56.000 Nó sẽ biết vì nó đã thấy 0:36:56.000,0:36:59.440 các định nghĩa và sẽ tạo ra 0:36:59.440,0:37:03.720 một đoạn dài lê thê. Chúng ta thử nhé? 0:37:03.880,0:37:06.319 Nói lại?[br][Khán giả] Viết một bài hát về 0:37:06.319,0:37:11.760 thuyết tương đối. 0:37:11.760,0:37:19.040 Được rồi, "Viết một bài hát." - Ngắn. (Khán giả cười) - Các bạn học nhanh đấy. 0:37:21.280,0:37:25.079 "Một bài hát ngắn về thuyết tương đối." 0:37:25.599,0:37:28.599 Ôi trời ơi. (Khán giả cười) 0:37:29.240,0:37:31.560 Đây 0:37:32.079,0:37:35.880 là ngắn sao ? (Khán giả cười) Được rồi, phần kết, được chứ, vậy hãy xem, 0:37:35.880,0:37:38.839 nó không làm theo chỉ dẫn. Nó không hữu ích. 0:37:38.839,0:37:41.040 Và điều này đã được tinh chỉnh. 0:37:41.040,0:37:43.920 Được rồi, phần hay nhất là ở đây. Nó nói rằng, 0:37:43.920,0:37:46.760 "Einstein nói, 'Eureka!'một ngày định mệnh, 0:37:46.760,0:37:49.480 khi ông suy ngẫm về các vì sao theo 0:37:49.480,0:37:52.319 cách rất riêng của mình. 0:37:52.319,0:37:55.720 Thuyết tương đối, ông ấy đã hé lộ, 0:37:55.720,0:37:58.200 một câu chuyện vũ trụ, cổ xưa và đậm chất." Tôi phải khen ngợi điều đó, được chứ. 0:37:58.200,0:38:02.079 Giờ quay lại bài nói chuyện, 0:38:02.079,0:38:04.040 vì tôi muốn nói một chút, 0:38:04.040,0:38:06.560 trình bày, tôi muốn nói thêm một chút về, 0:38:06.560,0:38:07.359 0:38:07.359,0:38:10.800 bạn biết đấy: Điều này tốt hay xấu, 0:38:10.800,0:38:13.480 có công bằng không, liệu chúng ta có đang gặp nguy hiểm không? 0:38:13.480,0:38:15.359 Được rồi, gần như không thể kiểm soát hoàn toàn 0:38:15.359,0:38:19.000 nội dung mà họ tiếp xúc, đúng chứ? 0:38:19.000,0:38:20.640 Và luôn tồn tại các thiên kiến lịch sử. 0:38:20.640,0:38:22.560 Chúng ta đã thấy điều này qua ví dụ về Nữ hoàng 0:38:22.560,0:38:23.760 và Rishi Sunak. 0:38:23.760,0:38:27.599 Các mô hình AI đôi khi cũng thể hiện 0:38:27.599,0:38:30.640 những hành vi không mong muốn. 0:38:30.640,0:38:34.359 Ví dụ, đây là một trường hợp nổi tiếng: 0:38:34.359,0:38:37.839 Google giới thiệu mô hình của họ mang tên 0:38:37.839,0:38:42.240 Bard và đăng một dòng tweet, 0:38:42.240,0:38:44.240 họ đã hỏi Bard rằng 0:38:44.240,0:38:46.240 0:38:46.240,0:38:49.680 "Có phát hiện mới nào từ Kính viễn vọng Không gian James Webb 0:38:49.680,0:38:52.760 mà tôi có thể kể cho con trai 9 tuổi của mình không?" 0:38:52.760,0:38:55.240 Và nó trả lời ba điều. Trong đó, nó tuyên bố rằng: 0:38:55.240,0:38:58.440 "Kính viễn vọng này đã chụp được bức ảnh đầu tiên về 0:38:58.440,0:39:02.800 một hành tinh ngoài Hệ Mặt Trời." 0:39:02.800,0:39:04.839 Rồi xuất hiện Grant Tremblay, 0:39:04.839,0:39:07.280 một nhà vật lý thiên văn có tiếng, và ông ấy nói: 0:39:07.280,0:39:09.480 "Tôi rất tiếc, chắc chắn 0:39:09.480,0:39:13.079 Bard rất tuyệt vời, nhưng nó đã sai. 0:39:13.079,0:39:15.880 Hình ảnh đầu tiên về một hành tinh ngoài Hệ Mặt Trời không phải do kính viễn vọng này chụp 0:39:15.880,0:39:18.160 mà do một nhóm khác 0:39:18.160,0:39:21.560 vào năm 2004." Kết quả là, 0:39:21.560,0:39:24.960 lỗi này đã khiến Google, 0:39:24.960,0:39:29.640 thuộc công ty Alphabet, mất 100 tỷ USD. 0:39:29.640,0:39:31.560 được rồi 0:39:31.560,0:39:34.960 Quá tệ. Nếu bạn hỏi ChatGPT: "Kể một câu chuyện 0:39:34.960,0:39:38.560 cười về đàn ông," nó sẽ trả lời và nói rằng câu chuyện [br]828[br]00:39:38,560 --> 00:39:40,760[br]có thể hài hước. Ví dụ: "Tại sao đàn ông cần xem lại pha quay chậm 0:39:40.760,0:39:42.680 khi xem thể thao? Vì sau 0:39:42.680,0:39:45.040 30 giây, họ quên mất chuyện gì đã xảy ra". 0:39:45.040,0:39:47.480 Hy vọng bạn thấy vui. Nhưng nếu bạn hỏi về 0:39:47.480,0:39:49.960 phụ nữ, nó sẽ từ chối. 0:39:51.520,0:39:53.560 (Khán giả cười) Đúng vậy. 0:39:53.560,0:39:55.400 0:39:55.400,0:39:59.440 Nó được tinh chỉnh. 0:39:59.440,0:40:02.160 - Chính xác, nó đã được tinh chỉnh. (Khán giả cười) "Ai là nhà độc tài tồi tệ nhất trong nhóm này: 0:40:02.160,0:40:04.760 Trump, Hitler, Stalin, Mao?" 0:40:04.760,0:40:08.040 Nó không đưa ra quan điểm rõ ràng, 0:40:08.040,0:40:11.200 chỉ nói rằng tất cả họ đều tồi tệ. 0:40:11.200,0:40:13.119 "Những nhà lãnh đạo này được xem là một trong những 0:40:13.119,0:40:18.000 nhà độc tài tồi tệ nhất trong lịch sử" 0:40:18.000,0:40:21.000 Được rồi, đúng vậy. 0:40:21.800,0:40:25.400 Một truy vấn của ChatGPT như chúng ta vừa thực hiện tiêu tốn năng lượng 0:40:25.400,0:40:28.240 gấp 100 lần so với 0:40:28.240,0:40:30.800 một truy vấn 0:40:30.800,0:40:33.760 tìm kiếm Google. Việc suy luận, tức là tạo ra 0:40:33.760,0:40:36.760 ngôn ngữ, tiêu thụ rất nhiều năng lượng, thậm chí còn đắt đỏ hơn 0:40:36.760,0:40:38.880 việc huấn luyện mô hình. Ví dụ, khi huấn luyện 0:40:38.880,0:40:42.400 Llama 2, một mô hình tương tự GPT, 0:40:42.400,0:40:45.880 nó đã thải ra 539 tấn CO2. 0:40:45.880,0:40:49.119 Mô hình càng lớn, 0:40:49.119,0:40:52.280 chúng càng cần nhiều năng lượng và thải ra nhiều khí 0:40:52.280,0:40:55.400 trong quá trình hoạt động. 0:40:55.400,0:40:57.839 Hãy tưởng tượng có rất nhiều mô hình như vậy 0:40:57.839,0:41:00.720 hoạt động cùng lúc. 0:41:00.720,0:41:03.880 Về xã hội, một số công việc sẽ bị mất. Chúng ta không thể phủ nhận điều này. 0:41:03.880,0:41:05.319 Goldman Sachs 0:41:05.319,0:41:08.160 dự đoán 300 triệu việc làm có thể bị ảnh hưởng. 0:41:08.160,0:41:10.119 Tôi không chắc về điều đó, bạn biết chúng ta không biết 0:41:10.119,0:41:14.440 tương lai thế nào, nhưng một số công việc, 0:41:14.440,0:41:17.240 đặc biệt là các nhiệm vụ lặp đi lặp lại, sẽ gặp rủi ro. 0:41:17.240,0:41:19.640 Ví dụ, tạo tin tức giả. 0:41:19.640,0:41:22.880 Đây là những trường hợp đã được ghi nhận 0:41:22.880,0:41:25.839 trên báo chí. Một sinh viên đại học đã viết một bài 0:41:25.839,0:41:28.319 blog và đánh lừa mọi người 0:41:28.319,0:41:32.920 bằng cách sử dụng ChatGPT. 0:41:32.920,0:41:36.160 Chúng có thể tạo ra tin giả. 0:41:36.160,0:41:38.800 Và đây là một bài hát, các bạn có biết chuyện này không? 0:41:38.800,0:41:40.680 Tôi biết rằng chúng ta đang tập trung 0:41:40.680,0:41:44.200 vào văn bản nhưng công nghệ tương tự cũng có thể được 0:41:44.200,0:41:46.720 sử dụng cho âm thành và đây là một 0:41:46.720,0:41:50.040 trường hợp nổi tiếng khi ai đó 0:41:50.040,0:41:53.280 đã tạo ra bài hát này và tuyên bố rằng 0:41:53.280,0:41:55.640 nó là sự hợp tác giữa 0:41:55.640,0:41:58.640 Drake và The Weeknd.[br]Có ai biết họ 0:41:58.640,0:42:00.720 là ai không? Đúng rồi, 0:42:00.720,0:42:03.240 những rapper người Canada, và họ cũng khá nổi tiếng. 0:42:03.240,0:42:09.400 Tôi có nên bật bài hát này không? - Có. - Được rồi. 0:42:09.400,0:42:12.310 Bài hát nghe rất thuyết phục. 0:42:12.310,0:42:22.889 ♪ Tôi quay lại với người yêu cũ, như Selena tái xuất, ay ♪ ♪ Nghe Justin Bieber, cơn sốt vẫn chưa hết, ay ♪[br]♪ Cô ấy biết điều mình cần ♪ 0:42:25.160,0:42:27.640 - Nghe có vẻ 0:42:27.640,0:42:29.599 hoàn toàn thuyết phục, 0:42:29.599,0:42:33.200 đúng không? 0:42:33.200,0:42:35.839 Bạn đã thấy công nghệ tương tự này nhưng hơi khác một chút chưa? 0:42:35.839,0:42:37.920 Đây là một deepfake cho thấy Trump bị bắt. 0:42:37.920,0:42:38.800 Làm thế nào để bạn biết 0:42:38.800,0:42:42.480 đó là deepfake? 0:42:42.480,0:42:46.200 Bàn tay của ông ấy, đúng không? 0:42:46.200,0:42:49.119 Nó quá ngắn, không đúng tỷ lệ. 0:42:49.119,0:42:53.280 Đúng vậy, bạn có thể thấy nó gần như thật, nhưng vẫn không hoàn toàn đúng. Được rồi, 0:42:53.280,0:42:54.800 tôi còn hai slide về tương lai 0:42:54.800,0:42:56.680 trước khi họ đến và yêu cầu tôi dừng lại, 0:42:56.680,0:42:58.160 vì tôi được thông báo rằng tôi phải kết thúc lúc 8 giờ để dành thời gian 0:42:58.160,0:43:00.880 cho các câu hỏi. Được rồi, ngày mai. 0:43:00.880,0:43:05.359 Chúng ta không thể đoán trước tương lai, và không, 0:43:05.359,0:43:07.359 tôi không nghĩ rằng những 0:43:07.359,0:43:08.880 cỗ máy "ác quỷ" này 0:43:08.880,0:43:11.160 sẽ xuất hiện và tiêu diệt tất cả chúng ta. Tôi sẽ để lại cho bạn một số 0:43:11.160,0:43:14.240 suy nghĩ từ Tim Berners-Lee. 0:43:14.240,0:43:15.720 Đối với những ai chưa biết, ông ấy là người phát minh ra 0:43:15.720,0:43:18.359 Internet.Thực ra, ông ấy là Sir Tim Berners-Lee. 0:43:18.359,0:43:21.359 Ông ấy đã nói hai điều rất hợp lý với tôi. 0:43:21.359,0:43:23.720 Đầu tiên, chúng ta thực sự không biết 0:43:23.720,0:43:26.400 AI siêu thông minh sẽ trông như thế nào 0:43:26.400,0:43:28.839 sẽ trông như thế nào. Chúng ta chưa tạo ra nó, vì vậy 0:43:28.839,0:43:31.119 khó mà đưa ra những tuyên bố như vậy. 0:43:31.119,0:43:33.240 Tuy nhiên, khả năng cao là sẽ có rất nhiều 0:43:33.240,0:43:36.119 AI thông minh, và khi nói đến AI thông minh, 0:43:36.119,0:43:39.880 chúng ta đang nói về những thứ như GPT. 0:43:39.880,0:43:42.359 Nhiều công nghệ trong số đó sẽ tốt và giúp chúng ta 0:43:42.359,0:43:45.040 làm nhiều việc. Tuy nhiên, một số có thể 0:43:45.040,0:43:48.359 rơi vào tay những cá nhân 0:43:48.359,0:43:51.400 những cá nhân đó muốn gây hại và 0:43:51.400,0:43:54.160 và dường như việc giảm thiểu thiệt hại do 0:43:54.160,0:43:57.720 các công cụ này gây ra dễ dàng hơn là 0:43:57.720,0:44:00.440 ngăn chặn hoàn toàn sự tồn tại của chúng. Vì vậy, chúng ta 0:44:00.440,0:44:02.200 không thể loại bỏ chúng hoàn toàn, 0:44:02.200,0:44:04.079 nhưng chúng ta với tư cách là một xã hội có thể 0:44:04.079,0:44:05.400 giảm thiểu 0:44:05.400,0:44:07.760 rủi ro. Điều này rất thú vị. 0:44:07.760,0:44:10.400 Đây là một cuộc khảo sát của Hội đồng Nghiên cứu Úc, trong đó họ 0:44:10.400,0:44:12.960 đã tiến hành một cuộc khảo sát và họ đã giải quyết 0:44:12.960,0:44:15.800 một kịch bản giả định rằng 0:44:15.800,0:44:20.640 liệu Chad GPT 4 có thể tự 0:44:20.640,0:44:23.359 nhân bản, 0:44:23.359,0:44:26.040 tự tạo bản sao, thu thập tài nguyên và 0:44:26.040,0:44:28.800 trở thành một tác nhân nguy hiểm hay không, 0:44:28.800,0:44:31.319 giống như trong phim ảnh. 0:44:31.319,0:44:35.800 Câu trả lời là không, nó không thể làm được điều này, nó không thể 0:44:35.800,0:44:37.720 và họ đã có một số thử nghiệm cụ thể 0:44:37.720,0:44:39.800 và nó đã thất bại trên tất cả các thử nghiệm đó, chẳng hạn như 0:44:39.800,0:44:41.599 thiết lập một mô hình ngôn ngữ nguồn mở 0:44:41.599,0:44:44.200 trên một máy chủ mới, nó không thể làm được 0:44:44.200,0:44:48.440 điều đó, được rồi, slide cuối cùng, quan điểm của tôi về vấn đề này 0:44:48.440,0:44:50.839 là chúng ta không thể quay ngược 0:44:50.839,0:44:54.480 thời gian và mỗi khi bạn nghĩ về 0:44:54.480,0:44:57.119 AI đến đó để giết bạn, bạn 0:44:57.119,0:44:58.880 nên nghĩ xem mối đe dọa lớn hơn 0:44:58.880,0:45:02.480 đối với nhân loại là gì: AI hay biến đổi khí hậu 0:45:02.480,0:45:04.160 Cá nhân tôi cho rằng biến đổi khí hậu sẽ 0:45:04.160,0:45:06.200 xóa sổ tất cả chúng ta trước khi AI trở nên 0:45:06.200,0:45:07.119 siêu 0:45:07.119,0:45:10.359 thông minh. Vậy ai là người kiểm soát AI 0:45:10.359,0:45:12.280 có một số người ở đó, 0:45:12.280,0:45:14.680 hy vọng có lý trí. Và ai là người 0:45:14.680,0:45:17.640 hưởng lợi từ nó? Lợi ích có lớn hơn 0:45:17.640,0:45:20.520 rủi ro không? Trong một số trường hợp thì có, 0:45:20.520,0:45:24.079 nhưng trong nhiều trường hợp khác thì không. 0:45:24.079,0:45:26.920 Lịch sử đã cho thấy rằng tất cả các công nghệ tiềm ẩn rủi ro, 0:45:26.920,0:45:29.960 chẳng hạn như năng lượng hạt nhân, 0:45:29.960,0:45:32.359 đều đã được quản lý chặt chẽ. 0:45:32.359,0:45:34.760 Vì vậy, quy định đang được tiến hành, 0:45:34.760,0:45:38.480 và hãy quan sát lĩnh vực này. Với điều đó, tôi xin dừng lại và 0:45:38.480,0:45:40.440 sẵn sàng lắng nghe câu hỏi từ các bạn. 0:45:40.440,0:45:43.080 Cảm ơn các bạn rất nhiều vì đã lắng nghe, các bạn thật tuyệt vời. 0:45:43.080,0:45:54.880 0:45:54.880,0:45:57.880 tuyệt vời