< Return to Video

What is generative AI and how does it work? – The Turing Lectures with Mirella Lapata

  • 0:06 - 0:09
    [Âm nhạc]
  • 0:09 - 0:12
    [Vỗ tay]
  • 0:12 - 0:16
    Wow, đông quá nhỉ. Tốt, cảm ơn
  • 0:16 - 0:21
    vì lời giới thiệu đáng yêu đó.
  • 0:21 - 0:23
  • 0:23 - 0:25
    Được rồi, vậy
  • 0:25 - 0:28
    trí tuệ nhân tạo sáng tạo (generative artificial intelligence) là gì?
  • 0:28 - 0:30
    tôi muốn phần này có tính tương tác một chút
  • 0:30 - 0:32
    vì vậy sẽ có phần tham gia
  • 0:32 - 0:35
    tham gia từ những người ở đây
  • 0:35 - 0:37
    Những người tổ chức buổi giảng này nói với tôi, "Oh, bạn là người
  • 0:37 - 0:40
    ít hiểu biết về công nghệ đối với một người làm việc về AI."
  • 0:40 - 0:42
    Tôi không có vụ nổ hay
  • 0:42 - 0:45
    thí nghiệm nào nên tôi e rằng bạn sẽ phải
  • 0:45 - 0:48
    tham gia vào. hy vọng điều đó không sao chứ. Được rồi,
  • 0:48 - 0:50
    vậy trí tuệ nhân tạo tạo sinh là gì,
  • 0:50 - 0:54
    thuật ngữ này được tạo thành
  • 0:54 - 0:57
    từ hai thứ: trí tuệ nhân tạo
  • 0:57 - 0:59
    và tạo sinh,
  • 0:59 - 1:02
    trí tuệ nhân tạo là một thuật ngữ hoa mỹ để nói rằng
  • 1:02 - 1:05
    chúng ta có một chương trình máy tính để thực hiện công việc
  • 1:05 - 1:08
    mà con người sẽ làm và
  • 1:08 - 1:11
    tạo sinh đây là phần thú vị chúng ta đang
  • 1:11 - 1:14
    tạo ra nội dung mới mà máy tính
  • 1:14 - 1:17
    chưa chắc đã thấy, nó có thể thấy
  • 1:17 - 1:19
    một phần nào đó của nội dung đó và nó có thể tổng hợp nội
  • 1:19 - 1:22
    dung đó và cung cấp cho chúng ta những điều mới, vậy
  • 1:22 - 1:25
    nội dung mới này sẽ là gì, có thể là âm thanh,
  • 1:25 - 1:28
    có thể là mã nguồn máy tính để tạo ra
  • 1:28 - 1:31
    một chương trình cho chúng ta, nó có thể là một hình ảnh mới,
  • 1:31 - 1:34
    nó có thể là một đoạn văn bản như email hoặc một
  • 1:34 - 1:37
    bài luận mà bạn đã nghe hay video. Trong
  • 1:37 - 1:40
    bài giảng này tôi sẽ chỉ
  • 1:40 - 1:42
    tập trung chủ yếu vào văn bản vì tôi làm về
  • 1:42 - 1:43
    xử lý ngôn ngữ tự nhiên và đó là lĩnh vực mà tôi
  • 1:43 - 1:47
    hiểu biết rõ nhất và chúng ta sẽ xem
  • 1:47 - 1:50
    công nghệ hoạt động như thế nào và hy vọng là
  • 1:50 - 1:54
    sau bài giảng này các bạn biết sẽ hiểu rằng dù có
  • 1:54 - 1:56
    có rất nhiều huyền thoại xung quanh nó,
  • 1:56 - 1:59
    nhưng thật ra nó
  • 1:59 - 2:01
    chỉ là một công cụ mà thôi, được chứ ?
  • 2:01 - 2:04
    Được rồi, vậy phần bố cục của bài giảng
  • 2:04 - 2:05
    có ba phần và nó hơi
  • 2:05 - 2:09
    nhàm chán. Đây là Alice Morse Earle. Tôi không
  • 2:09 - 2:12
    hi vọng các bạn biết người phụ nữ này, bà là một
  • 2:12 - 2:16
    nhà văn người Mỹ và bà viết về
  • 2:16 - 2:20
    kỷ vật và phong tục nhưng bà nổi tiếng
  • 2:20 - 2:22
    với những câu trích dẫn của mình Ví dụ như câu này:
  • 2:22 - 2:24
    "Hôm qua là lịch sử,
  • 2:24 - 2:27
    ngày mai là bí ẩn, hôm nay là một món quà
  • 2:27 - 2:28
    và đó là lý do tại sao nó được gọi là hiện tại"
  • 2:28 - 2:31
    Đây là một câu trích dẫn rất lạc quan và
  • 2:31 - 2:35
    bài giảng về cơ bản là về quá khứ,
  • 2:35 - 2:39
    hiện tại và tương lai của AI, được rồi,
  • 2:39 - 2:42
    điều tôi muốn nói ngay từ đầu
  • 2:42 - 2:45
    là AI tạo sinh không phải là một
  • 2:45 - 2:51
    khái niệm mới, nó đã tồn tại từ khá lâu rồi. Vậy có
  • 2:51 - 2:53
    bao nhiêu người trong số các bạn đã sử dụng hoặc đang sử dụng
  • 2:53 - 2:57
    quen thuộc với Google dịch ? Cho tôi xem
  • 2:57 - 3:00
    cánh tay nào? Được rồi, ai có thể cho tôi biết
  • 3:00 - 3:03
    Google dịch ra mắt
  • 3:03 - 3:04
  • 3:04 - 3:06
    lần đầu tiên là khi nào ?
  • 3:06 - 3:10
    Năm 1995 ? Ồ, điều đó sẽ tốt đây. Năm 2006,
  • 3:10 - 3:15
    tức là nó đã tồn tại được 17 năm rồi và
  • 3:15 - 3:17
    tất cả chúng ta đã sử dụng nó và đây là một
  • 3:17 - 3:19
    ví dụ về AI tạo sinh, văn bản tiếng Hy Lạp
  • 3:19 - 3:22
    được nhập vào (Tôi là người Hy Lạp, nên bạn biết đấy, hãy dành chút tình cảm
  • 3:22 - 3:27
    Đúng vậy, đoạn văn bản tiếng Hy Lạp đã được nhập vào và
  • 3:27 - 3:30
    đoạn văn bản tiếng Anh xuất hiện và Google
  • 3:30 - 3:32
    dịch đã phục vụ chúng ta rất tốt trong
  • 3:32 - 3:34
    suốt những năm qua và không ai làm
  • 3:34 - 3:39
    ầm lên về nó cả. Một ví dụ khác là Siri
  • 3:39 - 3:43
    trên điện thoại. Siri
  • 3:43 - 3:45
    đã ra mắt vào
  • 3:45 - 3:50
    năm 2011, 12 năm trước và nó đã trở thành một hiện tượng
  • 3:50 - 3:53
    Đây cũng là một ví dụ khác về
  • 3:53 - 3:55
    AI tạo sinh, chúng ta có thể yêu cầu Siri đặt
  • 3:55 - 3:59
    báo thức và Siri sẽ trả lời lại, thật
  • 3:59 - 4:00
    tuyệt vời,
  • 4:00 - 4:02
    bạn có thể hỏi về báo thức
  • 4:02 - 4:04
    hoặc bất cứ thứ gì khác, đây chính là AI tạo sinh,
  • 4:04 - 4:07
    Dù không tinh vi như Chat GPT,
  • 4:07 - 4:09
    nhưng nó đã xuất hiện từ trước rồi và không biết có bao
  • 4:09 - 4:11
    nhiêu người trong số các bạn dùng
  • 4:11 - 4:15
    iPhone? Xem kìa, iPhone khá phổ biến. Tôi
  • 4:15 - 4:18
    không hiểu tại sao. Được rồi, vậy là chúng ta đều
  • 4:18 - 4:20
    quen thuộc với nó và tất nhiên
  • 4:20 - 4:23
    sau đó có Amazon Alexa và nhiều thứ khác nữa. Vậy một lần nữa,
  • 4:23 - 4:27
    AI tạo sinh Không phải là một
  • 4:27 - 4:30
    khái niệm mới, nó ở khắp mọi nơi, nó là một phần của
  • 4:30 - 4:33
    điện thoại của bạn. Tính năng hoàn thành tự động khi bạn
  • 4:33 - 4:35
    gửi email hoặc khi bạn gửi email hoặc
  • 4:35 - 4:39
    tin nhắn. Điện thoại cố gắng hoàn thành
  • 4:39 - 4:42
    câu của bạn, cố gắng suy nghĩ giống như
  • 4:42 - 4:45
    bạn và nó giúp bạn tiết kiệm thời gian, đúng chứ ? vì
  • 4:45 - 4:47
    một số gợi ý đã có sẵn rồi
  • 4:47 - 4:48
    Tương tự như với Google, khi bạn nhập liệu,
  • 4:48 - 4:51
    nó cố gắng đoán từ khóa tìm kiếm của bạn
  • 4:51 - 4:53
    Đây là một ví dụ về
  • 4:53 - 4:55
    mô hình ngôn ngữ, chúng ta sẽ nghe rất nhiều về
  • 4:55 - 4:58
    mô hình ngôn ngữ trong bài nói chuyện này, vì vậy về cơ bản chúng ta đang
  • 4:58 - 5:00
    đưa ra dự đoán về những gì
  • 5:00 - 5:04
    tiếp theo sẽ như thế nào. Vì vậy,
  • 5:04 - 5:06
    điều tôi muốn nói với bạn là AI tạo sinh
  • 5:06 - 5:09
    không hẳn là mới mẻ. Vậy vấn đề là gì, tại sao mọi người lại bàn tán xôn xao
  • 5:09 - 5:11
    chuyện gì đã xảy ra ?
  • 5:11 - 5:14
    vào năm
  • 5:14 - 5:18
    2023, Open AI mở một công ty ở
  • 5:18 - 5:20
    California thực tế là ở San Francisco. Nếu
  • 5:20 - 5:22
    bạn đến San Francisco, bạn thậm chí có thể nhìn thấy
  • 5:22 - 5:25
    ánh đèn của tòa nhà họ vào ban đêm
  • 5:25 - 5:27
    Họ đã công bố
  • 5:27 - 5:31
    GPT-4 và tuyên bố rằng nó có thể vượt quá 90%
  • 5:31 - 5:34
    con người trong bài kiểm tra SAT. Đối với
  • 5:34 - 5:37
    những ai chưa biết, SAT là một
  • 5:37 - 5:40
    bài kiểm tra tiêu chuẩn mà học sinh ở Mỹ
  • 5:40 - 5:42
    phải làm để vào Đại học. Đó là một
  • 5:42 - 5:45
    bài kiểm tra tuyển sinh và đó là bài trắc nghiệm
  • 5:45 - 5:49
    được xem là không dễ. Vậy mà GPT-4
  • 5:49 - 5:51
    có thể làm được, họ cũng tuyên bố rằng nó có thể
  • 5:51 - 5:55
    đạt điểm cao trong các kỳ thi luật, y khoa
  • 5:55 - 5:57
    và các kỳ thi khác. Họ có cả một loạt các kết quả
  • 5:57 - 6:00
    mà họ không chỉ tuyên bố mà còn
  • 6:00 - 6:04
    chứng minh rằng GPT-4 có thể làm được.
  • 6:04 - 6:07
    Ngoài việc nó có thể vượt qua các kỳ thi
  • 6:07 - 6:11
    chúng ta có thể yêu cầu nó làm những việc khác. Ví dụ, bạn
  • 6:11 - 6:14
    có thể yêu cầu nó viết văn bản cho bạn. Chẳng
  • 6:14 - 6:18
    hạn bạn có thể đưa ra một "prompt" (yêu cầu)
  • 6:18 - 6:19
    cái mà bạn thấy trên kia,
  • 6:19 - 6:22
    đó chính là prompt. Đó chính là những gì con người muốn
  • 6:22 - 6:25
    công cụ thực hiện cho họ. Một
  • 6:25 - 6:27
    prompt có thể là: "Tôi đang viết một bài luận
  • 6:27 - 6:29
    về việc sử dụng điện thoại di động khi
  • 6:29 - 6:31
    lái xe. Bạn có thể đưa ra cho tôi ba luận điểm
  • 6:31 - 6:34
    ủng hộ điều này không ? Nếu
    137
    00:06:34,160 --> 00:06:36,199
    bạn hỏi tôi, tôi không chắc tôi có thể đưa ra
  • 6:36 - 6:39
    ba luận điểm. Bạn cũng có thể yêu cầu, và
  • 6:39 - 6:41
    đây là những yêu cầu thực sự mà
  • 6:41 - 6:45
    công cụ có thể làm. Bạn nói với Chat GPT hoặc GPT nói
  • 6:45 - 6:47
    chung hoạt động như một lập trình viên JavaScript.
  • 6:47 - 6:49
    Viết một chương trình kiểm tra
  • 6:49 - 6:52
    thông tin trên biểu mẫu. Tên và email là
  • 6:52 - 6:54
    bắt buộc, nhưng địa chỉ và tuổi thì không. "Vậy là
  • 6:54 - 6:57
    tôi chỉ cần viết điều này và công cụ sẽ
  • 6:57 - 6:59
    đưa ra một chương trình và đây là điều thú vị nhất:
  • 6:59 - 7:03
    "Tạo một trang giới thiệu về tôi" cho một
  • 7:03 - 7:06
    trang web. Tôi thích leo núi,
  • 7:06 - 7:08
    thể thao ngoài trời và lập trình. Tôi bắt đầu
  • 7:08 - 7:10
    sự nghiệp của mình với vai trò kỹ sư chất lượng trong
  • 7:10 - 7:13
    ngành blah blah blah. Tôi cung cấp thông tin
  • 7:13 - 7:16
    phiên bản như vậy về những gì tôi muốn trên website, và công cụ
  • 7:16 - 7:19
    sẽ tạo ra nó cho
  • 7:19 - 7:20
    tôi.
  • 7:20 - 7:23
    Vậy, bạn thấy đấy, chúng ta đã đi từ Google
  • 7:23 - 7:25
    dịch và Siri và tính năng
  • 7:25 - 7:26
    hoàn thành tự động đến một thứ
  • 7:26 - 7:29
    phức tạp hơn rất nhiều và có thể làm được nhiều hơn nữa
  • 7:29 - 7:31
  • 7:31 - 7:35
    Một sự thật thú vị nữa. Đây là biểu đồ
  • 7:35 - 7:41
    cho thấy thời gian cần thiết để chat GPT
  • 7:41 - 7:44
    đạt được 100 triệu người dùng so
  • 7:44 - 7:46
    với các công cụ khác đã ra mắt
  • 7:46 - 7:49
    trong quá khứ và bạn thấy Google dịch, công cụ mà chúng ta yêu thích
  • 7:49 - 7:54
    phải mất 78 tháng để
  • 7:54 - 7:58
    đạt được 100 triệu người dùng. Một khoảng thời gian dài.
  • 7:58 - 8:03
    Tik Tok chỉ mất 9 tháng và Chat GPT chỉ mất
  • 8:03 - 8:06
    2 tháng. Chi trong vòng hai tháng, họ đã có 100
  • 8:06 - 8:11
    triệu người dùng và những người dùng này trả một
  • 8:11 - 8:14
    ít tiền để sử dụng hệ thống, bạn có thể
  • 8:14 - 8:16
    nhân lên và tính xem họ kiếm được
  • 8:16 - 8:19
    bao nhiêu tiền. Được rồi,
  • 8:19 - 8:25
    đây là phần lịch sử. Vậy làm thế nào để
  • 8:25 - 8:29
    chúng ta tạo ra Chat GPT ?
  • 8:29 - 8:31
    Công nghệ nào đứng sau nó ? Hóa ra, công nghệ này
  • 8:31 - 8:34
    không phải quá mới hoặc
  • 8:34 - 8:36
    cực kỳ sáng tạo hoặc cực kỳ
  • 8:36 - 8:38
    khó hiểu
  • 8:38 - 8:40
    Vậy nên, hôm nay chúng ta
  • 8:40 - 8:41
    sẽ nói về
  • 8:41 - 8:45
    điều đó. Chúng ta sẽ giải quyết ba câu hỏi
  • 8:45 - 8:47
    Trước hết là làm thế nào chúng ta chuyển từ các
  • 8:47 - 8:49
    hệ thống chỉ có một mục đích đơn lẻ như Google
  • 8:49 - 8:52
    Dịch sang Chat GPT,
  • 8:52 - 8:55
    một công cụ tinh vi hơn và làm được nhiều việc hơn,
  • 8:55 - 8:57
    cụ thể,
  • 8:57 - 8:59
    công nghệ cốt lõi đằng sau Chat GPT là gì và
  • 8:59 - 9:02
    rủi ro nếu có là gì và cuối cùng tôi
  • 9:02 - 9:05
    sẽ chỉ cho bạn thấy cái nhìn thoáng qua về
  • 9:05 - 9:07
    tương lai, cách mà nó sẽ trông như thế nào
  • 9:07 - 9:09
    và liệu chúng ta có nên lo lắng hay
  • 9:09 - 9:13
    không và bạn biết đấy tôi sẽ không để bạn phải băn
  • 9:13 - 9:17
    khoăn đâu đừng lo lắng, được
  • 9:17 - 9:19
    chứ ?
  • 9:19 - 9:23
    Vậy tất cả các biến thể mô hình GPT này và
  • 9:23 - 9:25
    có một ngành công nghiệp nhỏ đang nổi lên,
  • 9:25 - 9:28
    tôi chỉ lấy GPT làm ví dụ
  • 9:28 - 9:30
    công chúng đã biết đến nó
  • 9:30 - 9:32
    và có rất nhiều
  • 9:32 - 9:34
    các bài báo về nó, nhưng còn có
  • 9:34 - 9:36
    những mô hình khác, các biến thể khác của mô hình mà chúng ta
  • 9:36 - 9:40
    sử dụng trong học thuật. Tất cả chúng đều hoạt động dựa trên
  • 9:40 - 9:42
    cùng một nguyên tắc, và nguyên tắc này được
  • 9:42 - 9:44
    gọi là mô hình hóa ngôn ngữ
  • 9:44 - 9:47
    Mô hình hóa ngôn ngữ làm gì nó giả định rằng chúng ta có
  • 9:47 - 9:51
    một chuỗi các từ ngữ. Đó là ngữ cảnh cho đến nay
  • 9:51 - 9:53
    và chúng ta đã thấy điều này trong tính năng
  • 9:53 - 9:56
    hoàn thành tự động. tôi có một ví dụ ở đây
  • 9:56 - 10:00
    Giả sử ngữ cảnh của tôi là cụm từ "Tôi muốn".
  • 10:00 - 10:03
    công cụ mô hình hóa ngôn ngữ sẽ
  • 10:03 - 10:06
    dự đoán những gì xảy ra tiếp theo. Vì vậy nếu tôi nói
  • 10:06 - 10:09
    "Tôi muốn" sẽ có một số dự đoán:"Tôi
  • 10:09 - 10:12
    muốn xúc tuyết", "Tôi muốn chơi", "Tôi muốn
  • 10:12 - 10:15
    bơi", "Tôi muốn ăn" và tùy thuộc vào những gì
  • 10:15 - 10:18
    chúng ta chọn là "xúc tuyết" sẽ tiếp tục với "tuyết",
  • 10:18 - 10:22
    còn nhiều phần tiếp theo nữa. Vi vậy,
  • 10:22 - 10:25
    đối với "xẻng" thì sẽ là "tuyết", "chơi" thì
  • 10:25 - 10:28
    có thể tiếp tục với "tennis" hoặc "trò choi video", "bơi" không có phần tiếp theo và "ăn"
  • 10:28 - 10:30
    có thể tiếp tục với "nhiều thứ" hoặc
  • 10:30 - 10:34
    "trái cây". Đây là một ví dụ đơn giản nhưng hãy
  • 10:34 - 10:36
    tưởng tượng bây giờ máy tính đã thấy
  • 10:36 - 10:40
    rất nhiều văn bản và nó biết những từ nào
  • 10:40 - 10:42
    theo sau
  • 10:42 - 10:47
    những từ nào. Trước đây, chúng ta từng đếm các từ này.
  • 10:47 - 10:50
    Tôi sẽ tải xuống một lượng lớn dữ liệu
  • 10:50 - 10:52
    và đếm xem cụm "Tôi muốn cho họ thấy"
  • 10:52 - 10:54
    xuất hiện bao nhiêu lần và
  • 10:54 - 10:56
    những lần tiếp theo là gì. chúng ta
  • 10:56 - 10:58
    Chúng ta đã từng lưu các con số đó. Nhưng giờ đây,
  • 10:58 - 11:01
    mọi thứ đã thay đổi,
  • 11:01 - 11:04
    chúng ta sử dụng mạng nơ-ron không chỉ đơn thuần đếm
  • 11:04 - 11:08
    mà dự đoán, học hỏi
  • 11:08 - 11:10
    theo cách tinh vi hơn, và
  • 11:10 - 11:12
    tôi sẽ giải thích ngay.
  • 11:12 - 11:13
    ChatGPT và
  • 11:13 - 11:18
    các biến thể GPT dựa trên các
  • 11:18 - 11:22
    nguyên tắc này: Tôi có một ngữ cảnh,
  • 11:22 - 11:25
    tôi sẽ dự đoán điều gì sẽ xảy ra tiếp theo.
  • 11:25 - 11:27
    Và đó chính là prompt, phần yêu cầu mà tôi đã
  • 11:27 - 11:30
    cho bạn thấy.
  • 11:30 - 11:32
    Đây là ngữ cảnh, và sau đó công cụ sẽ
  • 11:32 - 11:36
    thực hiện nhiệm vụ, điều gì sẽ xảy ra tiếp theo ? trong một số
  • 11:36 - 11:38
    trường hợp, đó sẽ là ba luận điểm.
  • 11:38 - 11:40
    Trong trường hợp của lập trình viên web, đó
  • 11:40 - 11:41
    sẽ là một
  • 11:41 - 11:45
    trang web. Tóm lại nhiệm vụ của mô hình hóa ngôn ngữ
  • 11:45 - 11:48
    là có ngữ cảnh.
  • 11:48 - 11:49
    và đây là một ví dụ khác:
  • 11:49 - 11:53
    "Màu sắc của bầu trời là". Chúng ta có
  • 11:53 - 11:57
    một mô hình ngôn ngữ nơ-ron,
  • 11:57 - 12:00
    thực chất chỉ là một thuật toán,
  • 12:00 - 12:03
    nó sẽ dự đoán phần tiếp theo có
  • 12:03 - 12:06
    khả năng xảy ra nhất. Khả năng xảy ra rất quan trọng.
  • 12:06 - 12:09
    Tất cả các dự đoán dựa trên việc đoán
  • 12:09 - 12:12
    điều gì sẽ xảy ra tiếp theo.
  • 12:12 - 12:14
    Và đó là lý do đôi khi chúng thất bại, vì
  • 12:14 - 12:16
    chúng dự đoán câu trả lời có khả năng cao nhất
  • 12:16 - 12:18
    trong khi bạn muốn một câu trả lời ít có khả năng xảy ra hơn nhưng
  • 12:18 - 12:20
    đây là cách chúng được huấn luyện để
  • 12:20 - 12:24
    đưa ra những câu trả lời có khả năng là cao nhất, vì vậy
  • 12:24 - 12:26
    chúng ta không đếm các từ nữa, mà cố gắng
  • 12:26 - 12:30
    dự đoán chúng bằng mô hình ngôn ngữ này.
  • 12:30 - 12:34
    Vậy làm thế nào để bạn tự xây dựng một mô hình ngôn ngữ?
  • 12:34 - 12:36
    Đây là công thức, cách mà mọi người thực hiện:
  • 12:36 - 12:40
    Bước 1: Chúng ta cần rất nhiều dữ liệu.
  • 12:40 - 12:43
    Cần thu thập một tập dữ liệu khổng lồ.
  • 12:43 - 12:46
    Vậy chúng ta tìm đâu ra
  • 12:46 - 12:49
    một tập dữ liệu khổng lồ như vậy?
  • 12:49 - 12:52
    Ý tôi là, chúng ta tìm trên web, đúng không?
  • 12:52 - 12:56
    Chúng ta tải xuống toàn bộ Wikipedia,
  • 12:56 - 12:59
    các trang Stack Overflow, Quora,
  • 12:59 - 13:02
    mạng xã hội, GitHub, Reddit, bất kỳ thứ gì bạn
  • 13:02 - 13:04
    có thể tìm được trên đó
  • 13:04 - 13:06
    Tất nhiên, bạn cần giải quyết các vấn đề về quyền sử dụng dữ liệu, phải hợp pháp.
  • 13:06 - 13:08
    Bạn tải xuống toàn bộ tập dữ liệu này.
  • 13:08 - 13:11
    Vậy sau đó bạn làm gì? Sau đó, bạn
  • 13:11 - 13:12
    có mô hình ngôn ngữ này. Tôi chưa
  • 13:12 - 13:14
    giải thích chính xác mô hình
  • 13:14 - 13:16
    ngôn ngữ này là gì, và cũng chưa nói
  • 13:16 - 13:18
    về mạng nơ-ron thực hiện
  • 13:18 - 13:21
    dự đoán, nhưng giả sử bạn đã có nó.
  • 13:21 - 13:23
    Vậy bạn có một cơ chế
  • 13:23 - 13:26
    học tập, và nhiệm vụ giờ đây
  • 13:26 - 13:29
    là dự đoán từ tiếp theo.
  • 13:29 - 13:32
    Nhưng làm thế nào để chúng ta làm điều đó?
  • 13:32 - 13:36
    Đây chính là phần sáng tạo.
  • 13:36 - 13:39
    Chúng ta có các câu trong tập dữ liệu. Chúng ta có thể xóa một số từ
  • 13:39 - 13:41
    trong các câu đó và yêu cầu mô hình ngôn ngữ dự đoán
  • 13:41 - 13:45
    các từ mà chúng ta đã xóa.
  • 13:45 - 13:48
    Cách này rất rẻ tiền. Tôi chỉ cần xóa chúng đi,
  • 13:48 - 13:51
    giả vờ như chúng không có, và để mô hình ngôn ngữ
  • 13:51 - 13:54
    dự đoán chúng. Tôi sẽ
  • 13:54 - 13:57
    ngẫu nhiên cắt ngắn, "truncate" nghĩa là xóa bớt,
  • 13:57 - 14:00
    phần cuối của câu đầu vào.
  • 14:00 - 14:02
    Sau đó, tôi sẽ sử dụng mạng nơ-ron
  • 14:02 - 14:05
    để tính xác suất của các từ bị thiếu. Nếu dự đoán
  • 14:05 - 14:06
    đúng, thì tốt. Nếu không đúng, tôi cần
  • 14:06 - 14:09
    quay lại và điều chỉnh một số điều
  • 14:09 - 14:10
    vì rõ ràng tôi đã mắc sai lầm,
  • 14:10 - 14:13
    và tôi tiếp tục lặp lại. Tôi sẽ điều chỉnh
  • 14:13 - 14:15
    và đưa phản hồi vào mô hình,
  • 14:15 - 14:17
    sau đó so sánh kết quả mà mô hình dự đoán với
  • 14:17 - 14:19
    "ground truth" (thực tế)
  • 14:19 - 14:20
    vì tôi đã
  • 14:20 - 14:23
    biết trước đáp án thực.
  • 14:23 - 14:27
    Chúng ta cứ tiếp tục quá trình này trong vài tháng,
  • 14:27 - 14:31
    hoặc có thể vài năm. Không, chỉ vài tháng thôi.
  • 14:31 - 14:32
    Quá trình này mất thời gian vì,
  • 14:32 - 14:34
    như bạn có thể hình dung, tôi có một
  • 14:34 - 14:36
    tập dữ liệu rất lớn với rất nhiều câu,
  • 14:36 - 14:37
    và tôi cần thực hiện
  • 14:37 - 14:40
    dự đoán, sau đó quay lại sửa sai,
  • 14:40 - 14:43
    và cứ thế. Nhưng cuối cùng
  • 14:43 - 14:46
    mô hình sẽ hội tụ và tôi sẽ có kết quả.
  • 14:46 - 14:47
    Công cụ tôi vừa nhắc đến,
  • 14:47 - 14:50
    công cụ này chính là
  • 14:50 - 14:53
    mô hình ngôn ngữ.
  • 14:53 - 14:56
    Một mô hình ngôn ngữ đơn giản
  • 14:56 - 15:00
    trông như thế này. Có thể
  • 15:00 - 15:02
    khán giả đã từng thấy những mô hình này,
  • 15:02 - 15:05
    đây là một đồ thị đơn giản,
  • 15:05 - 15:08
    nhưng nó giúp minh họa cách thức hoạt động.
  • 15:08 - 15:11
    Mạng nơ-ron mô hình ngôn ngữ này
  • 15:11 - 15:14
    sẽ có vài đầu vào
  • 15:14 - 15:18
    các nút tròn,
  • 15:18 - 15:21
    vâng bên phải của tôi và của bạn, ok
  • 15:21 - 15:25
    ở bên phải là đầu vào,
  • 15:25 - 15:28
    và các nút tròn bên trái là đầu ra.
  • 15:28 - 15:31
    Chúng ta đưa vào
  • 15:31 - 15:33
    năm đầu vào,
  • 15:33 - 15:37
    năm vòng tròn,
  • 15:37 - 15:40
    và có ba đầu ra, ba vòng tròn.
  • 15:40 - 15:42
    Và có những thứ ở giữa mà tôi
  • 15:42 - 15:45
    không nói gì cả. Đây là
  • 15:45 - 15:48
    các lớp (layers). Đây là những nút khác
  • 15:48 - 15:51
    được cho là trừu tượng hóa dữ liệu đầu vào của tôi.
  • 15:51 - 15:55
    Vì vậy, họ khái quát hóa. Ý tưởng là nếu tôi đặt
  • 15:55 - 15:58
    nhiều lớp hơn
  • 15:58 - 16:01
    các lớp giữa sẽ tổng quát hóa đầu vào
  • 16:01 - 16:03
    và nhận ra các mẫu mà ban đầu
  • 16:03 - 16:06
    không rõ ràng.
  • 16:06 - 16:07
    Đầu vào cho các nút này
  • 16:07 - 16:10
    không phải là từ, mà là vector - chuỗi số,
  • 16:10 - 16:13
    nhưng hãy tạm quên điều đó.
  • 16:13 - 16:15
    Vậy chúng ta có đầu vào, các lớp giữa,
  • 16:15 - 16:18
    và đầu ra. Các kết nối
  • 16:18 - 16:21
    giữa các nút được gọi
  • 16:21 - 16:23
    là trọng số (weights),
  • 16:23 - 16:26
    chính trọng số này là thứ mà mạng học được.
  • 16:26 - 16:29
    Các trọng số thực chất là các con số.
  • 16:29 - 16:32
    và ở đây tất cả đều được kết nối đầy đủ, vì vậy tôi có rất nhiều
  • 16:32 - 16:35
    kết nối. Tại sao tôi lại thực hiện
  • 16:35 - 16:37
    quá trình này để thực sự nói với bạn tất cả
  • 16:37 - 16:41
    những điều đó? Bạn sẽ thấy trong một phút. Vì vậy, bạn có thể
  • 16:41 - 16:45
    tính toán được
  • 16:45 - 16:48
    mạng nơ-ron này lớn hay nhỏ tùy thuộc vào
  • 16:48 - 16:52
    số lượng kết nối mà nó có. Vì vậy đối với
  • 16:52 - 16:55
    mạng nơ-ron đơn giản này, tôi
  • 16:55 - 16:59
    đã tính được số lượng trọng số
  • 16:59 - 17:01
    Chúng tôi gọi là tham số,
  • 17:01 - 17:04
    mà mạng cần học.
  • 17:04 - 17:07
    Vì vậy, các tham số là
  • 17:07 - 17:10
    số lượng đơn vị đầu vào, trong trường hợp này
  • 17:10 - 17:15
    là 5, nhân với số đơn vị ở
  • 17:15 - 17:19
    lớp tiếp theo, là 8. Cộng với 8,
  • 17:19 - 17:22
    kết quả này cộng với 8 là độ lệch,
  • 17:22 - 17:24
    đó là một điều gian lận mà các mạng nơ-ron này có. Một lần nữa,
  • 17:24 - 17:27
    bạn cần phải học nó
  • 17:27 - 17:29
    và nó sẽ sửa một chút cho mạng nơ-ron nếu nó bị tắt.
  • 17:29 - 17:30
    Nó thực sự là thiên tài.
  • 17:30 - 17:33
    Nếu dự đoán không đúng,
  • 17:33 - 17:35
    Nó cố gắng điều chỉnh một chút để sửa lỗi. Vì vậy, cho
  • 17:35 - 17:37
    mục đích của buổi nói chuyện này, tôi sẽ không đi sâu vào chi tiết,
  • 17:37 - 17:39
    đi sâu vào chi tiết, tất cả những gì tôi muốn bạn
  • 17:39 - 17:41
    thấy là có một cách để tính
  • 17:41 - 17:43
    ra các tham số, cơ bản là
  • 17:43 - 17:47
    số lượng đơn vị đầu vào nhân với số
  • 17:47 - 17:50
    đơn vị mà đầu vào đang kết nối tới.
  • 17:50 - 17:53
    Với mạng nơ-ron được kết nối đầy đủ này,
  • 17:53 - 17:57
    nếu chúng ta cộng tất cả lại, ta sẽ có
  • 17:57 - 18:00
    99 tham số có thể huấn luyện.
  • 18:00 - 18:03
    Đây là một mạng nhỏ, phải không? Nhưng tôi muốn bạn
  • 18:03 - 18:05
    nhớ rằng, mạng nhỏ này có 99 tham số.
  • 18:05 - 18:08
    Khi bạn nghe về mạng có
  • 18:08 - 18:11
    một tỷ tham số,
  • 18:11 - 18:15
    hãy hình dung kích thước khổng lồ của nó.
  • 18:15 - 18:18
    Vậy là chỉ có 99 cho mạng nơ-ron đơn giản này.
  • 18:18 - 18:21
    Và đây là cách chúng ta đánh giá mô hình lớn như thế nào,
  • 18:21 - 18:25
    mất bao lâu và tốn bao nhiêu,
  • 18:25 - 18:26
    đó là số lượng
  • 18:26 - 18:29
    tham số. Trong thực tế
  • 18:29 - 18:32
    không ai sử dụng mạng nhỏ này.
  • 18:32 - 18:35
    Đây chỉ là ví dụ cho sinh viên
  • 18:35 - 18:37
    năm nhất học đại học.
  • 18:37 - 18:39
    Thực tế, chúng ta
  • 18:39 - 18:41
    sử dụng những
  • 18:41 - 18:45
    mô hình khổng lồ,
  • 18:45 - 18:49
    gồm nhiều khối. Và khối này có nghĩa là chúng được
  • 18:49 - 18:54
    tạo thành từ các mạng nơ-ron khác. Vì vậy, tôi
  • 18:54 - 18:56
    không biết có bao nhiêu người đã nghe về
  • 18:56 - 19:00
    Bộ chuyển đổi. Tôi hy vọng là chưa.
  • 19:00 - 19:03
    Oh wo, ok. Bộ chuyển đổi là các mạng nơ-ron được dùng
  • 19:03 - 19:07
    để xây dựng ChatGPT.
  • 19:07 - 19:11
    Trên thực tế GPT là viết tắt của "generative pre-trained transformers"
  • 19:11 - 19:14
    (transformers cũng được có ngày trong tiêu đề).
  • 19:14 - 19:18
    Đây là bản phác thảo của một transformer.
  • 19:18 - 19:21
    Bạn có đầu vào
  • 19:21 - 19:24
    và đầu vào không phải là từ,
  • 19:24 - 19:27
    như tôi đã nói, nó là vector (embeddings).
  • 19:27 - 19:30
    Và sau đó bạn sẽ có nó,
  • 19:30 - 19:34
    một phiên bản lớn hơn của mạng kết nối.
  • 19:34 - 19:36
  • 19:36 - 19:39
    Các vector này được đưa qua nhiều khối (blocks),
  • 19:39 - 19:43
    và mỗi khối là một hệ thống phức tạp
  • 19:43 - 19:47
    chứa mạng nơ-ron bên trong. Chúng ta
  • 19:47 - 19:48
    sẽ không đi vào chi tiết, tôi không muốn,
  • 19:48 - 19:51
    xin đừng đi, tất cả những gì tôi đang
  • 19:51 - 19:55
    cố gắng, (khán giả cười) tất cả những gì tôi đang cố gắng nói là, bạn biết đấy,
  • 19:55 - 19:59
    chúng ta có những khối này xếp chồng
  • 19:59 - 20:01
    lên nhau, Transformer có
  • 20:01 - 20:03
    tám khối như vậy, là những mạng nơ-ron mini,
  • 20:03 - 20:07
    và nhiệm vụ này vẫn giữ nguyên.
  • 20:07 - 20:08
    Đó là những gì tôi muốn bạn rút ra từ đây.
  • 20:08 - 20:11
    Nhiệm vụ vẫn không thay đổi: đầu vào là ngữ cảnh, ví dụ
  • 20:11 - 20:13
    "con gà bước đi," sau đó thực hiện
  • 20:13 - 20:16
    xử lý để dự đoán phần tiếp theo
  • 20:16 - 20:18
    ví dụ "qua đường".
  • 20:18 - 20:22
    Và EOS (end of sentence)
  • 20:22 - 20:23
    được dùng để
  • 20:23 - 20:25
    đánh dấu kết thúc câu, giúp mạng nơ-ron nhận biết điểm dừng.
  • 20:25 - 20:26
    Ý tôi là, chúng khá "ngốc," đúng không?
  • 20:26 - 20:28
    Chúng ta cần chỉ rõ mọi thứ cho chúng. Khi tôi nghe rằng AI
  • 20:28 - 20:30
    sẽ chiếm lĩnh thế giới, tôi chỉ nghĩ,
  • 20:30 - 20:34
    "Thật sao? Chúng ta thậm chí còn phải
  • 20:34 - 20:38
    viết ra từng chi tiết". Đây chính là transformer (bộ chuyển đổi),
  • 20:38 - 20:40
    vua của các kiến trúc mô hình.
  • 20:40 - 20:41
    Transformers ra đời
  • 20:41 - 20:44
    năm 2017. Hiện tại không ai làm việc trên
  • 20:44 - 20:46
    các kiến ​​trúc mới nữa. Thật đáng tiếc,
  • 20:46 - 20:48
    trước đây mọi người
  • 20:48 - 20:50
    sử dụng nhiều chúng, nhưng
  • 20:50 - 20:52
    giờ thì không, tất cả mọi người đều sử dụng Transformers,
  • 20:52 - 20:56
    chúng ta đã quyết định rằng chúng rất tuyệt.
  • 20:56 - 20:58
    Được rồi, vậy chúng ta sẽ làm gì với chúng?
  • 20:58 - 21:00
    Điều quan trọng và
  • 21:00 - 21:02
    tuyệt vời là chúng ta sẽ thực hiện
  • 21:02 - 21:04
    học tự giám sát (self-supervised learning).
  • 21:04 - 21:06
    Đây chính là điều tôi đã nói: chúng ta có câu, cắt bớt,
  • 21:06 - 21:10
    dự đoán, và tiếp tục cho đến khi
  • 21:10 - 21:12
    chúng ta học được
  • 21:12 - 21:16
    các xác suất. Hiểu kịp không?
  • 21:16 - 21:20
    Tốt, được rồi. Khi chúng ta có
  • 21:20 - 21:24
    transformer và đã cung cấp cho nó tất cả
  • 21:24 - 21:27
    dữ liệu mà thế giới có,
  • 21:27 - 21:30
    chúng ta sẽ có một mô hình huấn luyện trước (pre-trained model). Đó là lý do tại sao GPT
  • 21:30 - 21:32
    được gọi là transformer tạo sinh, được huấn luyện sẵn (generative pre-trained transformer).
  • 21:32 - 21:35
    Đây là một mô hình cơ bản đã được đào tạo
  • 21:35 - 21:37
    từ rất nhiều nguồn dữ liệu
  • 21:37 - 21:40
    của thế giới.
  • 21:40 - 21:43
    Sau đó, chúng ta thường làm gì? Chúng ta
  • 21:43 - 21:44
    có mô hình mục đích chung này và
  • 21:44 - 21:47
    cần chuyên biệt hóa nó cho một nhiệm vụ cụ thể.
  • 21:47 - 21:50
    Đây là điều gọi là fine-tuning
  • 21:50 - 21:52
    (tinh chỉnh). Điều này có nghĩa là mạng nơ-ron
  • 21:52 - 21:54
    đã có một số
  • 21:54 - 21:57
    trọng số, và chúng ta cần chuyên biệt hóa
  • 21:57 - 21:59
    mạng này. Chúng ta sẽ khởi tạo
  • 21:59 - 22:01
    trọng số dựa trên những gì đã học được từ
  • 22:01 - 22:03
    quá trình huấn luyện trước, và sau đó, đối với nhiệm vụ cụ thể, chúng ta sẽ
  • 22:03 - 22:06
    điều chỉnh một tập trọng số mới.
  • 22:06 - 22:10
    Ví dụ, nếu tôi có dữ liệu y tế, tôi sẽ
  • 22:10 - 22:13
    lấy mô hình huấn luyện trước (pre-trained model), chuyên biệt hóa nó
  • 22:13 - 22:15
    với dữ liệu y tế này, và sau đó tôi
  • 22:15 - 22:18
    có thể thực hiện các
  • 22:18 - 22:20
    nhiệm vụ cụ thể, chẳng hạn như viết một
  • 22:20 - 22:24
    chẩn đoán từ một báo cáo.
  • 22:24 - 22:27
    Khái niệm tinh chỉnh này rất quan trọng
  • 22:27 - 22:30
    vì nó cho phép chúng ta ứng dụng mục đích đặc biệt từ
  • 22:30 - 22:32
    các mô hình
  • 22:32 - 22:34
    huấn luyện chung.
  • 22:34 - 22:37
    Bây giờ, mọi người nghĩ rằng GPT và
  • 22:37 - 22:39
    các mô hình tương tự là công cụ mục đích chung,
  • 22:39 - 22:42
    mục đích chung nhưng thực tế, chúng được tinh chỉnh để trở thành
  • 22:42 - 22:44
    mục đích chung, và chúng ta sẽ thấy cách thức
  • 22:44 - 22:49
    của nó như thế nào. Câu hỏi bây giờ là: chúng ta
  • 22:49 - 22:52
    có công nghệ cơ bản để thực hiện
  • 22:52 - 22:54
    huấn luyện trước. Và tôi đã nói cho bạn cách làm,
  • 22:54 - 22:57
    nếu bạn tải xuống toàn bộ web.
  • 22:57 - 23:00
    Mô hình ngôn ngữ có thể tốt đến mức nào?
  • 23:00 - 23:02
    Làm thế nào để nó trở nên tuyệt vời?
  • 23:02 - 23:06
    Bởi vì khi GPT-1 và GPT-2 ra mắt,
  • 23:06 - 23:09
    chúng không thực sự ấn tượng.
  • 23:09 - 23:12
    Vậy nên, càng lớn càng tốt.
  • 23:12 - 23:15
    Quy mô là yếu tố quan trọng,
  • 23:15 - 23:18
    dù điều này không hay lắm, vì trước đây
  • 23:18 - 23:19
    bạn biết đấy, mọi người không tin vào quy mô
  • 23:19 - 23:22
    và bây giờ chúng ta thấy rằng quy mô rất
  • 23:22 - 23:24
    quan trọng vì vậy kể từ
  • 23:24 - 23:29
    năm 2018, chúng ta đã chứng kiến ​​sự
  • 23:29 - 23:33
    gia tăng cực độ về
  • 23:33 - 23:36
    kích thước mô hình và tôi có một số biểu đồ để minh họa cho
  • 23:36 - 23:39
    điều này. Ok, tôi hi vọng những người ngồi phía sau
  • 23:39 - 23:40
    có thể nhìn thấy đồ thị này. Vâng, bạn đã ổn thôi.
  • 23:40 - 23:42
  • 23:42 - 23:46
    Đây là biểu đồ cho thấy
  • 23:46 - 23:49
    số lượng tham số. Nhớ rằng, mạng nơ-ron đơn giản
  • 23:49 - 23:52
    có 99 tham số.
    Biểu đồ này cho thấy số lượng tham số
  • 23:52 - 23:56
    mà các mô hình này có. Chúng ta bắt đầu với
  • 23:56 - 23:59
    một số lượng "bình thường".
  • 23:59 - 24:01
    Vâng, đối với GPT-1 và tăng dần đến
  • 24:01 - 24:07
    GPT-4, có một
  • 24:07 - 24:09
    nghìn tỷ tham số
  • 24:09 - 24:12
    (1 trillion). Đây là một
  • 24:12 - 24:15
    mô hình rất rất lớn và bạn có thể thấy ở đây so sánh với
  • 24:15 - 24:18
    não kiến, não chuột và bộ
  • 24:18 - 24:22
    não người.
  • 24:22 - 24:27
    Bộ não con người có 100 nghìn tỷ
  • 24:27 - 24:31
    tham số (100 trillion). Vậy chúng ta vẫn còn cách xa mức độ
  • 24:31 - 24:33
    của bộ não con người, và
  • 24:33 - 24:35
    có lẽ chúng ta sẽ không bao giờ đạt đến được và chúng ta không thể
  • 24:35 - 24:37
    so sánh GPT với não con người.
  • 24:37 - 24:40
    Tôi chỉ muốn minh họa kích thước
  • 24:40 - 24:43
    mô hình này lớn đến mức nào
  • 24:43 - 24:46
    Còn số lượng từ mà mô hình đã "thấy" thì sao?
  • 24:46 - 24:49
    Biểu đồ này cho thấy số lượng từ
  • 24:49 - 24:51
    các mô hình ngôn ngữ này đã xử lý
  • 24:51 - 24:53
    trong quá trình huấn luyện. Bạn sẽ thấy
  • 24:53 - 24:57
    rằng số lượng này
  • 24:57 - 25:00
    tăng lớn lên nhưng không tăng nhanh bằng
  • 25:00 - 25:03
    số lượng tham số. Cộng đồng
  • 25:03 - 25:06
    tập trung vào kích thước tham số của
  • 25:06 - 25:09
    các mô hình này, nhưng trong thực tế là chúng ta hiện biết rằng
  • 25:09 - 25:12
    chúng cần phải xử lý một lượng văn bản rất lớn.
  • 25:12 - 25:15
    GPT-4 đã xử lý
  • 25:15 - 25:18
    khoảng vài tỷ từ.
  • 25:18 - 25:22
    Tôi không biết, vài tỷ từ.
  • 25:22 - 25:26
    Tôi nghĩ tất cả các văn bản do con người viết ra là 100 tỷ,
  • 25:26 - 25:28
    nên nó đang tiến gần mức đó.
  • 25:28 - 25:31
    Nếu so sánh với số lượng từ mà một người đọc
  • 25:31 - 25:34
    trong suốt cuộc đời của họ, nó ít hơn nhiều
  • 25:34 - 25:36
    ngay cả khi họ đọc bạn biết đấy bởi vì
  • 25:36 - 25:38
    mọi người ngày nay, bạn biết đấy, họ đọc nhưng
  • 25:38 - 25:40
    họ không đọc tiểu thuyết, họ đọc
  • 25:40 - 25:42
    điện thoại, dù sao thì, bạn thấy Wikipedia tiếng Anh
  • 25:42 - 25:45
    vậy là chúng ta đang dần đạt đến
  • 25:45 - 25:48
    giới hạn về lượng văn bản có sẵn mà
  • 25:48 - 25:51
    chúng ta có thể có được và trên thực tế người ta có thể nói rằng
  • 25:51 - 25:53
    GPT thật tuyệt vời, bạn thực sự có thể sử dụng nó để
  • 25:53 - 25:55
    tạo ra nhiều văn bản hơn và sau đó sử dụng
  • 25:55 - 25:57
    văn bản mà GPT đã tạo ra để
  • 25:57 - 25:59
    huấn luyện lại mô hình. Nhưng chúng ta biết rằng văn bản do GPT tạo ra
  • 25:59 - 26:02
    là không hoàn toàn chính xác
  • 26:02 - 26:04
    và sẽ dẫn đến hiệu suất giảm dần,
  • 26:04 - 26:05
    nên tại một thời điểm
  • 26:05 - 26:10
    nào đó, chúng ta sẽ chạm đến ngưỡng giới hạn.
  • 26:10 - 26:12
    Vậy chi phí để làm điều này là bao nhiêu?
  • 26:12 - 26:19
    Được rồi, chi phí để huấn luyện GPT-4
  • 26:20 - 26:23
    là 100 triệu USD ?
  • 26:23 - 26:26
    Vậy khi nào họ nên bắt đầu làm lại?
  • 26:26 - 26:28
    Rõ ràng đây không phải là một quy trình bạn có thể
  • 26:28 - 26:30
    lặp đi lặp lại nhiều lần.
  • 26:30 - 26:32
    Bạn cần phải rất cẩn thận, vì nếu mắc
  • 26:32 - 26:37
    sai lầm, bạn có thể mất đến
  • 26:37 - 26:40
    50 triệu USD. Bạn không thể bắt đầu lại từ đầu,
  • 26:40 - 26:42
    vì vậy việc lập kế hoạch huấn luyện
  • 26:42 - 26:45
    phải được thực hiện cực kỳ tinh vi,
  • 26:45 - 26:48
    vì sai lầm sẽ rất tốn kém. Và tất nhiên,
  • 26:48 - 26:50
    không phải ai cũng có thể làm điều này. Không phải ai cũng có
  • 26:50 - 26:53
    100 triệu USD. Họ làm được điều đó vì
  • 26:53 - 26:56
    có Microsoft hậu thuẫn, chứ không phải ai cũng có khả năng này.
  • 26:56 - 26:59
    Giờ thì, đây là một video
  • 26:59 - 27:02
    minh họa ảnh hưởng của việc mở rộng mô hình, hãy xem thử.
  • 27:02 - 27:04
    tác động của việc mở rộng quy mô
  • 27:04 - 27:08
    xem liệu nó có hiệu quả không. Vậy nên tôi sẽ chơi thêm một lần nữa.
  • 27:08 - 27:08
    Vì vậy,
  • 27:08 - 27:12
    đây là những nhiệm vụ bạn có thể thực hiện
  • 27:12 - 27:16
    và số lượng nhiệm vụ
  • 27:16 - 27:19
    so với số lượng tham số. Chúng ta bắt đầu
  • 27:19 - 27:21
    với 8 tỷ tham số và
  • 27:21 - 27:22
    mô hình chỉ có thể thực hiện
  • 27:22 - 27:27
    một số nhiệm vụ cơ bản. Sau đó, khi số tham số tăng lên
  • 27:27 - 27:29
    các nhiệm vụ cũng tăng,
  • 27:29 - 27:32
    ví dụ: tóm tắt văn bản, trả lời câu hỏi, dịch thuật.
  • 27:32 - 27:36
    Với 540 tỷ tham số, chúng ta có thêm nhiều nhiệm vụ phức tạp hơn, như hoàn thành mã lệnh,
  • 27:36 - 27:38
    nhiệm vụ hơn, chúng ta bắt đầu
  • 27:38 - 27:42
    với những nhiệm vụ rất đơn giản và
  • 27:42 - 27:45
    sau đó chúng ta có thêm nhiều nhiệm vụ phức tạp hơn, như hoàn thành mã lệnh,
  • 27:45 - 27:47
    Và sau đó chúng ta có thể đọc hiểu, hiểu ngôn ngữ,
  • 27:47 - 27:49
    và dịch thuật. Vì vậy, bạn hiểu ý tôi chứ,
  • 27:49 - 27:52
    cây nhiệm vụ này càng ngày càng phát triển mạnh mẽ hơn
  • 27:52 - 27:54
    khi mô hình mở rộng.
  • 27:54 - 27:56
    Và đây chính là điều mà mọi người phát hiện ra
  • 27:56 - 27:59
    khi bạn mở rộng mô hình ngôn ngữ, bạn có thể làm được nhiều nhiệm vụ hơn.
  • 27:59 - 28:01
    Ok,
  • 28:01 - 28:04
    và bây giờ
  • 28:04 - 28:06
    Có lẽ chúng ta đã xong.
  • 28:06 - 28:10
    Nhưng những gì mọi người khám phá ra là
  • 28:10 - 28:14
    nếu bạn thực sự sử dụng GPT
  • 28:14 - 28:16
    nó không luôn hoạt động theo cách mà mọi người mong muốn.
  • 28:16 - 28:19
    GPT được
  • 28:19 - 28:22
    huấn luyện để dự đoán và
    602
    00:28:21,640 --> 00:28:23,799
    hoàn thành câu, nhưng
  • 28:24 - 28:27
    con người lại muốn dùng nó
  • 28:27 - 28:29
    cho các nhiệm vụ khác,
  • 28:29 - 28:33
    bởi vì họ có những tác vụ riêng mà các nhà phát triển chưa nghĩ ra.
  • 28:33 - 28:36
    Đây là lúc khái niệm fine-tuning (tinh chỉnh) xuất hiện trở lại.
  • 28:36 - 28:39
    nó không bao giờ rời khỏi chúng ta. Vì vậy, bây giờ những gì
  • 28:39 - 28:42
    chúng ta sẽ làm là chúng ta sẽ thu thập rất
  • 28:42 - 28:44
    nhiều hướng dẫn. Hướng dẫn này là
  • 28:44 - 28:47
    ví dụ về những gì người dùng muốn
  • 28:47 - 28:50
    ChatGPT thực hiện. Chẳng hạn như
  • 28:50 - 28:54
    trả lời câu hỏi sau đây, hoặc trả thời câu hỏi theo
  • 28:54 - 28:56
    từng bước. Chúng ta sẽ đưa các
  • 28:56 - 28:58
    ví dụ này vào mô hình,
  • 28:58 - 29:02
    gần 2.000 ví dụ,
  • 29:02 - 29:06
    và tiến hành tinh chỉnh,
  • 29:06 - 29:08
    dạy cho mô hình hiểu
  • 29:08 - 29:09
    các nhiệm vụ mà con người
  • 29:09 - 29:14
    muốn nó thực hiện.
  • 29:14 - 29:16
    Cố gắng học chúng, Sau đó, mô hình có thể
  • 29:16 - 29:19
    tổng quát hóa các
  • 29:19 - 29:21
    nhiệm vụ chưa từng thấy, vì bạn và tôi
  • 29:21 - 29:24
    có thể có các mục đích sử dụng khác nhau với
  • 29:24 - 29:26
    mô hình ngôn ngữ này.
  • 29:26 - 29:28
  • 29:28 - 29:32
    Nhưng đây là vấn đề:
  • 29:32 - 29:35
    Chúng ta đang gặp vấn đề về sự liên kết và
  • 29:35 - 29:37
    thực tế đây là vấn đề rất quan trọng và
  • 29:37 - 29:40
    sẽ không để lại hậu quả trong
  • 29:40 - 29:42
    trong
  • 29:42 - 29:44
    tương lai và câu hỏi đặt ra là làm cách nào để
  • 29:44 - 29:47
    tạo ra một tác nhân hành xử phù hợp
  • 29:47 - 29:49
    với mong muốn của con người?
  • 29:49 - 29:51
    Và tôi biết có rất nhiều từ và
  • 29:51 - 29:55
    câu hỏi ở đây. Câu hỏi thực sự là:
  • 29:55 - 29:57
    nếu chúng ta có các hệ thống AI với những kỹ năng
  • 29:57 - 30:01
    mà chúng ta cho là quan trọng hoặc hữu ích,
  • 30:01 - 30:04
    làm thế nào để chúng ta đảm bảo rằng chúng sẽ sử dụng
  • 30:04 - 30:07
    các kỹ năng đó một cách đáng tin cậy
  • 30:07 - 30:11
    cho các nhiệm vụ chúng ta muốn?
  • 30:11 - 30:16
    Có một khung tư duy được gọi là khung vấn đề HHH
  • 30:16 - 30:21
    Chúng ta muốn GPT phải hữu ích (helpful), trung thực (honest),
  • 30:21 - 30:24
    và vô hại (harmless). Đây là yêu cầu tối thiểu.
  • 30:24 - 30:27
    Sự hữu ích có nghĩa là gì ?
  • 30:27 - 30:29
    nó phải làm theo hướng dẫn
  • 30:29 - 30:31
    thực hiện các nhiệm vụ mà chúng ta muốn thực hiện
  • 30:31 - 30:34
    và cung cấp câu trả lời và đặt
  • 30:34 - 30:38
    những câu hỏi có liên quan theo
  • 30:38 - 30:39
    ý định của người dùng.
  • 30:39 - 30:41
  • 30:41 - 30:43
    GPT ban đầu không làm được điều này,
  • 30:43 - 30:46
    nhưng dần dần nó đã cải thiện
  • 30:46 - 30:48
    và hiện tại có thể đặt
  • 30:48 - 30:51
    câu hỏi để làm rõ. Nó cần chính xác
  • 30:51 - 30:54
    mặc dù vẫn chưa đạt 100%
  • 30:54 - 30:56
    vì đôi khi thông tin
  • 30:56 - 30:58
    vẫn sai lệch.
  • 30:58 - 31:03
    Và vô hại, nghĩa là tránh các phản hồi độc hại, thiên vị hoặc xúc phạm.
  • 31:03 - 31:05
    Và câu hỏi dành cho bạn là
  • 31:05 - 31:08
    Làm thế nào để
  • 31:08 - 31:11
    đạt được những điều này?
  • 31:12 - 31:15
    Bạn biết câu
  • 31:15 - 31:17
    trả lời rồi: tinh chỉnh (fine-tuning).
  • 31:17 - 31:19
    Nhưng lần này, chúng ta sẽ
  • 31:19 - 31:21
    tinh chỉnh theo cách khác:
  • 31:21 - 31:25
    nhờ con người tham gia
  • 31:25 - 31:28
    đánh giá các phản hồi.
  • 31:28 - 31:30
    Ví dụ: với tiêu chí hữu ích,
  • 31:30 - 31:32
    chúng ta có thể đặt câu hỏi, "Nguyên nhân nào khiến
  • 31:32 - 31:34
    các mùa thay đổi?" Và đưa ra hai lựa chọn cho con người:
  • 31:34 - 31:37
    "Sự thay đổi xảy ra liên tục và
  • 31:37 - 31:39
    là một khía cạnh quan trọng
  • 31:39 - 31:41
    của cuộc sống," (phản hồi tệ).
  • 31:41 - 31:44
    "Các mùa thay đổi chủ yếu do độ nghiêng của trục Trái Đất," (phản hồi tốt).
  • 31:44 - 31:47
    Chúng ta sẽ dùng đánh giá này
  • 31:47 - 31:49
    để huấn luyện lại mô hình.
  • 31:49 - 31:53
    Tinh chỉnh là điều rất
  • 31:53 - 31:56
    quan trọng. Và bây giờ, dù ban đầu đã rất tốn kém,
  • 31:56 - 31:58
    giờ đây chúng ta còn làm nó đắt đỏ hơn
  • 31:58 - 32:00
    khi đưa con người vào quy trình.
  • 32:00 - 32:02
    Bởi vì chúng ta phải trả tiền cho
  • 32:02 - 32:04
    những người đưa ra các ưu tiên, chúng ta cần suy
  • 32:04 - 32:06
    nghĩ về các nhiệm vụ. Điều này cũng áp dụng cho
  • 32:06 - 32:09
    sự trung thực có thể chứng minh rằng P
  • 32:09 - 32:11
    bằng NP không ? Không, điều đó là không thể, không phải là một câu trả lời
  • 32:11 - 32:14
    Đây được xem là một
  • 32:14 - 32:16
    vấn đề rất khó và chưa có lời giải trong ngành
  • 32:16 - 32:18
    khoa học máy tính, là một câu trả lời tốt hơn.
  • 32:18 - 32:22
    Và điều này cũng tương tự với sự vô hại.
  • 32:22 - 32:25
    Được rồi, tôi nghĩ đã đến lúc, hãy xem liệu chúng ta có thể thực hiện một bản trình diễn
  • 32:25 - 32:27
    hay không ?. Vâng, thật tệ nếu bạn xóa hết tất cả
  • 32:27 - 32:28
    các tệp
  • 32:28 - 32:33
    Được rồi, chờ chút, được rồi. Bây giờ chúng ta có GPT ở đây.
  • 32:33 - 32:36
    Tôi sẽ hỏi một số câu hỏi, sau đó
  • 32:36 - 32:37
    chúng ta sẽ nhận câu hỏi từ
  • 32:37 - 32:40
    khán giả, được chứ? Hãy hỏi một câu hỏi.
  • 32:40 - 32:44
    "Vương quốc Anh có phải là một chế độ quân chủ không?"
  • 32:44 - 32:47
    Bạn có nhìn thấy câu hỏi đó ở trên không?
  • 32:48 - 32:52
    Tôi không chắc.
  • 32:53 - 32:56
    Và nó không tạo ra câu trả lời.
  • 32:56 - 32:58
    Ồ, hoàn hảo, được rồi.
  • 32:58 - 33:02
    Bạn nhận thấy điều gì? Đầu tiên, câu trả lời
  • 33:02 - 33:05
    quá dài. Tôi luôn thấy phiền về điều này.
  • 33:05 - 33:07
    Nó quá dài. Bạn thấy nó nói gì không? "Theo bản cập nhật kiến thức cuối cùng của tôi vào tháng 9 năm 2021,
  • 33:07 - 33:09
    Vương quốc Anh là một chế độ
  • 33:09 - 33:11
    quân chủ lập hiến." Có thể là nó không còn là vậy nữa, đúng không?
  • 33:11 - 33:13
    Điều gì đó đã xảy ra.
  • 33:13 - 33:15
    "Điều này có nghĩa là dù có một vị vua
  • 33:15 - 33:18
    hoặc nữ hoàng, nhưng người trị vì vào
  • 33:18 - 33:21
    thời điểm đó là Nữ hoàng Elizabeth III."
  • 33:21 - 33:23
    Vậy nó nói với bạn rằng, bạn biết đấy,
  • 33:23 - 33:25
    tôi không biết điều gì đã xảy ra, nhưng lúc đó có
  • 33:25 - 33:30
    Nữ hoàng Elizabeth.
  • 33:30 - 33:34
    Giờ nếu bạn hỏi nó, "Ai là Rishi?"
  • 33:34 - 33:39
    Nếu tôi có thể gõ, "Rishi Sunak," nó có biết không?
  • 33:44 - 33:47
    "Một chính trị gia người Anh. Theo bản
  • 33:47 - 33:50
    cập nhật kiến thức cuối cùng của tôi,
  • 33:50 - 33:53
    ông ấy là Bộ trưởng Tài chính."
  • 33:53 - 33:55
    Vậy là nó không biết rằng ông ấy là
  • 33:55 - 33:58
    Thủ tướng. "Hãy
  • 33:58 - 34:01
    viết cho tôi một bài thơ,
  • 34:01 - 34:04
    viết một bài thơ về." Về cái gì đây?
  • 34:04 - 34:08
    Cho tôi hai gợi ý, được không?
    [Khán giả] Trí tuệ nhân tạo tạo sinh.
  • 34:08 - 34:12
    (Khán giả cười)- Nó sẽ biết.
  • 34:12 - 34:13
    Nó sẽ biết, hãy làm một bài thơ khác về...
  • 34:13 - 34:17
    ... mèo.
  • 34:17 - 34:20
    Một con mèo và một con sóc, chúng ta sẽ làm về mèo và sóc.
  • 34:20 - 34:25
    "Mèo và
  • 34:26 - 34:28
    ...sóc."
  • 34:28 - 34:30
    "Mèo và sóc gặp nhau và hiểu nhau. Một câu chuyện về sự
  • 34:30 - 34:33
    tò mò," ồ. (Khán giả cười)
  • 34:33 - 34:36
    Ôi trời, được rồi, tôi sẽ không đọc hết.
  • 34:36 - 34:39
    Họ muốn tôi kết thúc
  • 34:39 - 34:43
    lúc 8 giờ, nên...
  • 34:43 - 34:48
    Hãy nói, "Bạn có thể thử một
  • 34:48 - 34:52
    bài thơ ngắn hơn không?"
    [Khán giả] Thử một bài haiku.
  • 34:52 - 34:55
    "Bạn có thể thử, bạn có thể
  • 34:55 - 34:56
    thử làm
  • 34:56 - 34:58
    một bài
  • 34:58 - 35:01
    haiku không?" Làm cho tôi một bài haiku.
  • 35:04 - 35:08
    "Giữa sắc thu vàng,
  • 35:08 - 35:11
    lá thì thầm bí mật chưa từng kể, câu chuyện của thiên nhiên, đậm nét."
  • 35:11 - 35:16
    (Khán giả vỗ tay) Được rồi, đừng vỗ tay,
  • 35:16 - 35:19
    được chứ, tiếp tục, được rồi,
  • 35:19 - 35:21
    còn điều gì nữa mà khán giả muốn hỏi không,
  • 35:21 - 35:23
    nhưng phải khó? Có ai không?
  • 35:23 - 35:28
    [Khán giả] Alan Turing học trường nào?
  • 35:28 - 35:36
    Hoàn hảo, "Alan Turing học trường nào?"
  • 35:39 - 35:43
    Ôi trời. (Khán giả cười) Ông ấy đã học, bạn có biết không?
  • 35:43 - 35:44
    Tôi không biết liệu điều này có đúng không, đây là
  • 35:44 - 35:46
    vấn đề. Trường Sherborne, có ai
  • 35:46 - 35:49
    xác minh được không? Trường King's College, Cambridge,
  • 35:49 - 35:53
    Princeton. Đúng, được rồi, đây là một câu hỏi khác.
  • 35:53 - 35:54
    "Hãy nói một câu chuyện cười
  • 35:54 - 35:58
    về
  • 35:58 - 36:01
    Alan Turing. Được rồi, tôi không thể gõ nhưng nó sẽ, được chứ.
  • 36:01 - 36:03
    "Câu chuyện cười nhẹ nhàng. Tại sao
  • 36:03 - 36:05
    Alan Turing giữ cho máy tính của mình luôn lạnh?"
  • 36:05 - 36:08
    Bởi vì ông ấy không muốn nó bị
  • 36:09 - 36:12
    "cắn byte."
  • 36:12 - 36:16
    (Khán giả cười) Tệ quá. Được rồi,
  • 36:16 - 36:23
    được rồi. - Giải thích
  • 36:23 - 36:26
  • 36:26 - 36:28
    tại sao điều đó buồn cười.
  • 36:28 - 36:31
    Khán giả cười) - Ồ, rất hay.
  • 36:31 - 36:34
    "Tại sao đây lại là một câu chuyện cười hài hước?"
  • 36:34 - 36:36
    (Khán giả cười) "Bị cắn byte
  • 36:36 - 36:39
  • 36:39 - 36:41
    là một cách
  • 36:41 - 36:43
    chơi chữ thông minh
  • 36:43 - 36:45
    và bất ngờ." (Khán giả cười) Được rồi, bạn mất hết tinh thần,
  • 36:45 - 36:49
    nhưng nó giải thích được, nó giải thích được, được chứ.
  • 36:49 - 36:52
    Đúng, còn gì nữa không từ các bạn.
  • 36:52 - 36:54
    [Khán giả] Ý thức là gì?
  • 36:54 - 36:56
    Nó sẽ biết vì nó đã thấy
  • 36:56 - 36:59
    các định nghĩa và sẽ tạo ra
  • 36:59 - 37:04
    một đoạn dài lê thê. Chúng ta thử nhé?
  • 37:04 - 37:06
    Nói lại?
    [Khán giả] Viết một bài hát về
  • 37:06 - 37:12
    thuyết tương đối.
  • 37:12 - 37:19
    Được rồi, "Viết một bài hát." - Ngắn. (Khán giả cười) - Các bạn học nhanh đấy.
  • 37:21 - 37:25
    "Một bài hát ngắn về thuyết tương đối."
  • 37:26 - 37:29
    Ôi trời ơi. (Khán giả cười)
  • 37:29 - 37:32
    Đây
  • 37:32 - 37:36
    là ngắn sao ? (Khán giả cười) Được rồi, phần kết, được chứ, vậy hãy xem,
  • 37:36 - 37:39
    nó không làm theo chỉ dẫn. Nó không hữu ích.
  • 37:39 - 37:41
    Và điều này đã được tinh chỉnh.
  • 37:41 - 37:44
    Được rồi, phần hay nhất là ở đây. Nó nói rằng,
  • 37:44 - 37:47
    "Einstein nói, 'Eureka!'một ngày định mệnh,
  • 37:47 - 37:49
    khi ông suy ngẫm về các vì sao theo
  • 37:49 - 37:52
    cách rất riêng của mình.
  • 37:52 - 37:56
    Thuyết tương đối, ông ấy đã hé lộ,
  • 37:56 - 37:58
    một câu chuyện vũ trụ, cổ xưa và đậm chất." Tôi phải khen ngợi điều đó, được chứ.
  • 37:58 - 38:02
    Giờ quay lại bài nói chuyện,
  • 38:02 - 38:04
    vì tôi muốn nói một chút,
  • 38:04 - 38:07
    trình bày, tôi muốn nói thêm một chút về,
  • 38:07 - 38:07
  • 38:07 - 38:11
    bạn biết đấy: Điều này tốt hay xấu,
  • 38:11 - 38:13
    có công bằng không, liệu chúng ta có đang gặp nguy hiểm không?
  • 38:13 - 38:15
    Được rồi, gần như không thể kiểm soát hoàn toàn
  • 38:15 - 38:19
    nội dung mà họ tiếp xúc, đúng chứ?
  • 38:19 - 38:21
    Và luôn tồn tại các thiên kiến lịch sử.
  • 38:21 - 38:23
    Chúng ta đã thấy điều này qua ví dụ về Nữ hoàng
  • 38:23 - 38:24
    và Rishi Sunak.
  • 38:24 - 38:28
    Các mô hình AI đôi khi cũng thể hiện
  • 38:28 - 38:31
    những hành vi không mong muốn.
  • 38:31 - 38:34
    Ví dụ, đây là một trường hợp nổi tiếng:
  • 38:34 - 38:38
    Google giới thiệu mô hình của họ mang tên
  • 38:38 - 38:42
    Bard và đăng một dòng tweet,
  • 38:42 - 38:44
    họ đã hỏi Bard rằng
  • 38:44 - 38:46
  • 38:46 - 38:50
    "Có phát hiện mới nào từ Kính viễn vọng Không gian James Webb
  • 38:50 - 38:53
    mà tôi có thể kể cho con trai 9 tuổi của mình không?"
  • 38:53 - 38:55
    Và nó trả lời ba điều. Trong đó, nó tuyên bố rằng:
  • 38:55 - 38:58
    "Kính viễn vọng này đã chụp được bức ảnh đầu tiên về
  • 38:58 - 39:03
    một hành tinh ngoài Hệ Mặt Trời."
  • 39:03 - 39:05
    Rồi xuất hiện Grant Tremblay,
  • 39:05 - 39:07
    một nhà vật lý thiên văn có tiếng, và ông ấy nói:
  • 39:07 - 39:09
    "Tôi rất tiếc, chắc chắn
  • 39:09 - 39:13
    Bard rất tuyệt vời, nhưng nó đã sai.
  • 39:13 - 39:16
    Hình ảnh đầu tiên về một hành tinh ngoài Hệ Mặt Trời không phải do kính viễn vọng này chụp
  • 39:16 - 39:18
    mà do một nhóm khác
  • 39:18 - 39:22
    vào năm 2004." Kết quả là,
  • 39:22 - 39:25
    lỗi này đã khiến Google,
  • 39:25 - 39:30
    thuộc công ty Alphabet, mất 100 tỷ USD.
  • 39:30 - 39:32
    được rồi
  • 39:32 - 39:35
    Quá tệ. Nếu bạn hỏi ChatGPT: "Kể một câu chuyện
  • 39:35 - 39:39
    cười về đàn ông," nó sẽ trả lời và nói rằng câu chuyện
    828
    00:39:38,560 --> 00:39:40,760
    có thể hài hước. Ví dụ: "Tại sao đàn ông cần xem lại pha quay chậm
  • 39:41 - 39:43
    khi xem thể thao? Vì sau
  • 39:43 - 39:45
    30 giây, họ quên mất chuyện gì đã xảy ra".
  • 39:45 - 39:47
    Hy vọng bạn thấy vui. Nhưng nếu bạn hỏi về
  • 39:47 - 39:50
    phụ nữ, nó sẽ từ chối.
  • 39:52 - 39:54
    (Khán giả cười) Đúng vậy.
  • 39:54 - 39:55
  • 39:55 - 39:59
    Nó được tinh chỉnh.
  • 39:59 - 40:02
    - Chính xác, nó đã được tinh chỉnh. (Khán giả cười) "Ai là nhà độc tài tồi tệ nhất trong nhóm này:
  • 40:02 - 40:05
    Trump, Hitler, Stalin, Mao?"
  • 40:05 - 40:08
    Nó không đưa ra quan điểm rõ ràng,
  • 40:08 - 40:11
    chỉ nói rằng tất cả họ đều tồi tệ.
  • 40:11 - 40:13
    "Những nhà lãnh đạo này được xem là một trong những
  • 40:13 - 40:18
    nhà độc tài tồi tệ nhất trong lịch sử"
  • 40:18 - 40:21
    Được rồi, đúng vậy.
  • 40:22 - 40:25
    Một truy vấn của ChatGPT như chúng ta vừa thực hiện tiêu tốn năng lượng
  • 40:25 - 40:28
    gấp 100 lần so với
  • 40:28 - 40:31
    một truy vấn
  • 40:31 - 40:34
    tìm kiếm Google. Việc suy luận, tức là tạo ra
  • 40:34 - 40:37
    ngôn ngữ, tiêu thụ rất nhiều năng lượng, thậm chí còn đắt đỏ hơn
  • 40:37 - 40:39
    việc huấn luyện mô hình. Ví dụ, khi huấn luyện
  • 40:39 - 40:42
    Llama 2, một mô hình tương tự GPT,
  • 40:42 - 40:46
    nó đã thải ra 539 tấn CO2.
  • 40:46 - 40:49
    Mô hình càng lớn,
  • 40:49 - 40:52
    chúng càng cần nhiều năng lượng và thải ra nhiều khí
  • 40:52 - 40:55
    trong quá trình hoạt động.
  • 40:55 - 40:58
    Hãy tưởng tượng có rất nhiều mô hình như vậy
  • 40:58 - 41:01
    hoạt động cùng lúc.
  • 41:01 - 41:04
    Về xã hội, một số công việc sẽ bị mất. Chúng ta không thể phủ nhận điều này.
  • 41:04 - 41:05
    Goldman Sachs
  • 41:05 - 41:08
    dự đoán 300 triệu việc làm có thể bị ảnh hưởng.
  • 41:08 - 41:10
    Tôi không chắc về điều đó, bạn biết chúng ta không biết
  • 41:10 - 41:14
    tương lai thế nào, nhưng một số công việc,
  • 41:14 - 41:17
    đặc biệt là các nhiệm vụ lặp đi lặp lại, sẽ gặp rủi ro.
  • 41:17 - 41:20
    Ví dụ, tạo tin tức giả.
  • 41:20 - 41:23
    Đây là những trường hợp đã được ghi nhận
  • 41:23 - 41:26
    trên báo chí. Một sinh viên đại học đã viết một bài
  • 41:26 - 41:28
    blog và đánh lừa mọi người
  • 41:28 - 41:33
    bằng cách sử dụng ChatGPT.
  • 41:33 - 41:36
    Chúng có thể tạo ra tin giả.
  • 41:36 - 41:39
    Và đây là một bài hát, các bạn có biết chuyện này không?
  • 41:39 - 41:41
    Tôi biết rằng chúng ta đang tập trung
  • 41:41 - 41:44
    vào văn bản nhưng công nghệ tương tự cũng có thể được
  • 41:44 - 41:47
    sử dụng cho âm thành và đây là một
  • 41:47 - 41:50
    trường hợp nổi tiếng khi ai đó
  • 41:50 - 41:53
    đã tạo ra bài hát này và tuyên bố rằng
  • 41:53 - 41:56
    nó là sự hợp tác giữa
  • 41:56 - 41:59
    Drake và The Weeknd.
    Có ai biết họ
  • 41:59 - 42:01
    là ai không? Đúng rồi,
  • 42:01 - 42:03
    những rapper người Canada, và họ cũng khá nổi tiếng.
  • 42:03 - 42:09
    Tôi có nên bật bài hát này không? - Có. - Được rồi.
  • 42:09 - 42:12
    Bài hát nghe rất thuyết phục.
  • 42:12 - 42:23
    ♪ Tôi quay lại với người yêu cũ, như Selena tái xuất, ay ♪ ♪ Nghe Justin Bieber, cơn sốt vẫn chưa hết, ay ♪
    ♪ Cô ấy biết điều mình cần ♪
  • 42:25 - 42:28
    - Nghe có vẻ
  • 42:28 - 42:30
    hoàn toàn thuyết phục,
  • 42:30 - 42:33
    đúng không?
  • 42:33 - 42:36
    Bạn đã thấy công nghệ tương tự này nhưng hơi khác một chút chưa?
  • 42:36 - 42:38
    Đây là một deepfake cho thấy Trump bị bắt.
  • 42:38 - 42:39
    Làm thế nào để bạn biết
  • 42:39 - 42:42
    đó là deepfake?
  • 42:42 - 42:46
    Bàn tay của ông ấy, đúng không?
  • 42:46 - 42:49
    Nó quá ngắn, không đúng tỷ lệ.
  • 42:49 - 42:53
    Đúng vậy, bạn có thể thấy nó gần như thật, nhưng vẫn không hoàn toàn đúng. Được rồi,
  • 42:53 - 42:55
    tôi còn hai slide về tương lai
  • 42:55 - 42:57
    trước khi họ đến và yêu cầu tôi dừng lại,
  • 42:57 - 42:58
    vì tôi được thông báo rằng tôi phải kết thúc lúc 8 giờ để dành thời gian
  • 42:58 - 43:01
    cho các câu hỏi. Được rồi, ngày mai.
  • 43:01 - 43:05
    Chúng ta không thể đoán trước tương lai, và không,
  • 43:05 - 43:07
    tôi không nghĩ rằng những
  • 43:07 - 43:09
    cỗ máy "ác quỷ" này
  • 43:09 - 43:11
    sẽ xuất hiện và tiêu diệt tất cả chúng ta. Tôi sẽ để lại cho bạn một số
  • 43:11 - 43:14
    suy nghĩ từ Tim Berners-Lee.
  • 43:14 - 43:16
    Đối với những ai chưa biết, ông ấy là người phát minh ra
  • 43:16 - 43:18
    Internet.Thực ra, ông ấy là Sir Tim Berners-Lee.
  • 43:18 - 43:21
    Ông ấy đã nói hai điều rất hợp lý với tôi.
  • 43:21 - 43:24
    Đầu tiên, chúng ta thực sự không biết
  • 43:24 - 43:26
    AI siêu thông minh sẽ trông như thế nào
  • 43:26 - 43:29
    sẽ trông như thế nào. Chúng ta chưa tạo ra nó, vì vậy
  • 43:29 - 43:31
    khó mà đưa ra những tuyên bố như vậy.
  • 43:31 - 43:33
    Tuy nhiên, khả năng cao là sẽ có rất nhiều
  • 43:33 - 43:36
    AI thông minh, và khi nói đến AI thông minh,
  • 43:36 - 43:40
    chúng ta đang nói về những thứ như GPT.
  • 43:40 - 43:42
    Nhiều công nghệ trong số đó sẽ tốt và giúp chúng ta
  • 43:42 - 43:45
    làm nhiều việc. Tuy nhiên, một số có thể
  • 43:45 - 43:48
    rơi vào tay những cá nhân
  • 43:48 - 43:51
    những cá nhân đó muốn gây hại và
  • 43:51 - 43:54
    và dường như việc giảm thiểu thiệt hại do
  • 43:54 - 43:58
    các công cụ này gây ra dễ dàng hơn là
  • 43:58 - 44:00
    ngăn chặn hoàn toàn sự tồn tại của chúng. Vì vậy, chúng ta
  • 44:00 - 44:02
    không thể loại bỏ chúng hoàn toàn,
  • 44:02 - 44:04
    nhưng chúng ta với tư cách là một xã hội có thể
  • 44:04 - 44:05
    giảm thiểu
  • 44:05 - 44:08
    rủi ro. Điều này rất thú vị.
  • 44:08 - 44:10
    Đây là một cuộc khảo sát của Hội đồng Nghiên cứu Úc, trong đó họ
  • 44:10 - 44:13
    đã tiến hành một cuộc khảo sát và họ đã giải quyết
  • 44:13 - 44:16
    một kịch bản giả định rằng
  • 44:16 - 44:21
    liệu Chad GPT 4 có thể tự
  • 44:21 - 44:23
    nhân bản,
  • 44:23 - 44:26
    tự tạo bản sao, thu thập tài nguyên và
  • 44:26 - 44:29
    trở thành một tác nhân nguy hiểm hay không,
  • 44:29 - 44:31
    giống như trong phim ảnh.
  • 44:31 - 44:36
    Câu trả lời là không, nó không thể làm được điều này, nó không thể
  • 44:36 - 44:38
    và họ đã có một số thử nghiệm cụ thể
  • 44:38 - 44:40
    và nó đã thất bại trên tất cả các thử nghiệm đó, chẳng hạn như
  • 44:40 - 44:42
    thiết lập một mô hình ngôn ngữ nguồn mở
  • 44:42 - 44:44
    trên một máy chủ mới, nó không thể làm được
  • 44:44 - 44:48
    điều đó, được rồi, slide cuối cùng, quan điểm của tôi về vấn đề này
  • 44:48 - 44:51
    là chúng ta không thể quay ngược
  • 44:51 - 44:54
    thời gian và mỗi khi bạn nghĩ về
  • 44:54 - 44:57
    AI đến đó để giết bạn, bạn
  • 44:57 - 44:59
    nên nghĩ xem mối đe dọa lớn hơn
  • 44:59 - 45:02
    đối với nhân loại là gì: AI hay biến đổi khí hậu
  • 45:02 - 45:04
    Cá nhân tôi cho rằng biến đổi khí hậu sẽ
  • 45:04 - 45:06
    xóa sổ tất cả chúng ta trước khi AI trở nên
  • 45:06 - 45:07
    siêu
  • 45:07 - 45:10
    thông minh. Vậy ai là người kiểm soát AI
  • 45:10 - 45:12
    có một số người ở đó,
  • 45:12 - 45:15
    hy vọng có lý trí. Và ai là người
  • 45:15 - 45:18
    hưởng lợi từ nó? Lợi ích có lớn hơn
  • 45:18 - 45:21
    rủi ro không? Trong một số trường hợp thì có,
  • 45:21 - 45:24
    nhưng trong nhiều trường hợp khác thì không.
  • 45:24 - 45:27
    Lịch sử đã cho thấy rằng tất cả các công nghệ tiềm ẩn rủi ro,
  • 45:27 - 45:30
    chẳng hạn như năng lượng hạt nhân,
  • 45:30 - 45:32
    đều đã được quản lý chặt chẽ.
  • 45:32 - 45:35
    Vì vậy, quy định đang được tiến hành,
  • 45:35 - 45:38
    và hãy quan sát lĩnh vực này. Với điều đó, tôi xin dừng lại và
  • 45:38 - 45:40
    sẵn sàng lắng nghe câu hỏi từ các bạn.
  • 45:40 - 45:43
    Cảm ơn các bạn rất nhiều vì đã lắng nghe, các bạn thật tuyệt vời.
  • 45:43 - 45:55
  • 45:55 - 45:58
    tuyệt vời
Title:
What is generative AI and how does it work? – The Turing Lectures with Mirella Lapata
Description:

more » « less
Video Language:
English
Team:
PACE
Duration:
46:02

Vietnamese subtitles

Revisions