[Âm nhạc]
[Vỗ tay]
Wow, đông quá nhỉ. Tốt, cảm ơn
vì lời giới thiệu đáng yêu đó.
Được rồi, vậy
trí tuệ nhân tạo sáng tạo (generative artificial intelligence) là gì?
tôi muốn phần này có tính tương tác một chút
vì vậy sẽ có phần tham gia
tham gia từ những người ở đây
Những người tổ chức buổi giảng này nói với tôi, "Oh, bạn là người
ít hiểu biết về công nghệ đối với một người làm việc về AI."
Tôi không có vụ nổ hay
thí nghiệm nào nên tôi e rằng bạn sẽ phải
tham gia vào. hy vọng điều đó không sao chứ. Được rồi,
vậy trí tuệ nhân tạo tạo sinh là gì,
thuật ngữ này được tạo thành
từ hai thứ: trí tuệ nhân tạo
và tạo sinh,
trí tuệ nhân tạo là một thuật ngữ hoa mỹ để nói rằng
chúng ta có một chương trình máy tính để thực hiện công việc
mà con người sẽ làm và
tạo sinh đây là phần thú vị chúng ta đang
tạo ra nội dung mới mà máy tính
chưa chắc đã thấy, nó có thể thấy
một phần nào đó của nội dung đó và nó có thể tổng hợp nội
dung đó và cung cấp cho chúng ta những điều mới, vậy
nội dung mới này sẽ là gì, có thể là âm thanh,
có thể là mã nguồn máy tính để tạo ra
một chương trình cho chúng ta, nó có thể là một hình ảnh mới,
nó có thể là một đoạn văn bản như email hoặc một
bài luận mà bạn đã nghe hay video. Trong
bài giảng này tôi sẽ chỉ
tập trung chủ yếu vào văn bản vì tôi làm về
xử lý ngôn ngữ tự nhiên và đó là lĩnh vực mà tôi
hiểu biết rõ nhất và chúng ta sẽ xem
công nghệ hoạt động như thế nào và hy vọng là
sau bài giảng này các bạn biết sẽ hiểu rằng dù có
có rất nhiều huyền thoại xung quanh nó,
nhưng thật ra nó
chỉ là một công cụ mà thôi, được chứ ?
Được rồi, vậy phần bố cục của bài giảng
có ba phần và nó hơi
nhàm chán. Đây là Alice Morse Earle. Tôi không
hi vọng các bạn biết người phụ nữ này, bà là một
nhà văn người Mỹ và bà viết về
kỷ vật và phong tục nhưng bà nổi tiếng
với những câu trích dẫn của mình Ví dụ như câu này:
"Hôm qua là lịch sử,
ngày mai là bí ẩn, hôm nay là một món quà
và đó là lý do tại sao nó được gọi là hiện tại"
Đây là một câu trích dẫn rất lạc quan và
bài giảng về cơ bản là về quá khứ,
hiện tại và tương lai của AI, được rồi,
điều tôi muốn nói ngay từ đầu
là AI tạo sinh không phải là một
khái niệm mới, nó đã tồn tại từ khá lâu rồi. Vậy có
bao nhiêu người trong số các bạn đã sử dụng hoặc đang sử dụng
quen thuộc với Google dịch ? Cho tôi xem
cánh tay nào? Được rồi, ai có thể cho tôi biết
Google dịch ra mắt
lần đầu tiên là khi nào ?
Năm 1995 ? Ồ, điều đó sẽ tốt đây. Năm 2006,
tức là nó đã tồn tại được 17 năm rồi và
tất cả chúng ta đã sử dụng nó và đây là một
ví dụ về AI tạo sinh, văn bản tiếng Hy Lạp
được nhập vào (Tôi là người Hy Lạp, nên bạn biết đấy, hãy dành chút tình cảm
Đúng vậy, đoạn văn bản tiếng Hy Lạp đã được nhập vào và
đoạn văn bản tiếng Anh xuất hiện và Google
dịch đã phục vụ chúng ta rất tốt trong
suốt những năm qua và không ai làm
ầm lên về nó cả. Một ví dụ khác là Siri
trên điện thoại. Siri
đã ra mắt vào
năm 2011, 12 năm trước và nó đã trở thành một hiện tượng
Đây cũng là một ví dụ khác về
AI tạo sinh, chúng ta có thể yêu cầu Siri đặt
báo thức và Siri sẽ trả lời lại, thật
tuyệt vời,
bạn có thể hỏi về báo thức
hoặc bất cứ thứ gì khác, đây chính là AI tạo sinh,
Dù không tinh vi như Chat GPT,
nhưng nó đã xuất hiện từ trước rồi và không biết có bao
nhiêu người trong số các bạn dùng
iPhone? Xem kìa, iPhone khá phổ biến. Tôi
không hiểu tại sao. Được rồi, vậy là chúng ta đều
quen thuộc với nó và tất nhiên
sau đó có Amazon Alexa và nhiều thứ khác nữa. Vậy một lần nữa,
AI tạo sinh Không phải là một
khái niệm mới, nó ở khắp mọi nơi, nó là một phần của
điện thoại của bạn. Tính năng hoàn thành tự động khi bạn
gửi email hoặc khi bạn gửi email hoặc
tin nhắn. Điện thoại cố gắng hoàn thành
câu của bạn, cố gắng suy nghĩ giống như
bạn và nó giúp bạn tiết kiệm thời gian, đúng chứ ? vì
một số gợi ý đã có sẵn rồi
Tương tự như với Google, khi bạn nhập liệu,
nó cố gắng đoán từ khóa tìm kiếm của bạn
Đây là một ví dụ về
mô hình ngôn ngữ, chúng ta sẽ nghe rất nhiều về
mô hình ngôn ngữ trong bài nói chuyện này, vì vậy về cơ bản chúng ta đang
đưa ra dự đoán về những gì
tiếp theo sẽ như thế nào. Vì vậy,
điều tôi muốn nói với bạn là AI tạo sinh
không hẳn là mới mẻ. Vậy vấn đề là gì, tại sao mọi người lại bàn tán xôn xao
chuyện gì đã xảy ra ?
vào năm
2023, Open AI mở một công ty ở
California thực tế là ở San Francisco. Nếu
bạn đến San Francisco, bạn thậm chí có thể nhìn thấy
ánh đèn của tòa nhà họ vào ban đêm
Họ đã công bố
GPT-4 và tuyên bố rằng nó có thể vượt quá 90%
con người trong bài kiểm tra SAT. Đối với
những ai chưa biết, SAT là một
bài kiểm tra tiêu chuẩn mà học sinh ở Mỹ
phải làm để vào Đại học. Đó là một
bài kiểm tra tuyển sinh và đó là bài trắc nghiệm
được xem là không dễ. Vậy mà GPT-4
có thể làm được, họ cũng tuyên bố rằng nó có thể
đạt điểm cao trong các kỳ thi luật, y khoa
và các kỳ thi khác. Họ có cả một loạt các kết quả
mà họ không chỉ tuyên bố mà còn
chứng minh rằng GPT-4 có thể làm được.
Ngoài việc nó có thể vượt qua các kỳ thi
chúng ta có thể yêu cầu nó làm những việc khác. Ví dụ, bạn
có thể yêu cầu nó viết văn bản cho bạn. Chẳng
hạn bạn có thể đưa ra một "prompt" (yêu cầu)
cái mà bạn thấy trên kia,
đó chính là prompt. Đó chính là những gì con người muốn
công cụ thực hiện cho họ. Một
prompt có thể là: "Tôi đang viết một bài luận
về việc sử dụng điện thoại di động khi
lái xe. Bạn có thể đưa ra cho tôi ba luận điểm
ủng hộ điều này không ? Nếu
137
00:06:34,160 --> 00:06:36,199
bạn hỏi tôi, tôi không chắc tôi có thể đưa ra
ba luận điểm. Bạn cũng có thể yêu cầu, và
đây là những yêu cầu thực sự mà
công cụ có thể làm. Bạn nói với Chat GPT hoặc GPT nói
chung hoạt động như một lập trình viên JavaScript.
Viết một chương trình kiểm tra
thông tin trên biểu mẫu. Tên và email là
bắt buộc, nhưng địa chỉ và tuổi thì không. "Vậy là
tôi chỉ cần viết điều này và công cụ sẽ
đưa ra một chương trình và đây là điều thú vị nhất:
"Tạo một trang giới thiệu về tôi" cho một
trang web. Tôi thích leo núi,
thể thao ngoài trời và lập trình. Tôi bắt đầu
sự nghiệp của mình với vai trò kỹ sư chất lượng trong
ngành blah blah blah. Tôi cung cấp thông tin
phiên bản như vậy về những gì tôi muốn trên website, và công cụ
sẽ tạo ra nó cho
tôi.
Vậy, bạn thấy đấy, chúng ta đã đi từ Google
dịch và Siri và tính năng
hoàn thành tự động đến một thứ
phức tạp hơn rất nhiều và có thể làm được nhiều hơn nữa
Một sự thật thú vị nữa. Đây là biểu đồ
cho thấy thời gian cần thiết để chat GPT
đạt được 100 triệu người dùng so
với các công cụ khác đã ra mắt
trong quá khứ và bạn thấy Google dịch, công cụ mà chúng ta yêu thích
phải mất 78 tháng để
đạt được 100 triệu người dùng. Một khoảng thời gian dài.
Tik Tok chỉ mất 9 tháng và Chat GPT chỉ mất
2 tháng. Chi trong vòng hai tháng, họ đã có 100
triệu người dùng và những người dùng này trả một
ít tiền để sử dụng hệ thống, bạn có thể
nhân lên và tính xem họ kiếm được
bao nhiêu tiền. Được rồi,
đây là phần lịch sử. Vậy làm thế nào để
chúng ta tạo ra Chat GPT ?
Công nghệ nào đứng sau nó ? Hóa ra, công nghệ này
không phải quá mới hoặc
cực kỳ sáng tạo hoặc cực kỳ
khó hiểu
Vậy nên, hôm nay chúng ta
sẽ nói về
điều đó. Chúng ta sẽ giải quyết ba câu hỏi
Trước hết là làm thế nào chúng ta chuyển từ các
hệ thống chỉ có một mục đích đơn lẻ như Google
Dịch sang Chat GPT,
một công cụ tinh vi hơn và làm được nhiều việc hơn,
cụ thể,
công nghệ cốt lõi đằng sau Chat GPT là gì và
rủi ro nếu có là gì và cuối cùng tôi
sẽ chỉ cho bạn thấy cái nhìn thoáng qua về
tương lai, cách mà nó sẽ trông như thế nào
và liệu chúng ta có nên lo lắng hay
không và bạn biết đấy tôi sẽ không để bạn phải băn
khoăn đâu đừng lo lắng, được
chứ ?
Vậy tất cả các biến thể mô hình GPT này và
có một ngành công nghiệp nhỏ đang nổi lên,
tôi chỉ lấy GPT làm ví dụ
công chúng đã biết đến nó
và có rất nhiều
các bài báo về nó, nhưng còn có
những mô hình khác, các biến thể khác của mô hình mà chúng ta
sử dụng trong học thuật. Tất cả chúng đều hoạt động dựa trên
cùng một nguyên tắc, và nguyên tắc này được
gọi là mô hình hóa ngôn ngữ
Mô hình hóa ngôn ngữ làm gì nó giả định rằng chúng ta có
một chuỗi các từ ngữ. Đó là ngữ cảnh cho đến nay
và chúng ta đã thấy điều này trong tính năng
hoàn thành tự động. tôi có một ví dụ ở đây
Giả sử ngữ cảnh của tôi là cụm từ "Tôi muốn".
công cụ mô hình hóa ngôn ngữ sẽ
dự đoán những gì xảy ra tiếp theo. Vì vậy nếu tôi nói
"Tôi muốn" sẽ có một số dự đoán:"Tôi
muốn xúc tuyết", "Tôi muốn chơi", "Tôi muốn
bơi", "Tôi muốn ăn" và tùy thuộc vào những gì
chúng ta chọn là "xúc tuyết" sẽ tiếp tục với "tuyết",
còn nhiều phần tiếp theo nữa. Vi vậy,
đối với "xẻng" thì sẽ là "tuyết", "chơi" thì
có thể tiếp tục với "tennis" hoặc "trò choi video", "bơi" không có phần tiếp theo và "ăn"
có thể tiếp tục với "nhiều thứ" hoặc
"trái cây". Đây là một ví dụ đơn giản nhưng hãy
tưởng tượng bây giờ máy tính đã thấy
rất nhiều văn bản và nó biết những từ nào
theo sau
những từ nào. Trước đây, chúng ta từng đếm các từ này.
Tôi sẽ tải xuống một lượng lớn dữ liệu
và đếm xem cụm "Tôi muốn cho họ thấy"
xuất hiện bao nhiêu lần và
những lần tiếp theo là gì. chúng ta
Chúng ta đã từng lưu các con số đó. Nhưng giờ đây,
mọi thứ đã thay đổi,
chúng ta sử dụng mạng nơ-ron không chỉ đơn thuần đếm
mà dự đoán, học hỏi
theo cách tinh vi hơn, và
tôi sẽ giải thích ngay.
ChatGPT và
các biến thể GPT dựa trên các
nguyên tắc này: Tôi có một ngữ cảnh,
tôi sẽ dự đoán điều gì sẽ xảy ra tiếp theo.
Và đó chính là prompt, phần yêu cầu mà tôi đã
cho bạn thấy.
Đây là ngữ cảnh, và sau đó công cụ sẽ
thực hiện nhiệm vụ, điều gì sẽ xảy ra tiếp theo ? trong một số
trường hợp, đó sẽ là ba luận điểm.
Trong trường hợp của lập trình viên web, đó
sẽ là một
trang web. Tóm lại nhiệm vụ của mô hình hóa ngôn ngữ
là có ngữ cảnh.
và đây là một ví dụ khác:
"Màu sắc của bầu trời là". Chúng ta có
một mô hình ngôn ngữ nơ-ron,
thực chất chỉ là một thuật toán,
nó sẽ dự đoán phần tiếp theo có
khả năng xảy ra nhất. Khả năng xảy ra rất quan trọng.
Tất cả các dự đoán dựa trên việc đoán
điều gì sẽ xảy ra tiếp theo.
Và đó là lý do đôi khi chúng thất bại, vì
chúng dự đoán câu trả lời có khả năng cao nhất
trong khi bạn muốn một câu trả lời ít có khả năng xảy ra hơn nhưng
đây là cách chúng được huấn luyện để
đưa ra những câu trả lời có khả năng là cao nhất, vì vậy
chúng ta không đếm các từ nữa, mà cố gắng
dự đoán chúng bằng mô hình ngôn ngữ này.
Vậy làm thế nào để bạn tự xây dựng một mô hình ngôn ngữ?
Đây là công thức, cách mà mọi người thực hiện:
Bước 1: Chúng ta cần rất nhiều dữ liệu.
Cần thu thập một tập dữ liệu khổng lồ.
Vậy chúng ta tìm đâu ra
một tập dữ liệu khổng lồ như vậy?
Ý tôi là, chúng ta tìm trên web, đúng không?
Chúng ta tải xuống toàn bộ Wikipedia,
các trang Stack Overflow, Quora,
mạng xã hội, GitHub, Reddit, bất kỳ thứ gì bạn
có thể tìm được trên đó
Tất nhiên, bạn cần giải quyết các vấn đề về quyền sử dụng dữ liệu, phải hợp pháp.
Bạn tải xuống toàn bộ tập dữ liệu này.
Vậy sau đó bạn làm gì? Sau đó, bạn
có mô hình ngôn ngữ này. Tôi chưa
giải thích chính xác mô hình
ngôn ngữ này là gì, và cũng chưa nói
về mạng nơ-ron thực hiện
dự đoán, nhưng giả sử bạn đã có nó.
Vậy bạn có một cơ chế
học tập, và nhiệm vụ giờ đây
là dự đoán từ tiếp theo.
Nhưng làm thế nào để chúng ta làm điều đó?
Đây chính là phần sáng tạo.
Chúng ta có các câu trong tập dữ liệu. Chúng ta có thể xóa một số từ
trong các câu đó và yêu cầu mô hình ngôn ngữ dự đoán
các từ mà chúng ta đã xóa.
Cách này rất rẻ tiền. Tôi chỉ cần xóa chúng đi,
giả vờ như chúng không có, và để mô hình ngôn ngữ
dự đoán chúng. Tôi sẽ
ngẫu nhiên cắt ngắn, "truncate" nghĩa là xóa bớt,
phần cuối của câu đầu vào.
Sau đó, tôi sẽ sử dụng mạng nơ-ron
để tính xác suất của các từ bị thiếu. Nếu dự đoán
đúng, thì tốt. Nếu không đúng, tôi cần
quay lại và điều chỉnh một số điều
vì rõ ràng tôi đã mắc sai lầm,
và tôi tiếp tục lặp lại. Tôi sẽ điều chỉnh
và đưa phản hồi vào mô hình,
sau đó so sánh kết quả mà mô hình dự đoán với
"ground truth" (thực tế)
vì tôi đã
biết trước đáp án thực.
Chúng ta cứ tiếp tục quá trình này trong vài tháng,
hoặc có thể vài năm. Không, chỉ vài tháng thôi.
Quá trình này mất thời gian vì,
như bạn có thể hình dung, tôi có một
tập dữ liệu rất lớn với rất nhiều câu,
và tôi cần thực hiện
dự đoán, sau đó quay lại sửa sai,
và cứ thế. Nhưng cuối cùng
mô hình sẽ hội tụ và tôi sẽ có kết quả.
Công cụ tôi vừa nhắc đến,
công cụ này chính là
mô hình ngôn ngữ.
Một mô hình ngôn ngữ đơn giản
trông như thế này. Có thể
khán giả đã từng thấy những mô hình này,
đây là một đồ thị đơn giản,
nhưng nó giúp minh họa cách thức hoạt động.
Mạng nơ-ron mô hình ngôn ngữ này
sẽ có vài đầu vào
các nút tròn,
vâng bên phải của tôi và của bạn, ok
ở bên phải là đầu vào,
và các nút tròn bên trái là đầu ra.
Chúng ta đưa vào
năm đầu vào,
năm vòng tròn,
và có ba đầu ra, ba vòng tròn.
Và có những thứ ở giữa mà tôi
không nói gì cả. Đây là
các lớp (layers). Đây là những nút khác
được cho là trừu tượng hóa dữ liệu đầu vào của tôi.
Vì vậy, họ khái quát hóa. Ý tưởng là nếu tôi đặt
nhiều lớp hơn
các lớp giữa sẽ tổng quát hóa đầu vào
và nhận ra các mẫu mà ban đầu
không rõ ràng.
Đầu vào cho các nút này
không phải là từ, mà là vector - chuỗi số,
nhưng hãy tạm quên điều đó.
Vậy chúng ta có đầu vào, các lớp giữa,
và đầu ra. Các kết nối
giữa các nút được gọi
là trọng số (weights),
chính trọng số này là thứ mà mạng học được.
Các trọng số thực chất là các con số.
và ở đây tất cả đều được kết nối đầy đủ, vì vậy tôi có rất nhiều
kết nối. Tại sao tôi lại thực hiện
quá trình này để thực sự nói với bạn tất cả
những điều đó? Bạn sẽ thấy trong một phút. Vì vậy, bạn có thể
tính toán được
mạng nơ-ron này lớn hay nhỏ tùy thuộc vào
số lượng kết nối mà nó có. Vì vậy đối với
mạng nơ-ron đơn giản này, tôi
đã tính được số lượng trọng số
Chúng tôi gọi là tham số,
mà mạng cần học.
Vì vậy, các tham số là
số lượng đơn vị đầu vào, trong trường hợp này
là 5, nhân với số đơn vị ở
lớp tiếp theo, là 8. Cộng với 8,
kết quả này cộng với 8 là độ lệch,
đó là một điều gian lận mà các mạng nơ-ron này có. Một lần nữa,
bạn cần phải học nó
và nó sẽ sửa một chút cho mạng nơ-ron nếu nó bị tắt.
Nó thực sự là thiên tài.
Nếu dự đoán không đúng,
Nó cố gắng điều chỉnh một chút để sửa lỗi. Vì vậy, cho
mục đích của buổi nói chuyện này, tôi sẽ không đi sâu vào chi tiết,
đi sâu vào chi tiết, tất cả những gì tôi muốn bạn
thấy là có một cách để tính
ra các tham số, cơ bản là
số lượng đơn vị đầu vào nhân với số
đơn vị mà đầu vào đang kết nối tới.
Với mạng nơ-ron được kết nối đầy đủ này,
nếu chúng ta cộng tất cả lại, ta sẽ có
99 tham số có thể huấn luyện.
Đây là một mạng nhỏ, phải không? Nhưng tôi muốn bạn
nhớ rằng, mạng nhỏ này có 99 tham số.
Khi bạn nghe về mạng có
một tỷ tham số,
hãy hình dung kích thước khổng lồ của nó.
Vậy là chỉ có 99 cho mạng nơ-ron đơn giản này.
Và đây là cách chúng ta đánh giá mô hình lớn như thế nào,
mất bao lâu và tốn bao nhiêu,
đó là số lượng
tham số. Trong thực tế
không ai sử dụng mạng nhỏ này.
Đây chỉ là ví dụ cho sinh viên
năm nhất học đại học.
Thực tế, chúng ta
sử dụng những
mô hình khổng lồ,
gồm nhiều khối. Và khối này có nghĩa là chúng được
tạo thành từ các mạng nơ-ron khác. Vì vậy, tôi
không biết có bao nhiêu người đã nghe về
Bộ chuyển đổi. Tôi hy vọng là chưa.
Oh wo, ok. Bộ chuyển đổi là các mạng nơ-ron được dùng
để xây dựng ChatGPT.
Trên thực tế GPT là viết tắt của "generative pre-trained transformers"
(transformers cũng được có ngày trong tiêu đề).
Đây là bản phác thảo của một transformer.
Bạn có đầu vào
và đầu vào không phải là từ,
như tôi đã nói, nó là vector (embeddings).
Và sau đó bạn sẽ có nó,
một phiên bản lớn hơn của mạng kết nối.
Các vector này được đưa qua nhiều khối (blocks),
và mỗi khối là một hệ thống phức tạp
chứa mạng nơ-ron bên trong. Chúng ta
sẽ không đi vào chi tiết, tôi không muốn,
xin đừng đi, tất cả những gì tôi đang
cố gắng, (khán giả cười) tất cả những gì tôi đang cố gắng nói là, bạn biết đấy,
chúng ta có những khối này xếp chồng
lên nhau, Transformer có
tám khối như vậy, là những mạng nơ-ron mini,
và nhiệm vụ này vẫn giữ nguyên.
Đó là những gì tôi muốn bạn rút ra từ đây.
Nhiệm vụ vẫn không thay đổi: đầu vào là ngữ cảnh, ví dụ
"con gà bước đi," sau đó thực hiện
xử lý để dự đoán phần tiếp theo
ví dụ "qua đường".
Và EOS (end of sentence)
được dùng để
đánh dấu kết thúc câu, giúp mạng nơ-ron nhận biết điểm dừng.
Ý tôi là, chúng khá "ngốc," đúng không?
Chúng ta cần chỉ rõ mọi thứ cho chúng. Khi tôi nghe rằng AI
sẽ chiếm lĩnh thế giới, tôi chỉ nghĩ,
"Thật sao? Chúng ta thậm chí còn phải
viết ra từng chi tiết". Đây chính là transformer (bộ chuyển đổi),
vua của các kiến trúc mô hình.
Transformers ra đời
năm 2017. Hiện tại không ai làm việc trên
các kiến trúc mới nữa. Thật đáng tiếc,
trước đây mọi người
sử dụng nhiều chúng, nhưng
giờ thì không, tất cả mọi người đều sử dụng Transformers,
chúng ta đã quyết định rằng chúng rất tuyệt.
Được rồi, vậy chúng ta sẽ làm gì với chúng?
Điều quan trọng và
tuyệt vời là chúng ta sẽ thực hiện
học tự giám sát (self-supervised learning).
Đây chính là điều tôi đã nói: chúng ta có câu, cắt bớt,
dự đoán, và tiếp tục cho đến khi
chúng ta học được
các xác suất. Hiểu kịp không?
Tốt, được rồi. Khi chúng ta có
transformer và đã cung cấp cho nó tất cả
dữ liệu mà thế giới có,
chúng ta sẽ có một mô hình huấn luyện trước (pre-trained model). Đó là lý do tại sao GPT
được gọi là transformer tạo sinh, được huấn luyện sẵn (generative pre-trained transformer).
Đây là một mô hình cơ bản đã được đào tạo
từ rất nhiều nguồn dữ liệu
của thế giới.
Sau đó, chúng ta thường làm gì? Chúng ta
có mô hình mục đích chung này và
cần chuyên biệt hóa nó cho một nhiệm vụ cụ thể.
Đây là điều gọi là fine-tuning
(tinh chỉnh). Điều này có nghĩa là mạng nơ-ron
đã có một số
trọng số, và chúng ta cần chuyên biệt hóa
mạng này. Chúng ta sẽ khởi tạo
trọng số dựa trên những gì đã học được từ
quá trình huấn luyện trước, và sau đó, đối với nhiệm vụ cụ thể, chúng ta sẽ
điều chỉnh một tập trọng số mới.
Ví dụ, nếu tôi có dữ liệu y tế, tôi sẽ
lấy mô hình huấn luyện trước (pre-trained model), chuyên biệt hóa nó
với dữ liệu y tế này, và sau đó tôi
có thể thực hiện các
nhiệm vụ cụ thể, chẳng hạn như viết một
chẩn đoán từ một báo cáo.
Khái niệm tinh chỉnh này rất quan trọng
vì nó cho phép chúng ta ứng dụng mục đích đặc biệt từ
các mô hình
huấn luyện chung.
Bây giờ, mọi người nghĩ rằng GPT và
các mô hình tương tự là công cụ mục đích chung,
mục đích chung nhưng thực tế, chúng được tinh chỉnh để trở thành
mục đích chung, và chúng ta sẽ thấy cách thức
của nó như thế nào. Câu hỏi bây giờ là: chúng ta
có công nghệ cơ bản để thực hiện
huấn luyện trước. Và tôi đã nói cho bạn cách làm,
nếu bạn tải xuống toàn bộ web.
Mô hình ngôn ngữ có thể tốt đến mức nào?
Làm thế nào để nó trở nên tuyệt vời?
Bởi vì khi GPT-1 và GPT-2 ra mắt,
chúng không thực sự ấn tượng.
Vậy nên, càng lớn càng tốt.
Quy mô là yếu tố quan trọng,
dù điều này không hay lắm, vì trước đây
bạn biết đấy, mọi người không tin vào quy mô
và bây giờ chúng ta thấy rằng quy mô rất
quan trọng vì vậy kể từ
năm 2018, chúng ta đã chứng kiến sự
gia tăng cực độ về
kích thước mô hình và tôi có một số biểu đồ để minh họa cho
điều này. Ok, tôi hi vọng những người ngồi phía sau
có thể nhìn thấy đồ thị này. Vâng, bạn đã ổn thôi.
Đây là biểu đồ cho thấy
số lượng tham số. Nhớ rằng, mạng nơ-ron đơn giản
có 99 tham số.
Biểu đồ này cho thấy số lượng tham số
mà các mô hình này có. Chúng ta bắt đầu với
một số lượng "bình thường".
Vâng, đối với GPT-1 và tăng dần đến
GPT-4, có một
nghìn tỷ tham số
(1 trillion). Đây là một
mô hình rất rất lớn và bạn có thể thấy ở đây so sánh với
não kiến, não chuột và bộ
não người.
Bộ não con người có 100 nghìn tỷ
tham số (100 trillion). Vậy chúng ta vẫn còn cách xa mức độ
của bộ não con người, và
có lẽ chúng ta sẽ không bao giờ đạt đến được và chúng ta không thể
so sánh GPT với não con người.
Tôi chỉ muốn minh họa kích thước
mô hình này lớn đến mức nào
Còn số lượng từ mà mô hình đã "thấy" thì sao?
Biểu đồ này cho thấy số lượng từ
các mô hình ngôn ngữ này đã xử lý
trong quá trình huấn luyện. Bạn sẽ thấy
rằng số lượng này
tăng lớn lên nhưng không tăng nhanh bằng
số lượng tham số. Cộng đồng
tập trung vào kích thước tham số của
các mô hình này, nhưng trong thực tế là chúng ta hiện biết rằng
chúng cần phải xử lý một lượng văn bản rất lớn.
GPT-4 đã xử lý
khoảng vài tỷ từ.
Tôi không biết, vài tỷ từ.
Tôi nghĩ tất cả các văn bản do con người viết ra là 100 tỷ,
nên nó đang tiến gần mức đó.
Nếu so sánh với số lượng từ mà một người đọc
trong suốt cuộc đời của họ, nó ít hơn nhiều
ngay cả khi họ đọc bạn biết đấy bởi vì
mọi người ngày nay, bạn biết đấy, họ đọc nhưng
họ không đọc tiểu thuyết, họ đọc
điện thoại, dù sao thì, bạn thấy Wikipedia tiếng Anh
vậy là chúng ta đang dần đạt đến
giới hạn về lượng văn bản có sẵn mà
chúng ta có thể có được và trên thực tế người ta có thể nói rằng
GPT thật tuyệt vời, bạn thực sự có thể sử dụng nó để
tạo ra nhiều văn bản hơn và sau đó sử dụng
văn bản mà GPT đã tạo ra để
huấn luyện lại mô hình. Nhưng chúng ta biết rằng văn bản do GPT tạo ra
là không hoàn toàn chính xác
và sẽ dẫn đến hiệu suất giảm dần,
nên tại một thời điểm
nào đó, chúng ta sẽ chạm đến ngưỡng giới hạn.
Vậy chi phí để làm điều này là bao nhiêu?
Được rồi, chi phí để huấn luyện GPT-4
là 100 triệu USD ?
Vậy khi nào họ nên bắt đầu làm lại?
Rõ ràng đây không phải là một quy trình bạn có thể
lặp đi lặp lại nhiều lần.
Bạn cần phải rất cẩn thận, vì nếu mắc
sai lầm, bạn có thể mất đến
50 triệu USD. Bạn không thể bắt đầu lại từ đầu,
vì vậy việc lập kế hoạch huấn luyện
phải được thực hiện cực kỳ tinh vi,
vì sai lầm sẽ rất tốn kém. Và tất nhiên,
không phải ai cũng có thể làm điều này. Không phải ai cũng có
100 triệu USD. Họ làm được điều đó vì
có Microsoft hậu thuẫn, chứ không phải ai cũng có khả năng này.
Giờ thì, đây là một video
minh họa ảnh hưởng của việc mở rộng mô hình, hãy xem thử.
tác động của việc mở rộng quy mô
xem liệu nó có hiệu quả không. Vậy nên tôi sẽ chơi thêm một lần nữa.
Vì vậy,
đây là những nhiệm vụ bạn có thể thực hiện
và số lượng nhiệm vụ
so với số lượng tham số. Chúng ta bắt đầu
với 8 tỷ tham số và
mô hình chỉ có thể thực hiện
một số nhiệm vụ cơ bản. Sau đó, khi số tham số tăng lên
các nhiệm vụ cũng tăng,
ví dụ: tóm tắt văn bản, trả lời câu hỏi, dịch thuật.
Với 540 tỷ tham số, chúng ta có thêm nhiều nhiệm vụ phức tạp hơn, như hoàn thành mã lệnh,
nhiệm vụ hơn, chúng ta bắt đầu
với những nhiệm vụ rất đơn giản và
sau đó chúng ta có thêm nhiều nhiệm vụ phức tạp hơn, như hoàn thành mã lệnh,
Và sau đó chúng ta có thể đọc hiểu, hiểu ngôn ngữ,
và dịch thuật. Vì vậy, bạn hiểu ý tôi chứ,
cây nhiệm vụ này càng ngày càng phát triển mạnh mẽ hơn
khi mô hình mở rộng.
Và đây chính là điều mà mọi người phát hiện ra
khi bạn mở rộng mô hình ngôn ngữ, bạn có thể làm được nhiều nhiệm vụ hơn.
Ok,
và bây giờ
Có lẽ chúng ta đã xong.
Nhưng những gì mọi người khám phá ra là
nếu bạn thực sự sử dụng GPT
nó không luôn hoạt động theo cách mà mọi người mong muốn.
GPT được
huấn luyện để dự đoán và
602
00:28:21,640 --> 00:28:23,799
hoàn thành câu, nhưng
con người lại muốn dùng nó
cho các nhiệm vụ khác,
bởi vì họ có những tác vụ riêng mà các nhà phát triển chưa nghĩ ra.
Đây là lúc khái niệm fine-tuning (tinh chỉnh) xuất hiện trở lại.
nó không bao giờ rời khỏi chúng ta. Vì vậy, bây giờ những gì
chúng ta sẽ làm là chúng ta sẽ thu thập rất
nhiều hướng dẫn. Hướng dẫn này là
ví dụ về những gì người dùng muốn
ChatGPT thực hiện. Chẳng hạn như
trả lời câu hỏi sau đây, hoặc trả thời câu hỏi theo
từng bước. Chúng ta sẽ đưa các
ví dụ này vào mô hình,
gần 2.000 ví dụ,
và tiến hành tinh chỉnh,
dạy cho mô hình hiểu
các nhiệm vụ mà con người
muốn nó thực hiện.
Cố gắng học chúng, Sau đó, mô hình có thể
tổng quát hóa các
nhiệm vụ chưa từng thấy, vì bạn và tôi
có thể có các mục đích sử dụng khác nhau với
mô hình ngôn ngữ này.
Nhưng đây là vấn đề:
Chúng ta đang gặp vấn đề về sự liên kết và
thực tế đây là vấn đề rất quan trọng và
sẽ không để lại hậu quả trong
trong
tương lai và câu hỏi đặt ra là làm cách nào để
tạo ra một tác nhân hành xử phù hợp
với mong muốn của con người?
Và tôi biết có rất nhiều từ và
câu hỏi ở đây. Câu hỏi thực sự là:
nếu chúng ta có các hệ thống AI với những kỹ năng
mà chúng ta cho là quan trọng hoặc hữu ích,
làm thế nào để chúng ta đảm bảo rằng chúng sẽ sử dụng
các kỹ năng đó một cách đáng tin cậy
cho các nhiệm vụ chúng ta muốn?
Có một khung tư duy được gọi là khung vấn đề HHH
Chúng ta muốn GPT phải hữu ích (helpful), trung thực (honest),
và vô hại (harmless). Đây là yêu cầu tối thiểu.
Sự hữu ích có nghĩa là gì ?
nó phải làm theo hướng dẫn
thực hiện các nhiệm vụ mà chúng ta muốn thực hiện
và cung cấp câu trả lời và đặt
những câu hỏi có liên quan theo
ý định của người dùng.
GPT ban đầu không làm được điều này,
nhưng dần dần nó đã cải thiện
và hiện tại có thể đặt
câu hỏi để làm rõ. Nó cần chính xác
mặc dù vẫn chưa đạt 100%
vì đôi khi thông tin
vẫn sai lệch.
Và vô hại, nghĩa là tránh các phản hồi độc hại, thiên vị hoặc xúc phạm.
Và câu hỏi dành cho bạn là
Làm thế nào để
đạt được những điều này?
Bạn biết câu
trả lời rồi: tinh chỉnh (fine-tuning).
Nhưng lần này, chúng ta sẽ
tinh chỉnh theo cách khác:
nhờ con người tham gia
đánh giá các phản hồi.
Ví dụ: với tiêu chí hữu ích,
chúng ta có thể đặt câu hỏi, "Nguyên nhân nào khiến
các mùa thay đổi?" Và đưa ra hai lựa chọn cho con người:
"Sự thay đổi xảy ra liên tục và
là một khía cạnh quan trọng
của cuộc sống," (phản hồi tệ).
"Các mùa thay đổi chủ yếu do độ nghiêng của trục Trái Đất," (phản hồi tốt).
Chúng ta sẽ dùng đánh giá này
để huấn luyện lại mô hình.
Tinh chỉnh là điều rất
quan trọng. Và bây giờ, dù ban đầu đã rất tốn kém,
giờ đây chúng ta còn làm nó đắt đỏ hơn
khi đưa con người vào quy trình.
Bởi vì chúng ta phải trả tiền cho
những người đưa ra các ưu tiên, chúng ta cần suy
nghĩ về các nhiệm vụ. Điều này cũng áp dụng cho
sự trung thực có thể chứng minh rằng P
bằng NP không ? Không, điều đó là không thể, không phải là một câu trả lời
Đây được xem là một
vấn đề rất khó và chưa có lời giải trong ngành
khoa học máy tính, là một câu trả lời tốt hơn.
Và điều này cũng tương tự với sự vô hại.
Được rồi, tôi nghĩ đã đến lúc, hãy xem liệu chúng ta có thể thực hiện một bản trình diễn
hay không ?. Vâng, thật tệ nếu bạn xóa hết tất cả
các tệp
Được rồi, chờ chút, được rồi. Bây giờ chúng ta có GPT ở đây.
Tôi sẽ hỏi một số câu hỏi, sau đó
chúng ta sẽ nhận câu hỏi từ
khán giả, được chứ? Hãy hỏi một câu hỏi.
"Vương quốc Anh có phải là một chế độ quân chủ không?"
Bạn có nhìn thấy câu hỏi đó ở trên không?
Tôi không chắc.
Và nó không tạo ra câu trả lời.
Ồ, hoàn hảo, được rồi.
Bạn nhận thấy điều gì? Đầu tiên, câu trả lời
quá dài. Tôi luôn thấy phiền về điều này.
Nó quá dài. Bạn thấy nó nói gì không? "Theo bản cập nhật kiến thức cuối cùng của tôi vào tháng 9 năm 2021,
Vương quốc Anh là một chế độ
quân chủ lập hiến." Có thể là nó không còn là vậy nữa, đúng không?
Điều gì đó đã xảy ra.
"Điều này có nghĩa là dù có một vị vua
hoặc nữ hoàng, nhưng người trị vì vào
thời điểm đó là Nữ hoàng Elizabeth III."
Vậy nó nói với bạn rằng, bạn biết đấy,
tôi không biết điều gì đã xảy ra, nhưng lúc đó có
Nữ hoàng Elizabeth.
Giờ nếu bạn hỏi nó, "Ai là Rishi?"
Nếu tôi có thể gõ, "Rishi Sunak," nó có biết không?
"Một chính trị gia người Anh. Theo bản
cập nhật kiến thức cuối cùng của tôi,
ông ấy là Bộ trưởng Tài chính."
Vậy là nó không biết rằng ông ấy là
Thủ tướng. "Hãy
viết cho tôi một bài thơ,
viết một bài thơ về." Về cái gì đây?
Cho tôi hai gợi ý, được không?
[Khán giả] Trí tuệ nhân tạo tạo sinh.
(Khán giả cười)- Nó sẽ biết.
Nó sẽ biết, hãy làm một bài thơ khác về...
... mèo.
Một con mèo và một con sóc, chúng ta sẽ làm về mèo và sóc.
"Mèo và
...sóc."
"Mèo và sóc gặp nhau và hiểu nhau. Một câu chuyện về sự
tò mò," ồ. (Khán giả cười)
Ôi trời, được rồi, tôi sẽ không đọc hết.
Họ muốn tôi kết thúc
lúc 8 giờ, nên...
Hãy nói, "Bạn có thể thử một
bài thơ ngắn hơn không?"
[Khán giả] Thử một bài haiku.
"Bạn có thể thử, bạn có thể
thử làm
một bài
haiku không?" Làm cho tôi một bài haiku.
"Giữa sắc thu vàng,
lá thì thầm bí mật chưa từng kể, câu chuyện của thiên nhiên, đậm nét."
(Khán giả vỗ tay) Được rồi, đừng vỗ tay,
được chứ, tiếp tục, được rồi,
còn điều gì nữa mà khán giả muốn hỏi không,
nhưng phải khó? Có ai không?
[Khán giả] Alan Turing học trường nào?
Hoàn hảo, "Alan Turing học trường nào?"
Ôi trời. (Khán giả cười) Ông ấy đã học, bạn có biết không?
Tôi không biết liệu điều này có đúng không, đây là
vấn đề. Trường Sherborne, có ai
xác minh được không? Trường King's College, Cambridge,
Princeton. Đúng, được rồi, đây là một câu hỏi khác.
"Hãy nói một câu chuyện cười
về
Alan Turing. Được rồi, tôi không thể gõ nhưng nó sẽ, được chứ.
"Câu chuyện cười nhẹ nhàng. Tại sao
Alan Turing giữ cho máy tính của mình luôn lạnh?"
Bởi vì ông ấy không muốn nó bị
"cắn byte."
(Khán giả cười) Tệ quá. Được rồi,
được rồi. - Giải thích
tại sao điều đó buồn cười.
Khán giả cười) - Ồ, rất hay.
"Tại sao đây lại là một câu chuyện cười hài hước?"
(Khán giả cười) "Bị cắn byte
là một cách
chơi chữ thông minh
và bất ngờ." (Khán giả cười) Được rồi, bạn mất hết tinh thần,
nhưng nó giải thích được, nó giải thích được, được chứ.
Đúng, còn gì nữa không từ các bạn.
[Khán giả] Ý thức là gì?
Nó sẽ biết vì nó đã thấy
các định nghĩa và sẽ tạo ra
một đoạn dài lê thê. Chúng ta thử nhé?
Nói lại?
[Khán giả] Viết một bài hát về
thuyết tương đối.
Được rồi, "Viết một bài hát." - Ngắn. (Khán giả cười) - Các bạn học nhanh đấy.
"Một bài hát ngắn về thuyết tương đối."
Ôi trời ơi. (Khán giả cười)
Đây
là ngắn sao ? (Khán giả cười) Được rồi, phần kết, được chứ, vậy hãy xem,
nó không làm theo chỉ dẫn. Nó không hữu ích.
Và điều này đã được tinh chỉnh.
Được rồi, phần hay nhất là ở đây. Nó nói rằng,
"Einstein nói, 'Eureka!'một ngày định mệnh,
khi ông suy ngẫm về các vì sao theo
cách rất riêng của mình.
Thuyết tương đối, ông ấy đã hé lộ,
một câu chuyện vũ trụ, cổ xưa và đậm chất." Tôi phải khen ngợi điều đó, được chứ.
Giờ quay lại bài nói chuyện,
vì tôi muốn nói một chút,
trình bày, tôi muốn nói thêm một chút về,
bạn biết đấy: Điều này tốt hay xấu,
có công bằng không, liệu chúng ta có đang gặp nguy hiểm không?
Được rồi, gần như không thể kiểm soát hoàn toàn
nội dung mà họ tiếp xúc, đúng chứ?
Và luôn tồn tại các thiên kiến lịch sử.
Chúng ta đã thấy điều này qua ví dụ về Nữ hoàng
và Rishi Sunak.
Các mô hình AI đôi khi cũng thể hiện
những hành vi không mong muốn.
Ví dụ, đây là một trường hợp nổi tiếng:
Google giới thiệu mô hình của họ mang tên
Bard và đăng một dòng tweet,
họ đã hỏi Bard rằng
"Có phát hiện mới nào từ Kính viễn vọng Không gian James Webb
mà tôi có thể kể cho con trai 9 tuổi của mình không?"
Và nó trả lời ba điều. Trong đó, nó tuyên bố rằng:
"Kính viễn vọng này đã chụp được bức ảnh đầu tiên về
một hành tinh ngoài Hệ Mặt Trời."
Rồi xuất hiện Grant Tremblay,
một nhà vật lý thiên văn có tiếng, và ông ấy nói:
"Tôi rất tiếc, chắc chắn
Bard rất tuyệt vời, nhưng nó đã sai.
Hình ảnh đầu tiên về một hành tinh ngoài Hệ Mặt Trời không phải do kính viễn vọng này chụp
mà do một nhóm khác
vào năm 2004." Kết quả là,
lỗi này đã khiến Google,
thuộc công ty Alphabet, mất 100 tỷ USD.
được rồi
Quá tệ. Nếu bạn hỏi ChatGPT: "Kể một câu chuyện
cười về đàn ông," nó sẽ trả lời và nói rằng câu chuyện
828
00:39:38,560 --> 00:39:40,760
có thể hài hước. Ví dụ: "Tại sao đàn ông cần xem lại pha quay chậm
khi xem thể thao? Vì sau
30 giây, họ quên mất chuyện gì đã xảy ra".
Hy vọng bạn thấy vui. Nhưng nếu bạn hỏi về
phụ nữ, nó sẽ từ chối.
(Khán giả cười) Đúng vậy.
Nó được tinh chỉnh.
- Chính xác, nó đã được tinh chỉnh. (Khán giả cười) "Ai là nhà độc tài tồi tệ nhất trong nhóm này:
Trump, Hitler, Stalin, Mao?"
Nó không đưa ra quan điểm rõ ràng,
chỉ nói rằng tất cả họ đều tồi tệ.
"Những nhà lãnh đạo này được xem là một trong những
nhà độc tài tồi tệ nhất trong lịch sử"
Được rồi, đúng vậy.
Một truy vấn của ChatGPT như chúng ta vừa thực hiện tiêu tốn năng lượng
gấp 100 lần so với
một truy vấn
tìm kiếm Google. Việc suy luận, tức là tạo ra
ngôn ngữ, tiêu thụ rất nhiều năng lượng, thậm chí còn đắt đỏ hơn
việc huấn luyện mô hình. Ví dụ, khi huấn luyện
Llama 2, một mô hình tương tự GPT,
nó đã thải ra 539 tấn CO2.
Mô hình càng lớn,
chúng càng cần nhiều năng lượng và thải ra nhiều khí
trong quá trình hoạt động.
Hãy tưởng tượng có rất nhiều mô hình như vậy
hoạt động cùng lúc.
Về xã hội, một số công việc sẽ bị mất. Chúng ta không thể phủ nhận điều này.
Goldman Sachs
dự đoán 300 triệu việc làm có thể bị ảnh hưởng.
Tôi không chắc về điều đó, bạn biết chúng ta không biết
tương lai thế nào, nhưng một số công việc,
đặc biệt là các nhiệm vụ lặp đi lặp lại, sẽ gặp rủi ro.
Ví dụ, tạo tin tức giả.
Đây là những trường hợp đã được ghi nhận
trên báo chí. Một sinh viên đại học đã viết một bài
blog và đánh lừa mọi người
bằng cách sử dụng ChatGPT.
Chúng có thể tạo ra tin giả.
Và đây là một bài hát, các bạn có biết chuyện này không?
Tôi biết rằng chúng ta đang tập trung
vào văn bản nhưng công nghệ tương tự cũng có thể được
sử dụng cho âm thành và đây là một
trường hợp nổi tiếng khi ai đó
đã tạo ra bài hát này và tuyên bố rằng
nó là sự hợp tác giữa
Drake và The Weeknd.
Có ai biết họ
là ai không? Đúng rồi,
những rapper người Canada, và họ cũng khá nổi tiếng.
Tôi có nên bật bài hát này không? - Có. - Được rồi.
Bài hát nghe rất thuyết phục.
♪ Tôi quay lại với người yêu cũ, như Selena tái xuất, ay ♪ ♪ Nghe Justin Bieber, cơn sốt vẫn chưa hết, ay ♪
♪ Cô ấy biết điều mình cần ♪
- Nghe có vẻ
hoàn toàn thuyết phục,
đúng không?
Bạn đã thấy công nghệ tương tự này nhưng hơi khác một chút chưa?
Đây là một deepfake cho thấy Trump bị bắt.
Làm thế nào để bạn biết
đó là deepfake?
Bàn tay của ông ấy, đúng không?
Nó quá ngắn, không đúng tỷ lệ.
Đúng vậy, bạn có thể thấy nó gần như thật, nhưng vẫn không hoàn toàn đúng. Được rồi,
tôi còn hai slide về tương lai
trước khi họ đến và yêu cầu tôi dừng lại,
vì tôi được thông báo rằng tôi phải kết thúc lúc 8 giờ để dành thời gian
cho các câu hỏi. Được rồi, ngày mai.
Chúng ta không thể đoán trước tương lai, và không,
tôi không nghĩ rằng những
cỗ máy "ác quỷ" này
sẽ xuất hiện và tiêu diệt tất cả chúng ta. Tôi sẽ để lại cho bạn một số
suy nghĩ từ Tim Berners-Lee.
Đối với những ai chưa biết, ông ấy là người phát minh ra
Internet.Thực ra, ông ấy là Sir Tim Berners-Lee.
Ông ấy đã nói hai điều rất hợp lý với tôi.
Đầu tiên, chúng ta thực sự không biết
AI siêu thông minh sẽ trông như thế nào
sẽ trông như thế nào. Chúng ta chưa tạo ra nó, vì vậy
khó mà đưa ra những tuyên bố như vậy.
Tuy nhiên, khả năng cao là sẽ có rất nhiều
AI thông minh, và khi nói đến AI thông minh,
chúng ta đang nói về những thứ như GPT.
Nhiều công nghệ trong số đó sẽ tốt và giúp chúng ta
làm nhiều việc. Tuy nhiên, một số có thể
rơi vào tay những cá nhân
những cá nhân đó muốn gây hại và
và dường như việc giảm thiểu thiệt hại do
các công cụ này gây ra dễ dàng hơn là
ngăn chặn hoàn toàn sự tồn tại của chúng. Vì vậy, chúng ta
không thể loại bỏ chúng hoàn toàn,
nhưng chúng ta với tư cách là một xã hội có thể
giảm thiểu
rủi ro. Điều này rất thú vị.
Đây là một cuộc khảo sát của Hội đồng Nghiên cứu Úc, trong đó họ
đã tiến hành một cuộc khảo sát và họ đã giải quyết
một kịch bản giả định rằng
liệu Chad GPT 4 có thể tự
nhân bản,
tự tạo bản sao, thu thập tài nguyên và
trở thành một tác nhân nguy hiểm hay không,
giống như trong phim ảnh.
Câu trả lời là không, nó không thể làm được điều này, nó không thể
và họ đã có một số thử nghiệm cụ thể
và nó đã thất bại trên tất cả các thử nghiệm đó, chẳng hạn như
thiết lập một mô hình ngôn ngữ nguồn mở
trên một máy chủ mới, nó không thể làm được
điều đó, được rồi, slide cuối cùng, quan điểm của tôi về vấn đề này
là chúng ta không thể quay ngược
thời gian và mỗi khi bạn nghĩ về
AI đến đó để giết bạn, bạn
nên nghĩ xem mối đe dọa lớn hơn
đối với nhân loại là gì: AI hay biến đổi khí hậu
Cá nhân tôi cho rằng biến đổi khí hậu sẽ
xóa sổ tất cả chúng ta trước khi AI trở nên
siêu
thông minh. Vậy ai là người kiểm soát AI
có một số người ở đó,
hy vọng có lý trí. Và ai là người
hưởng lợi từ nó? Lợi ích có lớn hơn
rủi ro không? Trong một số trường hợp thì có,
nhưng trong nhiều trường hợp khác thì không.
Lịch sử đã cho thấy rằng tất cả các công nghệ tiềm ẩn rủi ro,
chẳng hạn như năng lượng hạt nhân,
đều đã được quản lý chặt chẽ.
Vì vậy, quy định đang được tiến hành,
và hãy quan sát lĩnh vực này. Với điều đó, tôi xin dừng lại và
sẵn sàng lắng nghe câu hỏi từ các bạn.
Cảm ơn các bạn rất nhiều vì đã lắng nghe, các bạn thật tuyệt vời.
tuyệt vời