ChatGPT
- đột phá mới của cuộc cách mạng trí tuệ nhân tạo
Nguyễn Tiến Dũng
24/02/2023 00:30
https://www.diendan.org/khoa-hoc-ky-thuat/chatgpt-dot-pha-moi-cua-cuoc-cach-mang-tri-tue-nhan-tao
Bạn hãy thử hình dung luôn có bên mình một trợ
lý siêu việt, đọc thông viết thạo hàng trăm thứ tiếng, chỉ dẫn và làm phiên dịch
cho bạn ở mọi chỗ mọi nơi, sàng lọc tin tức quan trọng cho bạn, đọc thư và soạn
thảo mọi văn bản giúp bạn, nhắc việc và gợi ý cho bạn, dạy bạn đủ thứ, hỏi gì
trả lời đó một cách chính xác và hóm hỉnh, bằng một giọng mà bạn ưa thích nhất,
động viên bạn hàng ngày, v.v.
Một trợ lý như vậy, nếu bằng da bằng thịt thì chắc không thể có, nhưng nếu là
trợ lý nhân tạo thì đó không còn là một chuyện viễn tưởng xa xôi nữa, mà là một
thực tế đang hình thành trước mắt chúng ta, ngay trong thập kỷ này, nhờ vào cuộc
cách mạng trí tuệ nhân tạo.
Nếu như chỉ cách đây ít lâu, bạn và tôi còn không nghĩ tới hay còn rất hoài
nghi về chuyện này, thì sự xuất hiện của ChatGPT và các phần mềm trí tuệ nhân tạo
tương tự đã tạo nên cú sốc, xóa bỏ đi sự hoài nghi đó.
ChatGPT là gì?
Đó là một phần mềm trợ lý ảo “hỏi gì trả lời
đó” do công ty Open AI công bố vào cuối năm 2022 (xem https://chat.openai.com/
hoặc có thể tải ứng dụng cho điện thoại), và đang gây một làn sóng lớn
trên thế giới, báo chí hàng ngày tốn không biết bao nhiêu giấy mực để viết về
nó. Chỉ sau hai tháng kể từ khi công bố, ChatGPT đã cán mốc 100 triệu người
dùng, là một kỷ lục từ trước đến nay cho các dịch vụ phần mềm.
Nguyên tắc sử dụng ChatGPT rất đơn giản: sau
khi đăng nhập, bạn có thể viết bất cứ một câu hỏi hay bình luận gì, bằng tiếng
Việt hay tiếng Anh hay bất kỳ thứ tiếng thông dụng nào khác, ChatGPT sẽ đưa ra
câu trả lời bằng thứ tiếng mà bạn sử dụng.
Trong rất nhiều trường hợp, câu trả lời do
ChatGPT đưa ra khá là hợp lý, có ích. Có ích đến mức mà các lập trình viên khi
cần viết một đoạn code nhỏ nào đó cũng có thể hỏi GPT viết hộ, các bác sĩ cũng
nhờ ChatGPT viết giải thích về các căn bệnh, v.v. Thậm chí đã có nhiều sinh
viên gian lận trong thi cử bằng cách dùng ChatGPT để làm những bài luận mà đáng
nhẽ họ phải tự làm, dẫn đến việc các trường đại học phải thiết lập các biện
pháp phát hiện chuyện này. Sẽ không ngạc nhiên lắm nếu như sẽ có cả những luận
án tiến sĩ được viết bằng ChatGPT hoặc những trợ lý ảo tương tự!
Tuy nhiên, bạn phải rất thận trọng khi dùng ChatGPT
và những trợ lý ảo tương tự, bởi chúng có thể bịa đặt, đưa ra những câu trả lời
“tưởng như đúng rồi” nhưng thực ra là nói nhảm. Ví dụ, khi được hỏi “hãy cho
danh sách các bài báo khoa học của tác giả xyz”, ChatGPT liền đưa ra những tên
bài báo … hoàn toàn bịa đặt. Đó là bởi vì, thực ra ChatGPT không hề có tên các
bài báo đó trong trí nhớ của nó, nó chỉ từng được xem các tên bài báo đó trong
quá trình huấn luyện, và nhớ không phải là đầy đủ các tên mà chỉ là các cụm từ,
rồi lấy “râu ông nọ cắm cằm bà kia”, xáo trộn các cụm từ đó vào với nhau thành
các tên bịa mà trông qua cử tưởng như thật!
Một ví dụ khác, khi được hỏi về một chỉ số đo
độ nặng của một loại bệnh da, ChatGPT trả lời là người ta tính nó bằng cách đo
độ nặng của bệnh trên 4 phần của cơ thể là đầu, thân, chân tay, và móng, rồi cộng
lại với nhau. Đây là câu trả lời bịa (nhưng những ai không biết thì sẽ có thể
tin là thật), vì chuyện đo trên 4 phần khác nhau là có thật, nhưng 4 phần đó là
đầu, thân, chi trên (tay) và chi dưới (chân) chứ không có móng. Trợ ý ảo đã vơ
cả móng vào trong công thức, có lẽ bởi nó đã được nhai đi nhai lại nhiều lần rằng
móng cũng có liên quan đến bệnh da này.
Theo đánh giá của
Microsoft, công ty đầu tư hàng tỷ đô la vào Open AI, thì tỷ lệ trả lời có nghĩa
của ChatGPT hiện mới đạt khoảng 70%. Ông Jean-Noel Barrot, bộ
trưởng về truyền thông và chuyển đổi số ở Pháp, không phải vô cớ khi nói rằng
ChatGPT “chẳng qua là một con vẹt”. Tuy nhiên, những “con vẹt” này cũng rất
đáng gờm, bởi chúng có khả năng học rất nhanh những cấu trúc và thông tin mới,
càng ngày càng tinh tế và thông minh lên. Từ GPT-2 (thế hệ 2 của ChatGPT xuất
hiện năm 2019) cho đến GPT-3 (thế hệ hiện tại của ChatGPT) đã là một bước tiến
rất lớn, các câu trả lời có nghĩa lên rất nhiều, và sắp tới GPT-4 ra đời sẽ còn
giỏi hơn nhiều lần nữa.
Một chút lịch sử
Có thể coi lịch sử của trợ lý ảo bắt đầu từ những
năm 1960, khi giáo sư
Weizenbaum ở đại học MIT nghĩ ra một chatbot (phần mềm đối
thoại người với máy), đặt tên là ELIZA. Thuật toán ELIZA chỉ biết làm một số động
tác đơn giản, ví dụ như lặp lại mấy từ mà người dùng đưa vào, thêm vào đó mấy cấu
trúc câu mà nó có sẵn trong bộ nhớ, còn tất nhiên là không hiểu gì về nội dung.
Thế đã đủ tạo ra những “cuộc nói chuyện rất riêng tư” giữa ELIZA và cô thư ký của
Weizenbaum.
Từ đó đến nay, cuộc cách mạng về học máy
(machine learning), đi kèm với cuộc cách mạng về hiệu suất tính toán, đặc biệt
là trong lĩnh vực xử lý ngôn ngữ tự nhiên, đã làm thay đổi hoàn toàn bộ mặt của
các trợ lý ảo.
Một bước tiến quan trọng trong việc xử lý ngôn
ngữ tự nhiên (natural language processing) bằng trí tuệ nhân tạo là phương pháp
Word2vec xuất hiện vào năm 2013 cho phép chuyển các từ ngữ thành các vec-tơ
(các bộ số có độ dài cho trước, hay có thể hiểu như là các điểm trong không
gian Euclid nhiều chiều). Bởi vì máy tính làm việc với các bộ số thì tiện hơn
nhiều so với làm với với các từ ngữ. Hơn nữa, vị trí tương đối giữa các vec-tơ
với nhau phản ánh quan hệ giữa các từ tương ứng với nhau, ví dụ như (đàn ông) -
(đàn bà)
cho ra vec-tơ tương tự như (hoàng tử) - (công chúa), nên khi tính toán với các
vec-tơ ta nhận được luôn quan hệ giữa các từ trong câu.
Từ trước đó, vào thập kỷ 1980 đã xuất hiện một
loại mạng thần kinh nhân tạo gọi là RNN (recurrent neural netwoork = mạng thần kinh có lặp?) có thể học xử lý ngôn ngữ tự nhiên, do nhà khoa học Hopfield và nhà tâm lý học Rumelhart ở Mỹ đề xuất. Ta hình
dung một văn bản hay một đoạn âm thanh như một chuỗi thời gian trong đó các từ
mới (âm thanh mới) xuất hiện dần dần. Mạng RNN sẽ xử lý lần lượt (kiểu “lặp đi
lặp lại”) từng từ (từng âm thanh) một khi nó xuất hiện, và có giữ một chút trí
nhớ về những từ vừa xử lý trước đó.
Vào năm 1997, hai giáo sư người Đức tên là Hochreiter
và Schmidhuber đưa ra một cải tiến quan
trọng của RNN, gọi là LSTM (long short-term
memory = trí nhớ ngắn hạn kéo dài?), không những chỉ
nhớ một cụm từ phía trước mà còn nhớ được “dư âm” của những từ xuất hiện từ trước
đó lâu hơn trong văn bản. Phương pháp Word2vec kết hợp với LSTM đã cho ra những
công cụ xử lý ngôn ngữ tự nhiên (chatbot, máy dịch tự động văn bản, v.v.) tốt
nhất trong thập kỷ 2010.
Transformer cho trợ lý ảo
Vào năm 2017, các nhà nghiên cứu ở Google và ở
đại học Toronto công bố một cấu trúc mạng thần kinh nhân tạo mới, gọi là Transformer (cấu
trúc biến đổi?). (Xem bài báo: https://arxiv.org/pdf/1706.03762.pdf) Nói
chung tất cả các công nghệ xử lý ngôn ngữ tự nhiên thế hệ mới, từ BERT rồi BARD
của Google cho đến GPT của Open AI (công nghệ nền tảng của ChatGPT) cho đến
BART của Facebook v.v. đều dựa trên cấu trúc Transformer này.
Bản thân GPT trong
ChatGPT là viết tắt của cụm từ Generative Pretrained Transformer. (Generative
có nghĩa là có chức năng sinh sôi sáng tạo, còn Pretrained có nghĩa là nó đã được
học trên một tập dữ liệu khổng lồ để ghi nhớ được nhiều khái niệm hay cấu trúc
quan trọng trước khi huấn luyện sâu thêm cho lĩnh vực cụ thể nào đó).
Cấu trúc Transformer khác biệt RNN và LSTM ở những
điểm nào mà “gây bão” đến vậy?
Có thể kể ra hai điểm khác biệt chính như sau:
Điểm thứ nhất liên quan đến một nhược điểm rất
lớn của RNN và LSTM, đó là chúng xử lý các văn bản một cách lần lượt
(sequential) từng từ một, và quá trình học của nó cũng theo kiểu lần lượt như vậy.
Nhưng ngày nay không cần phải là chuyên gia tin học cũng có thể biết rằng muốn
xử lý nhanh thì phải theo kiểu song song (parallel, rất nhiều thứ cùng một lúc)
chứ không lần lượt. Các bộ vi xử lý hình ảnh hiện đại trong máy tính hay điện
thoại đều là xử lý song song. Transformer đã biến đổi thông tin ngôn ngữ tự
nhiên thành dạng có thể xứ lý song song thay vì lần lượt, và điều này khiến nó
học được rất nhanh rất nhiều hơn so với các công nghệ trước.
Điểm thứ hai là Transformer tính toán các hệ số attention và self-attention
(tính xem từ nào thì quan trọng hơn đối với từ nào trong ngữ cảnh của đoạn
văn), điều mà RNN/LSTM không làm. Các hệ số attention đó cho phép mô tả chính
xác hơn cấu trúc ngữ pháp, quan hệ giữa các từ, và do đó “hiểu” chính xác hơn,
dịch chính xác hơn.
Với những điểm mới này, các trợ lý ảo dựa trên
Transformer không những học được cách trả lời cho đúng, mà còn dễ học được cả
cách cá nhân hóa (personalization), có thể đóng vai người làm nghề này hay nghề
khác (bác sĩ nói năng một kiểu, nghệ sĩ nói năng kiểu khác), và đóng vai trạng
thái cảm xúc này hay cảm xúc khác (AI cũng biết giả vờ vui, buồn, giân dỗi,
vv), vv
Tuy mới đầu được thiết lập để xử lý ngôn ngữ tự nhiên, nhưng ý tưởng
Transformer, đặc biệt là ý tưởng về attention, cũng được dùng để xử lý ảnh và
các loại thông tin, tín hiệu khác một cách hiệu quả.
Có thể xem một danh sách khá đầy đủ các phần mềm
AI sử dụng transformer ở đây: https://huggingface.co/docs/transformers/index)
Cuộc chạy đua AI mới
Theo giáo sư Oder Netzer
phó trưởng khoa ở Columbia Bisuness School, thì “thế giới không còn như trước nữa”
sau khi ChatGPT xuất hiện. Rất nhiều doanh nghiệp
và ngành nghề “tụt hậu về trí tuệ nhân tạo” bị đe sọa xóa sổ trong tương lai gần,
và ngược lại rất nhiều cơ hội làm giàu mới xuất hiện, với tổng giá trị lên tới
hàng nghìn tỷ đô la. Ngay cả những “gã khổng lồ” như Google cũng cảm thấy mối
đe dọa chiếm lĩnh thị trường tra cứu thông tin (search engine) từ ChatGPT, đến
mức phải cấp bách thay đổi chiến lược, tập trung đầu tư vào những giải pháp cạnh
tranh.
Công ty Open AI, tác giả
của ChatAI, là một công ty mới được thành lập từ năm 2015, nhưng được đầu tư cả
tỷ đô la ngày từ đầu, và có Elon Musk (tỷ phú công nghệ giàu nhất nhì thế giới)
trong danh sách các nhà sáng lập. Chính Musk là người đặt
tên Open (có nghĩa là “mở”) cho công ty này, và mục đích ban đầu của công ty là
tạo ra các phần mềm AI mã nguồn mở phục vụ cả nhân loại. Ngoài ChatGPT, Open AI
còn có các dự án AI rất nổi tiếng khác, ví dụ như DALL-E-2 cho phép sáng tác
các bức tranh ứng với các câu văn mà người dùng đưa vào. Tuy nhiên, chính theo lời của Musk, Microsoft
đang càng ngày càng thâu tóm Open AI để phục vụ cho việc thống lĩnh thị trường
và làm tiền của họ, xa rời ý tưởng “phần mềm mở” ban đầu.
Về cơ bản, ý tưởng thuật toán của GPT và những phần mềm xử lý ngôn ngữ tự nhiên
tượng tự không khó, ai cũng có thể copy về máy của mình, xào xáo một chút, cho
nó học trên bộ dữ liệu của mình, để tạo ra một trợ lý ảo chuyên về lĩnh vực nào
đó hoặc là trợ lý ảo vạn năng. Cái khó ở đây là làm sao đạt được quy mô lớn và
hiệu quả cao. Các mô hình mạng thần kinh nhân tạo xử lý ngôn ngữ tự nhiên quy
mô lớn (LLM - large language model) hiện tại có đến hàng trăm tỷ biến số
(learnable parameters), và những mô hình sắp tới của các “đại gia” AI sẽ có đến
hàng nghìn tỷ biến số. Để so sánh, các mô hình AI xử lý ảnh thông dụng hiện tại
có lượng biến số chưa bằng 1/1000 như vậy.
Ước tính hiện tại cần đầu tư ít nhất 50 triệu
đô la tiền máy tính mới đủ sức tính toán cho việc học máy để tạo ra phần mềm
như ChatGPT. Tuy nhiên, con số 50 triệu đô la đó không phải là rào cản đối với
các công ty lớn và các quốc gia, và sẽ có sẽ có rất nhiều công ty và quốc gia
tham dự cuộc chạy đua trợ lý ảo AI. Bởi vì ai kiểm soát thông tin, người đó nắm
quyền lực. Nếu một quốc gia nào đó không kiểm soát được trợ lý ảo nào, thì thậm
chí lịch sử của quốc gia đó có thể bị kẻ khác viết lại thông qua các trợ lý ảo
của họ được thế giới dùng.
Nguyễn Tiến Dũng
02/2023
Nguồn. Bài
đã đăng trên Tia Sáng số 4, ra ngày 20.02.2023 với tiêu đề "ChatGPT hay
mặt trái tấm huy chương". Trên đây là bản gốc tác giả gửi Diễn Đàn.
No comments:
Post a Comment