Cơn sốt ChatGPT: Con người sẽ bị “cướp” mất việc
trong kỷ nguyên AI?
Mạnh Kim -
Saigon Nhỏ
8 tháng 2, 2023
https://saigonnhonews.com/doi-song/con-sot-chatgpt-con-nguoi-se-bi-cuop-mat-viec-trong-ky-nguyen-ai/
ChatGPT đang làm mưa làm
gió thế giới với khả năng tạo ra những cuộc đàm thoại “như thật”. Được hỗ trợ bởi
Open AI – công ty nghiên cứu trí tuệ nhân tạo ở San Francisco, California –
chatbot ChatGPT đã và tiếp tục làm nhốn nháo thế giới khi nó có thể viết các
bài luận cấp đại học, gỡ lỗi mã thành công và thậm chí vượt qua những bài thi
phức tạp. ChatGPT hoạt động như thế nào và người ta có cần phải thực sự lo lắng
rằng công việc mình đang làm có thể sẽ biến mất chỉ sau một đêm?
Sameer Singh, phó giáo sư khoa học máy tính tại
Đại học California Irvine, mới đây đã giải tỏa phần nào điều này khi trả lời
chuyên san khoa học Popular Mechanics. Sameer Singh là chuyên
gia làm việc với thuật toán máy học cũng như nhiều mô hình phân tích văn bản có
khả năng bắt chước những đặc điểm riêng trong cách viết của con người theo cách
mà ChatGPT đang làm.
ChatGPT (Generative Pre-Training Transformer)
là một kỹ thuật cài đặt (plugin) với việc khai thác mạng thần kinh nhân tạo
(neural network) vốn được đào tạo để phản hồi những câu hỏi do người dùng cung
cấp. Về lý thuyết, ChatGPT có thể trả lời tất cả mọi câu hỏi trên đời, từ đơn
giản như “Tổng thống Mỹ là ai” đến phức tạp chẳng hạn “Ý nghĩa cuộc sống là
gì?”. Tuy nhiên, “phản ứng” của ChatGPT cho đến thời điểm này chỉ là dựa vào những
thông tin có sẵn. Nó chỉ tổng hợp lại và chọn ra cách trả lời gần nhất với nội
dung câu hỏi. Chỉ cần chat với nó chừng 10 phút, người ta sẽ thấy nó còn lâu mới
có thể thay thế được con người. Nó không thể thay thế nhà biên kịch điện ảnh. Nó
không thể thay thế bác sĩ. Nó không thể thay thế nhà báo…
Ở thời
điểm hiện tại, có một điều rõ ràng rằng ChatGPT vẫn không thể kiểm tra đối chiếu
dữ liệu có thực (fact-check) từ bất kỳ phản hồi nào (response) của nó. Những gì
ChatGPT hồi đáp nghe có vẻ đúng, nhưng mô hình ngôn ngữ cơ bản của nó chỉ đơn
thuần là đoán những từ nào để tạo cảm giác “nghe đúng” chứ không thực sự tìm ra
câu trả lời chính xác cho vấn đề mà người dùng đặt ra cho nó.
ChatGPT sử dụng mạng thần kinh để hiểu văn bản,
sau đó sử dụng kiến thức đó để viết hồi đáp theo cách sao cho có thể mạch lạc
và dễ hiểu bằng cách dùng thứ ngôn ngữ biểu đạt đơn giản nhất có thể. Mặc dù điều
đó nghe có vẻ phức tạp, nhưng nó thực sự chỉ là vấn đề mã hóa và giải mã thông
tin (encoding and decoding).
Mạng “thần kinh” là các thuật toán được đào tạo
để tái tạo cách thức mà các neuron trong não người giao tiếp với nhau. Bộ não của
chúng ta xây dựng dữ liệu dựa trên những kinh nghiệm trong quá khứ để tìm ra
cách mà thế giới của chúng ta vận hành; ChatGPT được đào tạo bằng cách sử dụng
các tương tác thực của con người để giúp chatbot dự đoán kết quả và tìm các mẫu
(patterns) trong ngôn ngữ để lắp ghép lại sao cho trơn tru và hợp lý.
.
Cách vận hành của ChatGPT có thể tóm gọn như sau:
Đầu tiên, đó là một quá trình liên quan đến việc
phân tích càng nhiều văn bản có sẵn càng tốt, mà về cơ bản, mọi thứ trên đời
này đều có thể tìm thấy trên mạng. Sameer Singh cho biết: “Nó lấy một chuỗi các
từ, ẩn từ tiếp theo là gì và cố gắng đoán. Nếu nó sai thì nó sẽ tự cập nhật để
đoán đúng.” Để xây dựng câu đúng, mô hình ngôn ngữ sẽ sử dụng mô hình phần thưởng
(reward model) để chứng minh đúng-sai.
Một bài đăng trên blog Open AI gần đây đã cho
thấy cách mà chatbot “học” và “làm việc”: nó được tạo ra bằng cách sử dụng những
huấn luyện viên (trainer) người thật chuyên về thuật toán AI tương tác trực tiếp
với mô hình ngôn ngữ. Câu trả lời của họ cho một câu hỏi cụ thể sau đó được tổng
hợp và so sánh với câu trả lời do AI tạo ra; và sau khi một số phản hồi AI khác
được lấy mẫu, sẽ có nhiều huấn luyện viên người thật hơn tham gia để xếp hạng
(rank) chúng dựa trên tính chính xác. Dữ liệu này cho phép ChatGPT tinh chỉnh
mô hình ngôn ngữ của nó thông qua Tối ưu hóa chính sách gần nhất (Proximal
Policy Optimization) – một hình thức học
tăng cường của học máy (machine learning).
Và mặc dù ChatGPT có thể thực hiện những bước
đầu tiên nhưng nó vẫn chưa thể tự đi. Một rào cản lớn là internet không hoàn hảo.
Nó vẫn cần trợ giúp để phân biệt dữ liệu thực (fact) với thông tin sai lệch
(misinformation). Đó là lý do mà bước thứ hai của quy trình xuất hiện.
Ai trong chúng ta cũng biết rằng việc đánh giá
nhiều thông tin trên internet theo giá trị bề mặt (face value) chưa bao giờ là
một điều đúng đắn; do đó, cần phải thực hiện một số điều chỉnh tinh vi hơn để
hướng mô hình ngôn ngữ đi đúng hướng. Sameer Singh giải thích:
“AI có thể sẽ tìm thấy rất nhiều tài liệu khẳng
định Barrack Obama sinh ra ở Kenya chứ không phải ở Hawaii. Tuy nhiên, điều
quan trọng cần lưu ý là những tài liệu này sẽ chỉ được sử dụng để đào tạo
ChatGPT. Nếu tôi yêu cầu nó viết cho tôi một bài báo về Barrack Obama, phản hồi
của nó sẽ không được lấy trực tiếp từ một bài báo trực tuyến. (Nói cách khác),
khi bạn hỏi nó một câu hỏi, nó không thực sự tìm câu trả lời. Nó chỉ cố đoán
xem câu trả lời đúng là gì”.
Trái ngược với nhiều ý kiến lo lắng, trí tuệ
nhân tạo vẫn chưa hoàn hảo. Sameer Singh cho rằng, thông tin không ngừng phát
triển và ChatGPT sẽ vô cùng khó để có thể theo kịp. Riêng với ChatGPT, dù sự xuất
hiện của nó cực kỳ ấn tượng nhưng thực ra kiến thức của nó chỉ giới hạn ở dữ liệu
năm 2021. Điều đó có nghĩa hiện tại ChatGPT mù tịt về những chuyện sau năm
2021.
Một vấn đề lớn khác là ChatGPT không biết gì về
người dùng. Singh nói: “Những mô hình này (như ChatGPT) rất hữu ích trong việc
có thể hiểu những gì tôi đang nói và có thể làm việc với nó, nhưng chúng không
biết bất cứ điều gì khác về tôi một cách cụ thể. Nó giống như nói chuyện với một
người lạ, hơn là nói chuyện với một người thực sự có thể giúp bạn.”
Khi trình bày vấn đề với một chuyên gia thực
thụ hay tâm sự với một bạn thân, bạn sẽ tìm được câu trả lời đích xác hơn vì họ
đã có những kiến thức và kinh nghiệm nhất định, có sự hiểu biết nhiều về hoàn cảnh
lẫn những khúc mắc trong cuộc đời bạn; và do vậy, họ sẽ đưa ra những lời khuyên
xác thực hơn. ChatGPT có “kiến thức” nhưng nó không có “kinh nghiệm sống”.
ChatGPT có thể viết một bài báo nhưng nó không thể tạo ra được phần “người” và
những phản ánh đời sống con người trực nghiệm mà không người viết nào không đưa
vào bài viết của họ.
____________
No comments:
Post a Comment