Kêu
gọi “Ngừng A.I.” vì rủi ro nghiêm trọng cho xã hội
Bình Phương -
Saigon Nhỏ
29 tháng 3, 2023
https://saigonnhonews.com/doi-song/cong-nghe/keu-goi-ngung-a-i-vi-rui-ro-nghiem-trong-cho-xa-hoi/
Hơn một ngàn nhà quản lý công nghệ, nhà nghiên cứu
đã ký tên vào một lá thư ngỏ thúc giục các phòng thí nghiệm trí tuệ nhân tạo
(artificial intelligence – A.I.) “tạm ngừng” (moratorium) việc phát triển các hệ
thống A.I. mạnh hơn nữa vì lo ngại “những rủi ro trầm trọng cho xã hội và nhân
loại”, báo The New
York Times tường thuật.
https://saigonnhonews.com/wp-content/uploads/2023/03/GettyImages-1248378294.jpg
GPT-4 , phiên bản A.I.
mới nhất, mạnh nhất nâng cấp từ ChatGPT của công ty OpenAI, được cho là một bộ
não tinh tế không thua kém bộ óc con người. Logo GPT-4 được trình chiếu lại sự
kiện giới thiệu sản phẩm ở Ba Lan hôm 13 tháng Ba vừa qua.Ảnh Jaap
Arriens/NurPhoto via Getty Images
Thư ngỏ, do tổ chức Viện Tương Lai Sự Sống (Future of Life
Institute) khởi thảo và công bố hôm thứ Tư 29 tháng Ba, quy tụ nhiều nhân vật
nổi tiếng trong lĩnh vực công nghệ Mỹ như Elon Musk – chủ nhân và người điều
hành SpaceX, Tesla, Twitter; Steve Wozniak – đồng sáng lập Apple; Andrew Yang –
doanh nhân và ứng cử viên tổng thống Mỹ và Rachel Bronson – chủ tịch tổ chức Bản
tin các Nhà Khoa Học Nguyên Tử, cơ quan điều hành Đồng hồ Ngày Tận thế (Doomsday
Clock) và nhiều học giả tại các trường đại học, viện nghiên cứu.
Những người phát triển công nghệ A.I. “đang lao vào một cuộc chạy
đua ngoài tầm kiểm soát để phát triển và đưa vào ứng dụng những bộ óc kỹ thuật
số ngày càng mạnh mẽ mà không ai – kể cả những người tạo ra chúng – có thể hiểu
được, dự đoán được hoặc kiểm soát được một cách đáng tin cậy,” thư ngỏ cảnh
báo.
A.I. vận hành những chatbot như ChatGPT của
OpenAI, Bing của Microsoft và Bard của Google, là những thứ có thể
đối thoại giống như người thật, tạo ra những bài nghị luận về vô số các đề tài
khác nhau và thực hiện những nhiệm vụ phức tạp như viết các mã điện toán.
Nhu cầu phát triển những chatbot mạnh mẽ hơn nữa đã dẫn tới một cuộc chạy
đua nhằm quyết định những người lãnh đạo mới của ngành công nghiệp điện toán
trong tương lai. Nhưng những công cụ này bị phê phán vì chúng có thể đưa ra những
nhận định sai và lan truyền tin tức giả mạo, sai sự thật.
Thư ngỏ của các nhà khoa học kêu gọi “tạm ngừng” việc phát triển các hệ
thống A.I. mạnh hơn GPT-4, một chatbot mà công ty OpenAI công bố đầu tháng này.
Lá thư cho biết, việc “tạm ngừng” sẽ mang lại một quãng thời gian để thực hiện
“quy tắc an toàn chung” cho các hệ thống A.I. “Nếu không thể thực hiện ngay
một cuộc tạm ngừng như vậy thì các chính phủ phải vào cuộc và áp đặt một cuộc tạm
ngừng,” thư ngỏ cho biết.
Việc phát triển các hệ thống A.I. mạnh mẽ chỉ nên được xúc tiến “một
khi chúng ta tin rằng chúng sẽ có tác động tích cực và quản lý được những rủi
ro của chúng”, lá thư nói thêm. “Nhân loại có thể tận hưởng một tương
lai thịnh vượng với A.I. Đã thành công trong việc tạo ra những hệ thống A.I. mạnh
mẽ, bây giờ chúng ta nên tận hưởng một ‘mùa nghỉ hè A.I.’ trong đó chúng ta gặt
hái thành quả, điều chỉnh những hệ thống này sao cho có lợi rõ ràng cho tất cả
mọi người và để cho xã hội một cơ hội để thích nghi,” lá thư viết.
Giám đốc điều hành của OpenAI, ông Sam Altman, không ký vào thư ngỏ.
https://saigonnhonews.com/wp-content/uploads/2023/03/GettyImages-1473912473-1-2048x1365.jpg
Tập đoàn Baidu của
Trung Quốc cũng lao vào cuộc chạy đua phát triển các hệ thống A.I. vối chatbot
ERNIE vừa chào hàng hôm 15 tháng Ba. Ảnh LONG WEI / Feature China/Future
Publishing via Getty Images
Một số nhà khoa học cho rằng, thuyết phục cộng đồng công nghệ tự nguyện
“tạm ngừng” là chuyện khó, còn yêu cầu các chính phủ hành động nhanh chóng còn
khó hơn nữa vì các nhà lập pháp đang làm rất ít để điều hành lĩnh vực trí tuệ
nhân tạo. Các chính trị gia Hoa Kỳ thậm chí không hiểu biết nhiều về công nghệ
A.I., theo lời một dân biểu trong Hạ Viện.
Năm 2021, các nhà lập chính sách của Liên minh Châu Âu đã đề nghị một dự
luật quản lý các công nghệ A.I. có tiềm năng gây hại cho con người, chẳng hạn
như công nghệ nhận diện khuôn mặt. Dự luật – có thể được ban hành cuối năm nay
– yêu cầu các công ty phải đánh giá rủi ro các công nghệ A.I. của họ để xác định
chúng có thể ảnh hưởng tới sức khỏe, sự an toàn và quyền của cá nhân như thế
nào.
***
GPT-4 là thứ mà các nhà nghiên cứu A.I. gọi là một “mạng thần kinh” (neural
network), tức là một hệ thống thuật toán học tập các kỹ năng từ phân tích dữ
kiện. Mạng thần kinh sử dụng cùng công nghệ mà các “trợ lý ảo” như Siri
của Apple hoặc Alexa của Amazon dùng để nhận biết các lệnh bằng lời nói, các xe
tự lái dùng để nhận biết người đi bộ…
Ngay từ năm 2018, các công ty Google và OpenAI đã bắt đầu xây dựng các
mạng thần kinh học tập kỹ năng từ khối lượng khổng lồ các văn bản đã được số
hóa, bao gồm sách vở, từ điển bách khoa Wikipedia, các bản đối thoại và những
thông tin khác lấy từ mạng Internet. Các mạng thần kinh này được gọi là “mô
hình ngôn ngữ lớn”, viết tắt là L.L.M. (large language models).
Bằng cách xác định chính xác hàng tỷ mẫu câu trong tất cả các văn bản
đó, L.L.M. học cách tạo ra văn bản của riêng nó, bao gồm các dòng tin ngắn (tweet),
bài viết và những chương trình điện toán. Chúng thậm chí còn có thể đối thoại.
Theo năm tháng, OpenAI và các công ty khác đã xây dựng các L.L.M. học tập được
ngày càng nhiều dữ liệu và cải thiện năng lực của chúng.
Tuy nhiên các hệ thống vẫn mắc lỗi; chúng thu nhận những dữ kiện sai và
chế ra các thông tin không báo trước – hiện tượng mà các nhà nghiên cứu gọi là
“chứng ảo giác” (hallucination). Bởi vì các hệ thống đưa ra thông tin gần
như với sự tự tin hoàn toàn, người tiếp nhận rất khó phân biệt thông tin nào là
đúng, thông tin nào sai.
Các chuyên gia lo ngại những phần tử xấu có thể sử dụng các hệ thống
này để lan truyền tin giả, tin xuyên tác với tốc độ và mức hiệu quả cao hơn nhiều
so với trước kia. Họ tin điều đó có thể được dùng để dụ dỗ hành vi của mọi người
trên toàn cõi Internet.
Trong nhiều năm, nhiều nhà nghiên cứu A.I, các học giả và nhà quản lý
công nghệ – kể cả ông Musk, một trong những người sáng lập công ty OpenAI – đã
lo ngại rằng các hệ thống A.I có thể gây ra những tai họa lớn hơn nữa, nhiều
người cảnh báo rằng cuối cùng A.I. có thể hủy diệt nhân loại; một số người khác
lo ngại nhiều hơn tới những nguy cơ trước mắt, chẳng hạn như lan truyền tin giả
và nguy cơ nhiều người dựa vào A.I. để tìm cách điều trị bệnh tật và cảm xúc.
-----------------
Đọc thêm:
Bản PDF tặng độc giả,
Vol 5 – Thế giới và cơn sốt ChatGPT
ChatGPT và mối đe dọa
lan truyền tin giả
No comments:
Post a Comment