TRÍ
TUỆ NHÂN TẠO – CÓ THỂ LÀ CHÚNG TA BỊ NGUYỀN RỦA
Tác giả: Michael
Braecher phỏng vấn GS Bostrom
Người dịch: Nguyễn
Phú Lộc
17.8.2023
https://diendankhaiphong.org/tri-tue-nhan-tao-co-the-la-chung-ta-bi-nguyen-rua/
Cuộc
cách mạng trí tuệ nhân tạo (AI): Trong nhiều năm, trí tuệ nhân tạo là một chủ đề dành cho
giới chuyên môn, bây giờ mọi người đang nói về nó. Chúng tôi tự hỏi: Trí tuệ
nhân tạo sẽ thay đổi chúng ta, nền kinh tế, văn hóa của chúng ta như thế nào? Sự
phấn chấn đến từ đâu, điều gì sẽ chiếm ưu thế? Và tất nhiên thêm một câu hỏi:
ai được lợi và ai thua thiệt?
Triết
gia Nick Bostrom thuộc đại học Oxford, 50 tuổi, tin rằng một ngày nào đó siêu
trí tuệ nhân tạo có thể quét sạch loài người. Hay nó sẽ giải phóng chúng ta khỏi
những công việc ngu ngốc?
https://diendankhaiphong.files.wordpress.com/2023/08/2023-08-13-ai-revolution-bostrom.jpg?w=768
Triết gia Nick Bostrom, giáo sư đại học Oxford
SPIEGEL: Thưa giáo sư Bostrom, trong
nhiều thập kỷ trước, ông đã cảnh báo về sự xuất hiện của một siêu trí tuệ có thể
vượt qua trí tuệ con người. Một ý nghĩ xuất phát từ sự sợ hãi. Khi nào thì thời
điểm đó sẽ đến?
Bostrom: Từ giữa những năm 1990, tôi đã
tin rằng ngày đó sẽ đến vào tiền bán thế kỷ 21, và dường như tôi đang đoán
đúng. Trước những tiến bộ về sự phát triển của trí tuệ nhân tạo mà chúng ta đã
chứng kiến, tôi tin rằng điều đó có thể đến trong vài năm nữa.
SPIEGEL: Cho đến nay, các thuật toán có
thể trò chuyện với con người hoặc tạo ra những hình ảnh nhân tạo, nhưng trí
thông minh của chúng dường như bị hạn chế.
Bostrom: Các mô hình AI từ lâu đã được
chuyên môn hóa trong các lĩnh vực phụ. Tuy nhiên, các mô hình ngày nay cơ bản
là có khả năng để học. Chúng có thể viết mã máy tính, làm thơ và vượt qua những
kỳ thi về vật lý, y học và luật. Chúng nhận ra các khuôn mẫu và áp dụng kiến thức
thu được để trả lời các câu hỏi mới. Tất cả những điều đó dường như là không tưởng
trước đây một vài năm.
SPIEGEL: Điều đó có đủ để tạo ra một AI
toàn cầu có thể cạnh tranh với bộ não của chúng ta không?
Bostrom: Có thể mất nhiều thời gian hơn.
Các mô hình ngày nay vẫn còn những điểm yếu, chẳng hạn như khả năng lập kế hoạch,
tư duy phê phán và cách thức hoạt động của cơ chế ghi nhớ và cảnh giác của
chúng. Tuy nhiên, công việc chuyên sâu đang được thực hiện để vượt qua những giới
hạn này. Có lẽ các mẫu máy như GPT chỉ có thể là một phần của các hệ thống AI
thậm chí còn phức tạp hơn sau này. Chúng ta sẽ trải nghiệm một lượng lớn công
trình nghiên cứu khác.
SPIEGEL: Ông có nghĩ rằng AI sẽ phát
triển ý thức được không?
Bostrom: Cuối cùng sẽ là thế. Thật khó
để nói liệu các hệ thống AI ngày nay có khả năng có bất kỳ mức độ tri giác nào
hay không. Thực tế là, các triết gia, nhà thần kinh học và nhà nghiên cứu nhận
thức từ lâu đã tranh luận về những gì cấu thành nên ý thức. Cho đến nay vẫn
chưa có sự đồng thuận về một kết luận nhất quán. Một vấn đề khác nữa, là chúng
ta không thể nắm bắt được quá trình diễn ra trong các mô hình AI.
SPIEGEL: Nó có thể trở nên nguy hiểm
hơn cho con người chúng ta không?
Bostrom: Để trở nên nguy hiểm, AI không
cần ý thức – chỉ cần nó rất thông minh là đủ. Vị trí thống trị của chúng ta
trên hành tinh này không phải nhờ vào sức mạnh thể chất mà nhờ bộ não của chúng
ta. Nếu bây giờ chúng ta tạo ra những cỗ máy thông minh hơn chúng ta, điều đó
có nghĩa là trong tương lai mọi thứ trên hành tinh của chúng ta sẽ bị thống trị
bởi những loại máy móc đó.
SPIEGEL: Điều đó nghe hơi giống phim
Hollywood. Liệu chúng ta có bị đe dọa nghiêm trọng bởi một kịch bản như phim
hành động »Kẻ hủy diệt«, trong đó một AI siêu thông minh muốn quét sạch loài
người?
Bostrom: Một bộ phim thành công về mặt
thương mại cần có cốt truyện thú vị. Trong hầu hết mọi trường hợp, một nhân vật
chính vốn được ưa thích gặp phải vấn đề, và họ có thể vượt qua. Nhưng trong cuộc
sống thực, có lẽ không có một kết thúc có hậu cho loài người và không có vị anh
hùng nào đến để cứu chúng ta. Một AI siêu thông minh có thể tìm đủ mọi cách để
hạ gục chúng ta. Có thể với những con rô-bốt siêu nhỏ, một loại virus nguy hiểm
hoặc một cách nào khác mà chúng ta thậm chí chưa thể nghĩ ra. Chúng ta thậm chí
không thể nhận ra điều nguy hiểm đó trước khi quá muộn.
SPIEGEL: Giả sử mối lo ngại của ông về
siêu trí tuệ nhân tạo độc hại là hợp lý: Làm sao có thể ngăn chặn kịch bản kinh
dị này?
Bostrom: Rất nhiều người thông minh nhất
mà tôi quen biết đang nghiên cứu giải pháp cho vấn đề này: tìm cách sắp xếp hướng
đi hợp lý cho các mô hình AI. Ba phòng thí nghiệm AI hàng đầu có tất cả các đội
chuyên gia lo chuyện đối phó với nó. Chúng ta có lẽ đã tiến xa hơn nếu chúng ta
không lãng phí hai hoặc ba thập kỷ qua. Một nỗ lực gấp rút hiện đang được thực
hiện để tìm ra giải pháp trước khi quá muộn.
SPIEGEL: Ông có một thử nghiệm tưởng tượng
làm ông trở nên nổi tiếng, đó là máy sản xuất tối đa chiếc kẹp giấy. Tất cả có
mục đích gì?
Bostrom: Hãy tưởng tượng rằng một AI
siêu thông minh được giao nhiệm vụ tìm phương án sản xuất càng nhiều kẹp giấy
càng tốt. Máy có thể kết luận rằng nếu không ai ngăn cản và giành quyền kiểm
soát vũ trụ, nó có thể tạo ra nhiều kẹp giấy hơn. Để đạt được mục tiêu này, có
lẽ trước hết nó sẽ hủy diệt loài người. Vì vậy, không cần phải ghét con người,
trí thông minh nhân tạo cũng tiến xa đến mức đó. AI chỉ cần đưa ra kết luận rất
chính xác rằng sẽ có nhiều kẹp giấy hơn, nếu nó làm như vậy. Đấy chỉ là một thí
dụ, bạn cũng có thể giao cho AI các nhiệm vụ khác và sẽ tạo ra kết quả tương tự.
SPIEGEL: Chúng ta học được gì từ điều
này?
Bostrom: Nó cho thấy tầm quan trọng của
việc không cho phép AI siêu thông minh hoạt động hướng tới mục tiêu không phù hợp
với các giá trị của con người.
SPIEGEL: Chẳng lẽ chúng ta không thể
giao cho AI nhiệm vụ là không được gây tai hại cho ai?
Bostrom: Thật thú vị, những gì chúng ta
thấy với cái gọi là mô hình ngôn ngữ lớn như ChatGPT là, chúng thực sự có thể
đóng giả một số nhân vật tiếng tăm khi chúng ta yêu cầu. Người ta cũng có thể
thử bảo AI phải thân thiện với mọi người và tôn trọng nhân quyền. Nhưng điều đó
đã đủ chưa? Chắc bạn đã nắm vững ý tưởng về thần thoại Shoggoth?
SPIEGEL: Shoggoth là một quái vật gớm
ghiếc trong sách của H. P Lovecraft vốn dĩ có thể tự thay đổi hình dạng của
mình.
Bostrom: Trong trường hợp này, đó là một
con quái vật xấu xí với những chùm lông hiểu được cảm xúc người đối diện. Có
lúc, nó cho chúng ta thấy một chiếc mặt nạ có mặt đang cười vì đó là thứ mà cảm
xúc chúng ta muốn thấy. Nhưng có một cái gì đó mạnh mẽ đằng sau, xa lạ và có thể
thù địch với chúng ta. Ngay cả một hệ thống AI được đào tạo để có thể tỏ ra
thân thiện với môi trường bên ngoài, nó cũng có thể tiềm ẩn những quy trình nội
bộ để đạt những mục tiêu hoàn toàn khác. Có thể các quy trình này khó bị phát
hiện trong giai đoạn thử nghiệm mà nó chỉ lộ ra khi AI đối mặt với một tình huống
mới.
SPIEGEL: Xin ông cho một ví dụ?
Bostrom: Phiên bản đầu tiên của
Microsofts Bing chatbot được đưa ra yêu cầu phải luôn đối xử lịch sự với người
dùng của nó. Nhưng sau đó, người ta nhận ra rằng, một nhân cách đen tối hơn sẽ
tự bộc lộ khi hệ thống được người dùng ra những mệnh lệnh nhất định nào đó. Lúc
ấy, Chatbot trở nên hung bạo và đáng sợ.
SPIEGEL: Chúng ta phải làm gì để để thuần
hóa con quái vật?
Bostrom: Chúng ta phải đối mặt với ba
thách thức lớn. Tôi đã vạch ra vấn đề đầu tiên: Làm thế nào bạn có
thể viết mã AI thế nào để cho phần mềm không chạy điên cuồng? Thách thức
thứ hai mang tính chất xã hội: Làm thế nào để chúng ta đảm bảo rằng AI
chỉ được sử dụng cho mục đích hữu ích – và không gây chiến tranh, hoặc không
truyền bá thông tin sai lệch hoặc không đàn áp con người? Câu hỏi thứ
ba cho đến nay ít được chú ý: Nếu quả thực chúng ta có thể phát triển
một AI có năng lực cảm nhận và suy nghĩ, làm sao chúng ta có thể chắc chắn rằng
chúng ta không bất công với nó? Chúng ta cần một chuẩn mực đạo đức cho bộ não kỹ
thuật số.
SPIEGEL: Nhưng giờ đây, đó là chuyện
khoa học giả tưởng.
Bostrom: Tôi biết điều đó hơi khác một
chút những gì chúng ta cho là có thể tưởng tượng được ngày nay. Nhưng chúng ta
phải bắt đầu thực hiện điều này một cách nghiêm túc. Giả sử chúng ta tạo ra được
những bộ não kỹ thuật số thực sự xứng đáng với tư cách đạo đức, chẳng hạn vì
chúng có tri giác hoặc có khả năng tự nhận thức. Sau đó, điều bắt buộc về mặt đạo
đức là lợi ích của chúng phải được chú ý và chúng không bị lạm dụng. Chúng ta
không kỳ thị màu da, càng không nên kỳ thị vì một ai đó hoặc điều gì đó đang yếu
đuối về thể chất.
SPIEGEL: Một số nhà nghiên cứu AI hàng
đầu đã đề xuất một lệnh cấm sáu tháng để giúp việc phát triển các thuật toán mới
an toàn hơn và ngăn chặn việc lạm dụng công nghệ. Điều này có giúp gì hay
không?
Bostrom: Có thể là có ích. Nhưng tôi
cũng lo ngại rằng lệnh cấm như vậy sẽ được gia hạn nhiều lần. Sau đó, nghiên cứu
AI có thể kết thúc trong một loại băng hà vĩnh cửu. Và chúng ta sẽ chết dần chết
mòn vì những rủi ro thực tế khác, mà không bao giờ có thể tận dụng những cơ hội
to lớn mà một trí tuệ siêu việt sẽ mang lại cho chúng ta. Tôi có thể hình dung
một giải pháp khác.
SPIEGEL: Xin ông cứ nói!
Bostrom: Phối hợp nhiều hơn. Chúng ta
phải ngăn chặn một cuộc chạy đua vũ trang trong đó 20 phòng thí nghiệm khác
nhau cố gắng phát triển siêu trí tuệ càng nhanh càng tốt. Trong một cuộc đua
như vậy, đội nào gạt tất cả các khía cạnh an toàn ra ngoài, đội đó có thể sẽ
giành chiến thắng. Ngược lại, những người quyết định thận trọng sẽ bị tụt lại
phía sau và mất đi vai trò của mình. Một kịch bản như vậy sẽ làm tăng rủi ro
lên rất nhiều.
SPIEGEL: Ông được coi là người tiên
phong của “chủ nghĩa dài hạn”, một triết lý mà những người ủng hộ nó coi việc cải
thiện tương lai xa là ưu tiên hàng đầu. Một số người cảm thấy hoài nghi vì cho
rằng những thách thức trước mắt như nghèo đói hoặc biến đổi khí hậu là quan trọng
hơn.
Bostrom: Thật không may, một số người
đã diễn giải sai suy nghĩ của tôi. Tôi tin rằng chúng ta cần phải giải quyết cả
những vấn đề trước mắt và những thách thức lâu dài.
SPIEGEL: Hơn nữa,ông còn nói về “áp lực
di truyền” từ những người kém thông minh hơn và suy đoán về thuyết ưu sinh [ND:
Eugenics] để cải thiện khả năng nhận thức của các thế hệ tương lai. Ông có
nhận ra rằng những tuyên bố như vậy gây ra khiếp đảm?
Bostrom: Trong một số công trình học
thuật của tôi, tôi muốn khám phá xem thử điều gì sẽ xảy ra nếu một người theo
đuổi những ý tưởng vị lợi nhất định. Một số người đã kết luận rằng tôi ủng hộ
những giả định này. Nhưng tôi thì không. Tôi chưa bao giờ tự gọi mình là người
theo chủ nghĩa vị lợi hay người theo chủ nghĩa dài hạn. Thật là đáng hoài nghi
về những định kiến như vậy.
SPIEGEL: Ông có thể ước tính khả năng của
con người có thể đứng vững trước một AI siêu thông minh?
Bostrom: Bạn có thể xem tôi là một người
theo thuyết định mệnh ôn hòa: nếu chúng ta nỗ lực, chúng ta có thể cải thiện cơ
hội sống sót của mình với tư cách là một loài. Nhưng cũng có thể là chúng ta sẽ
bị nguyền rủa, cho dù bất kể chúng ta làm gì. Hoặc chúng ta cũng được an toàn
mà không cần phải có nỗ lực gì đặc biệt. Thật khó nói.
SPIEGEL: Với tư cách là một triết gia
AI, người ta có thể ngủ yên đến mức nào, nếu như sự diệt vong của loài người là
chuyện có thể xảy ra?
Bostrom: Tôi làm việc chăm chỉ và chủ yếu
làm gần như tất cả mọi chuyện trước khi đi ngủ. Nhưng tôi nghĩ chúng ta đang ở
một bước ngoặt trong lịch sử, không chỉ về trí tuệ nhân tạo mà cả các công nghệ
khác. Sẽ có cái đến trước và cũng có thể một cái đến sau.
SPIEGEL: Chúng ta đã nói về khía cạnh ảm
đạm của AI nhiều rồi. Ông cũng có một kịch bản tích cực hơn chứ?
Bostrom: Nếu bạn nghĩ về sự phát triển
đến cùng, một lúc nào đó bạn sẽ đạt đến điểm mà con người không cần phải làm việc
nữa, nhờ trí tuệ nhân tạo và người máy.
SPIEGEL: Ông có nghĩ rằng cuộc sống sẽ
tốt đẹp khi chúng ta không cần làm việc?
Bostrom: Tại sao không? Hãy nghĩ đến những
đứa trẻ đã từng phải làm việc vất vả trên ruộng đồng hoặc nhà máy. Ngày nay,
không ai ở phương Tây sẽ đổ lỗi cho chúng nếu thay vào đó chúng nó được chơi
đùa hoặc đi học. Ai biết được, có thể trong tương lai chúng ta sẽ sống như những
người làm nghề tự do, những người sẽ cống hiến cuộc đời mình cho những quan tâm
khác mà không cần phải nghĩ đến việc đi làm công để ăn lương.
./.
Người phỏng vấn: Michael Braecher
Der Spiegel số 31/2023, trang 68-69 (báo giấy, không có link)
Người dịch: Nguyễn Phú Lộc, tháng 8/2023
No comments:
Post a Comment