Huỳnh Thị
Thanh Trúc dịch
3.12.23
Hội nghị thượng đỉnh toàn cầu cấp cao về an toàn AI đã được tổ chức tại
cơ sở phá mã [code-breaking] lịch sử của Anh ở Bletchley Park. Ảnh: Chris J.
Ratcliffe/Bloomberg, Getty
Hai bước quan trọng hướng tới việc giám sát của
chính phủ đối với trí tuệ nhân tạo (AI) đã
diễn ra trong tuần này tại Hoa Kỳ và Vương quốc Anh. Cả hai sáng kiến đều thể hiện động thái của hai quốc gia là tăng cường năng lực nghiên cứu
AI, và bao gồm nỗ lực mở rộng khả năng tiếp cận các siêu máy tính mạnh mẽ cần
thiết để huấn luyện hệ thống AI.
Vào ngày 30 tháng 10, Tổng thống Hoa Kỳ Joe
Biden đã ký sắc lệnh điều hành AI đầu tiên của quốc gia, với rất nhiều chỉ thị
dành cho các cơ quan liên bang Hoa Kỳ nhằm hướng dẫn sử dụng AI – và đặt ra các
hàng rào bảo vệ trước công nghệ. Và vào ngày 1-2 tháng 11, Vương quốc Anh
đã tổ chức Hội nghị thượng đỉnh về an toàn AI cấp cao, do Thủ tướng Rishi Sunak
triệu tập, với đại diện từ hơn hai tá quốc gia và các công ty công nghệ bao gồm
Microsoft và Meta. Hội nghị, được tổ chức tại cơ sở phá mã thời chiến nổi
tiếng Bletchley Park gần Milton Keynes, đã đề ra Tuyên bố Bletchley, đồng ý việc
đánh giá và quản lý tốt hơn các rủi ro của AI
'tân tiến' mạnh mẽ – các hệ thống tiên tiến có thể được sử dụng để phát triển
những công nghệ đầy rủi ro, chẳng hạn như vũ khí sinh học.
Yoshua
Bengio, nhà tiên phong về AI và giám đốc khoa học của Mila, Viện AI Quebec ở
Canada, người đã tham dự hội nghị thượng đỉnh, cho biết: “Chúng ta đang nói về
thứ AI chưa tồn tại – những AI sẽ ra mắt vào năm tới”.
Cả
hai quốc gia đã cam kết phát triển “nguồn lực nghiên cứu” AI quốc gia, với mục
tiêu cung cấp cho các nhà nghiên cứu AI quyền truy cập vào công nghệ máy tính mạnh
mẽ thông qua đám mây. Đặc biệt, Vương quốc Anh đã thực hiện một “khoản đầu
tư khổng lồ”, Russell Wald, người đứng đầu sáng kiến chính sách và xã hội tại Viện Trí tuệ
nhân tạo lấy Con người làm Trung tâm Stanford [Stanford Institute for
Human-Centered Artificial Intelligence] ở California, cho biết.
Nhà
nghiên cứu chính sách Helen Toner tại Trung tâm An ninh và Công nghệ Mới nổi
[Center for Security and Emerging Technology] của Đại học Georgetown ở
Washington DC cho biết, những nỗ lực này rất có ý nghĩa với một ngành khoa học
phụ thuộc nhiều vào cơ sở hạ tầng máy tính đắt tiền. “Xu hướng chính trong
5 năm nghiên cứu AI vừa qua là chỉ cần mở rộng quy mô thì các hệ thống AI có thể
đạt hiệu suất tốt hơn. Nhưng tốn kém lắm,” cô nói.
Bengio
đồng ý: “Việc đào tạo một hệ thống AI tân tiến phải mất nhiều tháng và tốn hàng
chục hoặc hàng trăm triệu đô la”. “Trong giới học thuật, điều này hiện
không khả thi.” Một trong những mục tiêu của các sáng kiến nguồn lực nghiên cứu là dân chủ hóa những năng lực này.
“Đây
là chuyện tốt,” Bengio nói. “Hiện tại, tất cả năng lực làm việc với các hệ
thống này đều nằm trong tay các công ty muốn kiếm tiền từ chúng. Chúng ta
cần các học giả và các tổ chức do chính phủ tài trợ đang thực sự nỗ lực bảo vệ
công chúng (mà không phải kiếm lời – ND) để có thể hiểu rõ hơn về các hệ thống
này.”
Bao quát
mọi mặt
Sắc
lệnh điều hành của Biden chỉ giới hạn trong việc hướng dẫn công việc của các cơ
quan liên bang, vì đây không phải là luật được Quốc hội thông qua. Tuy
nhiên, Toner nói, sắc lệnh này có phạm vi tiếp cận rộng rãi. “Những gì bạn
có thể thấy là chính quyền Biden thực sự coi trọng AI như một công nghệ đa năng
và tôi thích điều đó. Thật tốt khi họ đang cố gắng bao quát hàng loạt lĩnh
vực.”
Toner
cho biết, một điểm nhấn quan trọng trong sắc lệnh này là tạo ra các tiêu chuẩn
và định nghĩa rất cần thiết trong AI. Cô nói: “Mọi người sẽ sử dụng những
từ như 'không thiên lệch' [unbiased], 'mạnh' [robust] hoặc 'có thể giải thích
được' [explainable]" để mô tả các hệ thống AI. “Tất cả đều nghe có vẻ
hay, nhưng trong AI, chúng ta hầu như không có tiêu chuẩn nào nói rằng những từ
này thực sự có ý nghĩa gì. Đấy là cả một vấn đề lớn.” Sắc lệnh kêu gọi
Viện Tiêu chuẩn và Công nghệ Quốc gia Hoa Kỳ [US National Institute of
Standards and Technology] phát triển các tiêu chuẩn như vậy, cùng với các công
cụ (chẳng hạn như đóng dấu mờ [watermarks]) và 'kiểm thử tấn công mô phỏng'
[red-team testing] – trong đó “đội đỏ” đóng vai người lạm dụng hệ thống để kiểm
tra tính bảo mật của nó – nhằm đảm bảo rằng các hệ thống AI mạnh mẽ là “an
toàn, bảo mật và đáng tin cậy”.
Sắc
lệnh điều hành này chỉ đạo các cơ quan tài trợ cho nghiên cứu khoa học đời sống
thiết lập các tiêu chuẩn để bảo vệ khỏi việc AI được sử dụng để chế tạo các vật
liệu sinh học nguy hiểm.
Các
cơ quan cũng được khuyến khích giúp đỡ những người nhập cư lành nghề có chuyên
môn về AI để học tập, ở lại và làm việc tại Hoa Kỳ. Và Quỹ Khoa học Quốc
gia (National Science Foundation – NSF) phải tài trợ và khởi động ít nhất một
chương trình động cơ đổi mới cấp khu vực ưu tiên công trình liên quan đến AI,
và trong 18 tháng tới, thành lập thêm ít nhất 4 viện nghiên cứu AI quốc gia,
ngoài 25 viện hiện đang được tài trợ.
Tài
nguyên nghiên cứu
Sắc
lệnh của Biden bảo đảm NSF sẽ triển khai thí điểm Nguồn lực Nghiên cứu AI Quốc
gia (National AI Research Resource – NAIRR) trong vòng 90 ngày. Đây là một
hệ thống được đề xuất nhằm cung cấp quyền truy cập vào sức mạnh tính toán có
năng lực xử lý nhiệm vụ AI mạnh mẽ thông qua đám mây, một bộ các máy chủ phân
tán. “Có khá nhiều người hứng thú với việc này,” Toner cho hay.
“Chúng
tôi đã đấu tranh trong nhiều năm cho điều này,” Wald nói. “Đây là sự công nhận ở
mức độ cao nhất rằng đây là việc cần thiết.”
Vào năm 2021, Wald và các đồng nghiệp của ông
tại Stanford đã xuất bản một sách trắng với bản thiết
kế chi tiết xem một dịch vụ như vậy sẽ trông ra sao. Vào tháng 1, một báo
cáo của lực lượng đặc nhiệm NAIRR của Nhà Trắng đã kêu gọi ngân sách 2,6 tỷ USD
cho giai đoạn đầu dài 6 năm. “Đó chỉ là số lẻ,” Wald nói. “Theo quan
điểm của tôi, con số này phải lớn hơn nhiều.” Ông nói, các nhà lập pháp sẽ
phải thông qua Đạo luật CREATE AI, một dự luật được đưa ra vào tháng 7 năm
2023, để cấp vốn cho NAIRR ở quy mô đầy đủ. Wald nói: “Chúng ta cần Quốc hội
đẩy mạnh và xem xét vấn đề này một cách nghiêm túc cũng như cấp vốn và đầu
tư”. “Nếu họ không làm vậy, ta sẽ để mặc hết thảy cho các công ty.”
Tương
tự, Vương quốc Anh có kế hoạch thành lập Nguồn lực nghiên cứu AI quốc gia (AI
Research Resource – AIRR) để cung cấp sức mạnh tính toán ở cấp độ siêu máy tính
cho các nhà nghiên cứu khác nhau muốn nghiên cứu AI tân tiến.
Chính
phủ Anh đã công bố kế hoạch cho AIRR vào tháng 3. Tại hội nghị thượng đỉnh
vừa qua, chính phủ cho biết họ sẽ tăng gấp ba lần nguồn tài trợ cho AIRR, từ
100 triệu bảng Anh (khoảng 3.080 tỷ VND) lên 300 triệu bảng Anh, như một phần của
khoản đầu tư 900 triệu bảng Anh trước đây để chuyển đổi năng lực tính toán của
Vương quốc. Wald cho biết, xét trên dân số và tổng sản phẩm quốc nội, khoản
đầu tư của Vương quốc Anh lớn hơn nhiều so với đề xuất của Hoa Kỳ.
Kế
hoạch của Anh được hỗ trợ bởi hai siêu máy tính mới: Dawn ở Cambridge, được các
nhà khai thác đặt mục tiêu đưa vào vận hành trong hai tháng tới; và cụm
Isambard-AI ở Bristol, dự kiến sẽ đi vào hoạt động vào
mùa hè tới.
Simon
McIntosh-Smith, giám đốc Cơ sở nghiên cứu quốc gia Isambard tại Đại học
Bristol, Vương quốc Anh, cho biết Isambard-AI sẽ là một trong năm siêu máy tính
có năng lực AI hàng đầu thế giới. Cùng với Dawn, ông nói, “những năng lực
này nghĩa là các nhà nghiên cứu ở Anh sẽ có khả năng huấn luyện cả các mô hình
tiên tiến lớn nhất đang được lên ý tưởng, trong một khoảng thời gian hợp lý”.
Bengio
cho biết những động thái này đang giúp các quốc gia như Vương quốc Anh phát triển
chuyên môn cần thiết để định hướng AI vì lợi ích cộng đồng. Tuy nhiên, ông
nói, cần có cả luật pháp để bảo vệ khỏi sự phát triển của các hệ thống AI thông
minh và khó kiểm soát trong tương lai.
Ông
nói: “Chúng ta đang trên đà xây dựng những hệ thống cực kỳ hữu ích và tiềm tàng
nguy hiểm”. “Chúng ta đã yêu cầu các hãng dược chi một khoản tiền lớn để
chứng minh rằng thuốc của họ không có độc. Ta cũng cần làm thế (với trí tuệ
nhân tạo)."
Nature 623 , 229-230 (2023)
doi: https://doi.org/10.1038/d41586-023-03472-x
Huỳnh Thị Thanh Trúc dịch
Nguồn: The world's week on
AI safety: powerful computing efforts launched to boost research, Na
No comments:
Post a Comment