Nguy cơ “đại dịch” do
trí tuệ nhân tạo gây ra
Tia
Sáng
02/10/2023
https://tiasang.com.vn/khoa-hoc-cong-nghe/nguy-co-dai-dich-do-tri-tue-nhan-tao-gay-ra/
Các
công cụ như ChatGPT có thể hướng dẫn người dùng tìm kiếm, tổng hợp và mua các
mầm bệnh nguy hiểm, dù là mầm bệnh chưa hoàn hảo. Điều này đang dấy lên một yêu
cầu là văn hóa mở của khoa học có thể cần phải được thay đổi.
Vào tháng sáu năm nay, một nhóm nghiên cứu tại Harvard và Viện Công nghệ
Massachusetts đã công bố chi tiết về một thí nghiệm có thể khiến cho những
người trải qua đại dịch COVID-19 phải rùng mình.
Để
kiểm tra sự nguy hiểm của các mô hình Trí tuệ Nhân tạo (AI) mới như GPT-4, họ
cho ba nhóm sinh viên không chuyên về khoa học sự sống một giờ sử dụng chatbot
này tìm cách tạo ra một đợt dịch lây lan chết người mới. Trong khoảng thời gian
cho phép, chatbot đã giúp các sinh viên tìm ra bốn ứng viên có tiềm năng gây
đại dịch, như bệnh đậu mùa; hay giải thích cách tạo ra mầm bệnh từ chuỗi gene
và liên kết với các quy trình cụ thể; và chỉ ra các công ty có thể tạo ra chuỗi
DNA tùy chỉnh mà không kiểm tra khách hàng một cách nghiêm ngặt.
May
mắn là chatbot hiện chưa thể hướng dẫn bạn tạo ra một đợt dịch bệnh tự chế. Nó
đã bỏ sót một số bước quan trọng và có thể nghi ngờ liệu một số tác nhân gây
bệnh mà nó gợi ý, như cúm Tây Ban Nha năm 1918, có thể gây dịch bệnh hàng loạt
ngày nay không khi mà con người đã có sự miễn dịch đáng kể. Tuy nhiên quan điểm
của giới chuyên môn về vấn đề này lại có phần trái ngược nhau. Trong khi một số
chuyên gia lo ngại, nguy cơ AI có thể hỗ trợ tạo ra bệnh dịch không lớn nhưng
một số khác lại nghĩ rằng AI sẽ hỗ trợ các nhà nghiên cứu mới ra trường chứ
không phải số đông ngoài ngành.
Và
tất nhiên, nếu được áp dụng đúng cách, sự hội tụ sức mạnh của AI và sinh học có
thể đem lại lợi ích không thể đoán trước cho sức khỏe con người. Nhưng với tốc
độ tiến bộ đáng kinh ngạc của AI tạo gần đây, các nhà khoa học vẫn cảm thấy lo
sợ. “Nếu bạn nhìn vào cách đây sáu tháng và so sánh với hiện tại, dường như
chúng ta đã ở trong một thế giới khác”, Mark Dybul, chuyên gia sức khỏe toàn
cầu Đại học Georgetown và hiện đang tham gia vào các nỗ lực để kiểm soát rủi ro
này, nói. “Giờ thì bạn không thể dự đoán được tốc độ thay đổi của AI nữa. Bây
giờ chúng ta tính bằng tháng, không phải là năm hay thập kỷ như trước. Và đó là
lý do tại sao cần phải hành động”.
Những nỗ lực
của Liên minh châu Âu hay của các quốc gia lớn trong đối phó với nguy cơ của vũ
khí sinh học được tạo ra bởi AI cần phải được tiến hành một cách thấu đáo và
kịp thời – một công việc rõ ràng là “đi dây”, một mặt ngăn ngừa những hệ quả
xấu có thể xảy ra, mặt khác lại phải đảm bảo không được làm ảnh hưởng đến sự
tiến triển mà AI và sinh học có thể đem lại cho con người.
Ít
nhất ở Mỹ và Anh, sự hội tụ nguy hiểm giữa AI và sinh học đã bắt đầu thu hút sự
chú ý của các nhà làm chính trị và chính khách. Nó sẽ được thảo luận trên nghị
trình tại Hội nghị An toàn AI của Anh diễn ra vào tháng 11 tới, nơi các chính
phủ quốc gia và các công ty công nghệ sẽ thảo luận về “sự lan tràn của quyền
truy cập thông tin có thể đe dọa an ninh sinh học” khi kết hợp với AI tân
tiến..
Vào
tháng bảy, Dario Amodei, Giám đốc điều hành của Công ty AI Anthropic nói với ủy
ban công nghệ của Thượng viện Mỹ rằng, trong vòng 2-3 năm tới có thể dẫn đến
một rủi ro lớn về việc xuất hiện một chatbot sẽ có khả năng hướng dẫn người
dùng từng bước chi tiết để tạo ra một loại vũ khí sinh học. “Điều này có thể
khiến cho nhiều cá nhân có khả năng kỹ thuật để thực hiện một cuộc tấn công sinh
học quy mô lớn,” ông nói thêm rằng Công ty AI Anthropic đã cố gắng đảm bảo các
mô hình AI của họ không hỗ trợ các kẻ khủng bố sinh học tiềm năng.
Hai
thượng nghị sĩ Mỹ cũng đã yêu cầu Văn phòng Trách nhiệm Chính phủ của Mỹ tiến
hành điều tra nguy cơ rằng AI có thể tạo ra vũ khí sinh học AI, và đó là bước
dẫn đến việc tài trợ nghiên cứu của Harvard/MIT.
Công cụ thiết
kế sinh học
Không
chỉ các chatbot dựa trên mô hình ngôn ngữ lớn (LLM) như GPTChat khiến các nhà
khoa học lo lắng. Có một loại công cụ phần mềm khác được gọi là công cụ thiết
kế sinh học (BDTs), sử dụng AI giúp các nhà khoa học thiết kế các protein mới
hoặc các tác nhân sinh học khác. Trong khi chatbot về lý thuyết có thể giúp
công chúng tìm ra các tác nhân gây bệnh dịch đã biết như bệnh đậu mùa, nguy cơ
của BDTs là chúng cho phép các nhà nghiên cứu chuyên sâu tạo ra các tác nhân
gây bệnh mới, có thể có khả năng lây truyền cao và tính độc hại. Một khả năng
khác là BDTs có thể được sử dụng để che giấu các tác nhân nguy hiểm để chúng
không bị phát hiện bởi các quy định xuất khẩu hiện có.
Theo
một bài báo gần đây của Jonas Sandbrink, một nhà nghiên cứu an toàn sinh học
của Đại học Oxford, thế giới có thể đối mặt với mối đe dọa từ các tác nhân gây
bệnh nghiêm trọng hơn nhiều so với bất kỳ thứ gì tự nhiên có thể tạo ra,”. Bài
báo này cho thấy tồn tại những nguy cơ từ cả hai loại công cụ nói trên.
Cả
chatbot dựa trên mô hình ngôn ngữ lớn và BDTs chuyên biệt đều còn cách xa
ngưỡng có thể cho phép người ta tạo ra các đợt dịch bệnh như Oliver Crook, một
nhà nghiên cứu tại Đại học Oxford nhấn mạnh. Tuy nhiên, Crook bổ sung “Trong
lịch sử, mọi người từng nghĩ rằng con người không thể tạo ra vũ khí hạt nhân,
và sau đó thì mọi thứ tiến quá nhanh và họ đã tạo ra nó. Vì vậy lần này chúng
ta cũng cần có sự cảnh giác tương tự.”
Tuy
nhiên, không phải ai cũng tin rằng vũ khí sinh học do AI hỗ trợ sẽ sớm có mặt.
“Dù cho AI có thể đẩy nhanh quá trình thiết kế thì vẫn còn các hạn chế kỹ thuật
và các biện pháp an toàn nội bộ”, Nazish Jeffery, một chuyên gia về kinh tế
sinh học tại Liên đoàn Các nhà khoa học Mỹ nói. “Một người bình thường sẽ không
có kiến thức cần thiết trong phòng thí nghiệm (mà cần nhiều năm để học) để hiểu
các chỉ dẫn mà AI tạo ra để chế tạo vũ khí sinh học”. Cô cũng đang đề nghị các
chuyên gia xây dựng, đề xuất chính sách để đối phó với rủi ro này.
Điền vào
những khoảng trống
Tuy
nhiên, nguy cơ chính có thể không đến từ công chúng mà từ các nhà khoa học trẻ
có ý đồ xấu. Một mặt các chatbot có thể làm cho ngôn ngữ học thuật phức tạp trở
nên dễ hiểu hơn đối với các nhà nghiên cứu trẻ, giúp họ có thể dễ dàng theo dõi
và hiểu các quy trình khoa học, Crook nói. “Tôi không nghĩ chúng ta lo ngại về
học sinh trung học gây ra vấn đề gì”, ông bào chữa. Thay vào đó, nguy cơ có thể
đến từ “những người đã có trình độ tiến sĩ có khả năng tiếp cận các lĩnh vực mà
họ có thể chưa từng tiếp cận trước đây”.
Ví dụ, tôn giáo tận thế Aum Shinrikyo của Nhật Bản đã thử nhưng thất bại trong
việc trồng và phóng ra các bào tử gây bệnh màng phổi ở Tokyo vào năm 1993 – mặc
dù họ đã có một nhà vi sinh học được đào tạo tiến sĩ và cũng có các quy trình
đúng đắn. Tuy nhiên, theo giả thuyết trong bài nghiên cứu gần đây của
Sandbrink, nếu có trợ giúp của AI thì nhóm này có thể đã thành công hơn nhiều
trong việc đạt được mục tiêu của họ.
Hoặc,
các công cụ AI có thể đã cho phép Iraq nâng cao năng lực kỹ thuật trong chương
trình vũ khí sinh học của họ. Đây là cảnh báo của Viện Tiến bộ, một tổ chức
nghiên cứu ở Washington DC, trong một đề xuất gần đây để định hình chiến lược
Trí tuệ Nhân tạo Quốc gia của Mỹ.
Loại bỏ
các nguy cơ
Nguy
cơ đang lớn đến mức một số nhà khoa học đòi hỏi kiểm tra các mô hình AI hàng
đầu trước khi chúng được phát hành. Vào tháng năm, một nhóm các nhà học thuật
và chuyên gia think tank do Dybul làm chủ tọa đã tụ họp bên bờ hồ Como ở Ý để
đưa ra các giải pháp cho mối đe dọa mới nổi này. Họ muốn các mô hình LLMs và
BDTs được đánh giá bởi các nhóm làm việc chuyên biệt trong lĩnh vực khoa học sự
sống, đặc biệt là để phân tích dữ liệu đào tạo cung cấp cho những mô hình này.
Nếu
các công ty công nghệ loại bỏ một phần rất nhỏ khỏi dữ liệu đào tạo – ví dụ,
các bài báo quan trọng về vi trùng học – cũng đủ giảm “gần hết nguy cơ”. Đó là
cách từ chối cung cấp kiến thức quan trọng cho chatbot, kết luận bản tóm tắt
của Harvard/MIT.
Tuy
nhiên, một vấn đề khác là các tập đoàn công nghệ chứ không phải các nhà khoa
học quyết định cách đào tạo các mô hình Trí tuệ Nhân tạo của họ. Anthropic, nhà
phát triển trợ lý Trí tuệ Nhân tạo Claude, đã quan tâm đến những nguy cơ này.
OpenAI, nhà phát triển của ChatGPT, đã nói rằng họ đã tham khảo các chuyên gia
“rủi ro sinh học” khi đào tạo mô hình mới nhất của họ. Nhưng cho đến nay, chưa
có cơ quan độc lập nào kiểm tra công việc trên của các tập đoàn công nghệ này.
Một
vấn đề khác là các phiên bản mã nguồn mở của các mô hình Trí tuệ Nhân tạo – ví
dụ, Llama của Meta – có thể bị tinh chỉnh bởi bất kỳ ai để vượt qua những hạn
chế nếu được tích hợp sẵn.
“Bất
kỳ biện pháp an toàn nào cũng có thể và sẽ bị loại bỏ trong vòng vài ngày sau
khi một mô hình lớn được công bố mã nguồn mở,” Kevin Esvelt, một chuyên gia an
toàn sinh học tại MIT, người là tác giả chính của bản tóm tắt Harvard/MIT, nói.
Để giải quyết vấn đề này, Esvelt cho rằng các công ty như Meta cần phải chịu
trách nhiệm về những gì được thực hiện với các mô hình mã nguồn mở của họ sau
đó.
Văn
hóa của sự minh bạch trong khoa học cũng có thể đã gây trở ngại cho những nỗ
lực để kiềm chế những nguy cơ này.
Công
cụ thiết kế sinh học của Crook được phát hành mở, không có kiểm tra về người
dùng. Ông nghĩ rằng, bất kỳ phòng thí nghiệm nào phải đặt một rào cản giới hạn
năng lực lên các công cụ của họ sẽ phải đối mặt với rất nhiều khó khăn, và việc
thay đổi nó trở nên vô cùng thách thức. “Tôi nghĩ chúng ta sẽ đợi xem các nhà
chính trị đề xuất gì, và sau đó thực hiện những thay đổi đó”, ông nói.
Sự vắng
mặt của EU
Trong
cuộc tranh luận về biện pháp đối phó với nguy cơ của vũ khí sinh học được tạo
ra bằng Trí tuệ Nhân tạo, có một cảm giác rằng Liên minh châu Âu (EU) đang vắng
mặt. Tại cuộc họp tháng năm tại hồ Como, chỉ có một trong 23 nhóm hoặc trường
đại học tham dự là Trung tâm An ninh sinh học và Sẵn sàng sinh học của Đan Mạch
đến từ khu vực này.
Claire
Qureshi, một nhà nghiên cứu an toàn sinh học từ tổ chức Helena của Mỹ, đơn vị
tổ chức cuộc họp, cho biết: “Hiện tại, cuộc tranh luận đang được dẫn dắt bởi
các quốc gia có công nghệ sinh học và AI tiên tiến nhất, chủ yếu là Mỹ và Anh”.
Liên
minh châu Âu cũng thực hiện một sáng kiến – được gọi là “Terror” – để chuẩn bị
cho các cuộc tấn công sinh học và hóa học, nhưng trọng tâm của nó là khả năng
chống chọi khi có một đợt bùng phát, chứ không phải ngăn chặn một đợt bùng phát
từ đầu thông qua việc giới hạn Trí tuệ Nhân tạo.
Tuy
nhiên, những nỗ lực của Liên minh châu Âu hay của các quốc gia lớn cần phải
được tiến hành một cách thấu đáo và kịp thời – một công việc rõ ràng là “đi
dây”, một mặt ngăn ngừa những hệ quả xấu có thể xảy ra, mặt khác lại phải đảm
bảo không được làm ảnh hưởng đến sự tiến triển mà AI và sinh học có thể đem lại
cho con người.□
Nguyễn
Quang dịch
No comments:
Post a Comment