Báo
động về những nguy cơ của trí tuệ nhân tạo đối với nhân loại
Thanh Phương
- RFI
Đăng ngày: 03/06/2023 - 21:57
Các ứng
dụng về trí tuệ nhân tạo đã có từ lâu, nhưng kể từ khi ứng dụng nổi tiếng
ChatGPT được tung lên mạng vào tháng 11/2022, công chúng và các doanh nghiệp bắt
đầu quan tâm đến cái gọi là trí
tuệ nhân tạo tạo sinh ( generative ), tức là có thể tự tạo ra các nội
dung : văn bản, hình ảnh, âm thanh, video, như con người, thậm chí còn nhanh
hơn con người rất nhiều.
Ứng dụng ChatGPT trên màn hình một điện thoại iPhone
tại một cửa hàng ở New York, Hoa Kỳ, ngày 18/05/2023. AP - Richard Drew
Phát
triển với tốc độ chóng mặt
Đúng là các ứng dụng trí tuệ nhân tạo hiện nay đang được phát triển
với tốc độ chóng mặt, với những khả năng suy nghĩ như con người ngày càng hoàn
thiện và như vậy là trong tương lai có thể thay thế con người trong rất nhiều
ngành nghề.
Như ta đã thấy với ChatGPT của công ty OpenAI, ứng dụng này có khả năng
viết những bài luận văn rất sâu sắc, độc đáo, biết làm những bài thơ tuyệt tác
và có thể dịch mọi thứ tiếng chỉ trong vài giây.
Đây là một tiến bộ khoa học vô cùng to lớn, hỗ trợ cho nhân loại rất nhiều,
nhưng cũng đang gây lo ngại ngày càng nhiều. Ngày 30/05/2023, một nhóm bao gồm
các nhà doanh nghiệp và các chuyên gia đã ra một tuyên bố trên mạng cảnh báo về
nguy cơ "tận diệt" đối với nhân loại do sự bùng nổ nhanh chóng của
trí tuệ nhân tạo. Bản tuyên bố được đăng trên trang web của Center for AI
Safety ( Trung tâm về an toàn trí tuệ nhân tạo ), một tổ chức bất vụ lợi, đặt
trụ sở tại Hoa Kỳ.
Tuyên bố của họ nhấn mạnh, việc phòng chống các nguy cơ của trí tuệ nhân
tạo phải được xem là một ưu tiên đối với thế giới, ngang tầm với các nguy cơ
khác, như các đại dịch hay chiến tranh hạt nhân.
Điều đáng nói là trong số các chuyên gia ký tên vào bản tuyên bố nói trên
có cả Sam Atman, người sáng chế ra ứng dụng trí tuệ nhân tạo được sử dụng phổ
biến nhất hiện nay Chat GPT. Chính ông Atman khi ra điều trần trước một ủy ban
của Quốc Hội Mỹ vào giữa tháng 5 đã cho rằng các chính phủ cần phải khẩn cấp
can thiệp để “hạn chế các nguy cơ” liên quan đến công nghệ trí tuệ nhân tạo.
Cha
đẻ của trí tuệ nhân tạo cũng lo ngại
Cùng ký tên vào tuyên bố còn có Geoffrey Hinton, được xem là một trong những
cha đẻ của trí tuệ nhân tạo. Vào tháng đầu tháng 5, Hinton đã rời bỏ chức vụ của
ông trong tập đoàn Internet Google sau khi cảnh báo về các nguy cơ của trí tuệ
nhân tạo.
Trên nhật báo The New York Times vào lúc đó, ông Hilton đã cho rằng những
tiến bộ trong lĩnh vực trí tuệ nhân tạo đang đặt ra những nguy cơ sâu rộng đối
với xã hội và nhân loại.
Trước đó, vào tháng 3, nhà tỷ phú Elon Musk, một trong những người sáng lập
công ty OpenAI, cùng với hàng trăm chuyên gia thế giới đã yêu cầu nên tạm ngưng
6 tháng các nghiên cứu mới về các ứng dụng trí tuệ nhân tạo, vì họ cũng nhận thấy
lĩnh vực này chứa đựng nhiều “nguy cơ to lớn đối với nhân loại”.
Chỉ cần đưa ra một ví dụ nhỏ: Vào giữa tháng 5 vừa qua, một bức ảnh giả
được tạo ra từ một ứng dụng trí tuệ nhân tạo, chụp cảnh một vụ nổ ở Lầu Năm
Góc, đã nhanh chóng được được phát tán rộng rãi trên mạng xã hội Twitter, khiến
các thị trường chứng khoán bị xáo trộn trong 10 phút, trước khi bộ Quốc Phòng
lên tiếng cải chính là Lầu Năm Góc không hề bị tấn công.
Trí
tuệ nhân tạo và “fake news” mùa bầu cử
Bản thân người sáng chế ChatGPT, Sam Altman trong thời gian qua đã liên tục
cảnh báo là trí tuệ nhân tạo có thể gây nhiều thiệt hại nghiêm trọng cho thế giới,
chẳng hạn như qua việc thao túng các cuộc bầu cử.
Trước mắt, trí tuệ nhân tạo đang làm xáo trộn chính trường nước Mỹ trước
cuộc bầu cử tổng thống vào năm 2024, rất có thể là vẫn giữa hai đối thủ Donald
Trump và Joe Biden.
Chính trí tuệ nhân tạo đã được sử dụng để tạo ra bức ảnh chụp Trump bị cảnh
sát bắt giữ giống như thật, gây xôn xao dư luận trong một thời gian. Hay bịa ra
một băng ghi âm Trump và Biden chửi nhau tơi tả. Chưa hết: Cũng trên các mạng
đã xuất hiện một video nêu bật tương lai “kinh hoàng” của nước Mỹ nếu Biden tái
đắc cử. Tác giả không ai khác hơn là trí tuệ nhân tạo.
Các chuyên gia đang rất lo ngại là trong mùa bầu cử sắp tới tại Hoa Kỳ,
các tin giả do trí tuệ nhân tạo sản xuất sẽ tràn ngập, vì đây sẽ là cuộc bầu cử
đầu tiên mà trí tuệ nhân tạo được sử dụng phổ biến. Cả hai phe Dân Chủ và Cộng
Hòa chắc chắn sẽ nhờ đến trí tuệ nhân tạo để, hoặc là thu hút thêm cử tri, hoặc
“sản xuất” các truyền đơn, các bài diễn văn, một cách nhanh chóng, rẻ tiền, mà
lại không bó buộc về pháp lý.
Nhưng nguy hiểm hơn cả, theo ông Joe Rospars, người sáng lập công ty tư vấn
tranh cử Blue State, trả lời hãng tin AFP, với công nghệ trí tuệ nhân tạo, những
kẻ xấu có thêm công cụ để gieo rắc hận thù, gây nhiễu thông tin với cả báo chí
và công chúng. “Đại dịch” fake news vốn đã gây nhiều tác hại trong chiến dịch
tranh cử của Donald Trump sẽ càng trầm trọng hơn trong mùa bầu cử tổng thống Mỹ
năm tới.
Đưa
trí tuệ nhân tạo vào khuôn khổ pháp lý
Những hiểm họa mà trí tuệ nhân tạo đặt ra đang buộc các lãnh đạo nhiều nước
trên thế giới phải cấp tốc tìm cách đối phó.
Liên Hiệp Châu Âu hiện đang muốn trở thành định chế đầu tiên trên thế giới
đưa ra một khuôn khổ pháp lý để hạn chế những tác hại của trí tuệ nhân tạo.
Cách đây hai năm, Ủy Ban Châu Âu đã đề nghị một dự luật theo hướng này.
Trọng tâm của dự luật về trí tuệ nhân tạo là một loạt các quy định chỉ áp
dụng đối với các ứng dụng mà chính các công ty cho là “nguy cơ cao” dựa trên
các tiêu chuẩn của nhà lập pháp. Đối với Ủy Ban Châu Âu, nói chung đó là toàn bộ
những ứng dụng được dùng trong những lĩnh vực nhạy cảm như cơ sở hạ tầng thiết
yếu, giáo dục, nhân sự, giữ gìn trật tự hay quản lý nhập cư.
Vấn đề là tiến trình xem xét bởi các nước thành viên và Nghị Viện Châu Âu
kéo dài quá lâu. Nếu luật có được thông qua trước cuối năm nay thì cũng phải chờ
đến sớm nhất là cuối năm 2025, luật mới có hiệu lực.
Trong cuộc gặp tại Bruxelles hôm 24/05 vừa qua, ủy viên châu Âu đặc trách
công nghệ số Thierry Breton và chủ nhân tập đoàn Google Sundar Pichai đã đã đồng
ý với nhau là không thể chờ cho đến khi luật của Liên Âu được ban hành, mà phải
bàn ngay việc soạn thảo những quy định mới để đưa trí tuệ nhân tạo vào khuôn khổ.
Các cuộc thảo luận sẽ được thực hiện với những công ty tự nguyện trong ngành
phát triển ứng dụng trí tuệ nhân tạo.
Trong vấn đề này, Pháp là một trong những quốc gia đi đầu vì đã cùng với
Canada tung ra Đối tác Thế giới về Trí tuệ Nhân tạo. Vận hành
theo phương thức giống như Nhóm chuyên gia liên chính phủ về biến đổi khí hậu
GIEC, đối tác này hiện quy tụ 28 quốc gia, có nhiệm vụ đưa ra những đánh giá
khoa học và những khuyến cáo đến các chính phủ.
Hôm 23/05 vừa qua, tổng thống Emmanuel Macron đã tiếp Sam Atman, người sáng chế ra ChatGPT, tại điện Elysée để thảo luận với
ông về những hướng phát triển trí tuệ nhân tạo trong tương lai cũng như về tầm
quan trọng của việc đề ra các quy định luật lệ để bảo vệ người sử dụng và bảo vệ
nền dân chủ trước những nguy cơ sử dụng trí tuệ nhân tạo một cách sai lạc.
Nhóm
G7 nhập cuộc
Nhưng đây không còn là một vấn đề của riêng châu Âu mà đã trở thành vấn đề
của cả thế giới, mà trước hết là của những nước phát triển nhất.
Hôm thứ tư tuần này, 31/05/2023, Hoa Kỳ và Liên Hiệp Châu Âu đã mở một cuộc
họp cấp cao về vấn đề này tại Lulea, Thụy Điển. Trước đó, bà Margrethe
Vestager, ủy viên châu Âu về cạnh tranh và cũng người đặc trách các vấn đề công
nghệ trong Liên Hiệp Châu Âu, đã tuyên bố là Liên Âu và Hoa Kỳ sẵn sàng tăng cường
hợp tác về trí tuệ nhân tạo nhằm đề ra các tiêu chuẩn tối thiểu trước khi các
luật về lĩnh vực này được ban hành.
Tại cuộc họp thượng đỉnh ở Hiroshima vừa qua, các lãnh đạo nhóm G7
cũng đã thông báo sắp tới đây sẽ thành lập một “nhóm làm việc” về trí tuệ nhân
tạo để thảo luận về việc “”sử dụng một cách có trách nhiệm” các công cụ này,
cũng như thảo luận về các nguy cơ từ trí tuệ nhân tạo, trong đó có nguy cơ tin
giả.
No comments:
Post a Comment