Sunday, June 4, 2023

BÁO ĐỘNG VỀ NHỮNG NGUY CƠ CỦA TRÍ TUỆ NHÂN TẠO ĐỐI VỚI NHÂN LOẠI (Thanh Phương / RFI)

 



Báo động về những nguy cơ của trí tuệ nhân tạo đối với nhân loại

Thanh Phương  -  RFI

Đăng ngày: 03/06/2023 - 21:57

https://www.rfi.fr/vi/qu%E1%BB%91c-t%E1%BA%BF/20230603-b%C3%A1o-%C4%91%E1%BB%99ng-v%E1%BB%8...BB%9Bi-nh%C3%A2n-lo%E1%BA%A1i

 

Các ứng dụng về trí tuệ nhân tạo đã có từ lâu, nhưng kể từ khi ứng dụng nổi tiếng ChatGPT được tung lên mạng vào tháng 11/2022, công chúng và các doanh nghiệp bắt đầu quan tâm đến cái gọi là trí tuệ nhân tạo tạo sinh ( generative ), tức là có thể tự tạo ra các nội dung : văn bản, hình ảnh, âm thanh, video, như con người, thậm chí còn nhanh hơn con người rất nhiều.

 

https://s.rfi.fr/media/display/c64487ca-0044-11ee-9a0c-005056bf30b7/w:980/p:16x9/AP23138717768313.webp

Ứng dụng ChatGPT trên màn hình một điện thoại iPhone tại một cửa hàng ở New York, Hoa Kỳ, ngày 18/05/2023. AP - Richard Drew

 

Phát triển với tốc độ chóng mặt

 

Đúng là các ứng dụng  trí tuệ nhân tạo hiện nay đang được phát triển với tốc độ chóng mặt, với những khả năng suy nghĩ như con người ngày càng hoàn thiện và như vậy là trong tương lai có thể thay thế con người trong rất nhiều ngành nghề. 

 

Như ta đã thấy với ChatGPT của công ty OpenAI, ứng dụng này có khả năng viết những bài luận văn rất sâu sắc, độc đáo, biết làm những bài thơ tuyệt tác và có thể dịch mọi thứ tiếng chỉ trong vài giây.

 

Đây là một tiến bộ khoa học vô cùng to lớn, hỗ trợ cho nhân loại rất nhiều, nhưng cũng đang gây lo ngại ngày càng nhiều. Ngày 30/05/2023, một nhóm bao gồm các nhà doanh nghiệp và các chuyên gia đã ra một tuyên bố trên mạng cảnh báo về nguy cơ "tận diệt" đối với nhân loại do sự bùng nổ nhanh chóng của trí tuệ nhân tạo. Bản tuyên bố được đăng trên trang web của Center for AI Safety ( Trung tâm về an toàn trí tuệ nhân tạo ), một tổ chức bất vụ lợi, đặt trụ sở tại Hoa Kỳ. 

 

Tuyên bố của họ nhấn mạnh, việc phòng chống các nguy cơ của trí tuệ nhân tạo phải được xem là một ưu tiên đối với thế giới, ngang tầm với các nguy cơ khác, như các đại dịch hay chiến tranh hạt nhân.

 

Điều đáng nói là trong số các chuyên gia ký tên vào bản tuyên bố nói trên có cả Sam Atman, người sáng chế ra ứng dụng trí tuệ nhân tạo được sử dụng phổ biến nhất hiện nay Chat GPT. Chính ông Atman khi ra điều trần trước một ủy ban của Quốc Hội Mỹ vào giữa tháng 5 đã cho rằng các chính phủ cần phải khẩn cấp can thiệp để “hạn chế các nguy cơ” liên quan đến công nghệ trí tuệ nhân tạo.

 

Cha đẻ của trí tuệ nhân tạo cũng lo ngại

 

Cùng ký tên vào tuyên bố còn có Geoffrey Hinton, được xem là một trong những cha đẻ của trí tuệ nhân tạo. Vào tháng đầu tháng 5, Hinton đã rời bỏ chức vụ của ông trong tập đoàn Internet Google sau khi cảnh báo về các nguy cơ của trí tuệ nhân tạo. 

 

Trên nhật báo The New York Times vào lúc đó, ông Hilton đã cho rằng những tiến bộ trong lĩnh vực trí tuệ nhân tạo đang đặt ra những nguy cơ sâu rộng đối với xã hội và nhân loại. 

Trước đó, vào tháng 3, nhà tỷ phú Elon Musk, một trong những người sáng lập công ty OpenAI, cùng với hàng trăm chuyên gia thế giới đã yêu cầu nên tạm ngưng 6 tháng các nghiên cứu mới về các ứng dụng trí tuệ nhân tạo, vì họ cũng nhận thấy lĩnh vực này chứa đựng nhiều “nguy cơ to lớn đối với nhân loại”.

 

Chỉ cần đưa ra một ví dụ nhỏ: Vào giữa tháng 5 vừa qua, một bức ảnh giả được tạo ra từ một ứng dụng trí tuệ nhân tạo, chụp cảnh một vụ nổ ở Lầu Năm Góc, đã nhanh chóng được được phát tán rộng rãi trên mạng xã hội Twitter, khiến các thị trường chứng khoán bị xáo trộn trong 10 phút, trước khi bộ Quốc Phòng lên tiếng cải chính là Lầu Năm Góc không hề bị tấn công.

 

 Trí tuệ nhân tạo và “fake news” mùa bầu cử

 

Bản thân người sáng chế ChatGPT, Sam Altman trong thời gian qua đã liên tục cảnh báo là trí tuệ nhân tạo có thể gây nhiều thiệt hại nghiêm trọng cho thế giới, chẳng hạn như qua việc thao túng các cuộc bầu cử. 

 

Trước mắt, trí tuệ nhân tạo đang làm xáo trộn chính trường nước Mỹ trước cuộc bầu cử tổng thống vào năm 2024, rất có thể là vẫn giữa hai đối thủ Donald Trump và Joe Biden. 

 

Chính trí tuệ nhân tạo đã được sử dụng để tạo ra bức ảnh chụp Trump bị cảnh sát bắt giữ giống như thật, gây xôn xao dư luận trong một thời gian. Hay bịa ra một băng ghi âm Trump và Biden chửi nhau tơi tả. Chưa hết: Cũng trên các mạng đã xuất hiện một video nêu bật tương lai “kinh hoàng” của nước Mỹ nếu Biden tái đắc cử. Tác giả không ai khác hơn là trí tuệ nhân tạo.

 

Các chuyên gia đang rất lo ngại là trong mùa bầu cử sắp tới tại Hoa Kỳ, các tin giả do trí tuệ nhân tạo sản xuất sẽ tràn ngập, vì đây sẽ là cuộc bầu cử đầu tiên mà trí tuệ nhân tạo được sử dụng phổ biến. Cả hai phe Dân Chủ và Cộng Hòa chắc chắn sẽ nhờ đến trí tuệ nhân tạo để, hoặc là thu hút thêm cử tri, hoặc “sản xuất” các truyền đơn, các bài diễn văn, một cách nhanh chóng, rẻ tiền, mà lại không bó buộc về pháp lý.

 

Nhưng nguy hiểm hơn cả, theo ông Joe Rospars, người sáng lập công ty tư vấn tranh cử Blue State, trả lời hãng tin AFP, với công nghệ trí tuệ nhân tạo, những kẻ xấu có thêm công cụ để gieo rắc hận thù, gây nhiễu thông tin với cả báo chí và công chúng. “Đại dịch” fake news vốn đã gây nhiều tác hại trong chiến dịch tranh cử của Donald Trump sẽ càng trầm trọng hơn trong mùa bầu cử tổng thống Mỹ năm tới. 

 

Đưa trí tuệ nhân tạo vào khuôn khổ pháp lý

 

Những hiểm họa mà trí tuệ nhân tạo đặt ra đang buộc các lãnh đạo nhiều nước trên thế giới phải cấp tốc tìm cách đối phó. 

 

Liên Hiệp Châu Âu hiện đang muốn trở thành định chế đầu tiên trên thế giới đưa ra một khuôn khổ pháp lý để hạn chế những tác hại của trí tuệ nhân tạo. Cách đây hai năm, Ủy Ban Châu Âu đã đề nghị một dự luật theo hướng này.

 

Trọng tâm của dự luật về trí tuệ nhân tạo là một loạt các quy định chỉ áp dụng đối với các ứng dụng mà chính các công ty cho là “nguy cơ cao” dựa trên các tiêu chuẩn của nhà lập pháp. Đối với Ủy Ban Châu Âu, nói chung đó là toàn bộ những ứng dụng được dùng trong những lĩnh vực nhạy cảm như cơ sở hạ tầng thiết yếu, giáo dục, nhân sự, giữ gìn trật tự hay quản lý nhập cư.

 

Vấn đề là tiến trình xem xét bởi các nước thành viên và Nghị Viện Châu Âu kéo dài quá lâu. Nếu luật có được thông qua trước cuối năm nay thì cũng phải chờ đến sớm nhất là cuối năm 2025, luật mới có hiệu lực.

 

Trong cuộc gặp tại Bruxelles hôm 24/05 vừa qua, ủy viên châu Âu đặc trách công nghệ số Thierry Breton và chủ nhân tập đoàn Google Sundar Pichai đã đã đồng ý với nhau là không thể chờ cho đến khi luật của Liên Âu được ban hành, mà phải bàn ngay việc soạn thảo những quy định mới để đưa trí tuệ nhân tạo vào khuôn khổ. Các cuộc thảo luận sẽ được thực hiện với những công ty tự nguyện trong ngành phát triển ứng dụng trí tuệ nhân tạo.

 

Trong vấn đề này, Pháp là một trong những quốc gia đi đầu vì đã cùng với Canada tung ra Đối tác Thế giới về Trí tuệ Nhân tạo. Vận hành theo phương thức giống như Nhóm chuyên gia liên chính phủ về biến đổi khí hậu GIEC, đối tác này hiện quy tụ 28 quốc gia, có nhiệm vụ đưa ra những đánh giá khoa học và những khuyến cáo đến các chính phủ. 

 

Hôm 23/05 vừa qua, tổng thống Emmanuel Macron đã tiếp Sam Atman, người sáng chế ra ChatGPT, tại điện Elysée để thảo luận với ông về những hướng phát triển trí tuệ nhân tạo trong tương lai cũng như về tầm quan trọng của việc đề ra các quy định luật lệ để bảo vệ người sử dụng và bảo vệ nền dân chủ trước những nguy cơ sử dụng trí tuệ nhân tạo một cách sai lạc. 

 

Nhóm G7 nhập cuộc

 

Nhưng đây không còn là một vấn đề của riêng châu Âu mà đã trở thành vấn đề của cả thế giới, mà trước hết là của những nước phát triển nhất. 

 

Hôm thứ tư tuần này, 31/05/2023, Hoa Kỳ và Liên Hiệp Châu Âu đã mở một cuộc họp cấp cao về vấn đề này tại Lulea, Thụy Điển. Trước đó, bà Margrethe Vestager, ủy viên châu Âu về cạnh tranh và cũng người đặc trách các vấn đề công nghệ trong Liên Hiệp Châu Âu, đã tuyên bố là Liên Âu và Hoa Kỳ sẵn sàng tăng cường hợp tác về trí tuệ nhân tạo nhằm đề ra các tiêu chuẩn tối thiểu trước khi các luật về lĩnh vực này được ban hành.

 

Tại cuộc họp thượng đỉnh ở Hiroshima vừa qua, các lãnh đạo  nhóm G7 cũng đã thông báo sắp tới đây sẽ thành lập một “nhóm làm việc” về trí tuệ nhân tạo để thảo luận về việc “”sử dụng một cách có trách nhiệm” các công cụ này, cũng như thảo luận về các nguy cơ từ trí tuệ nhân tạo, trong đó có nguy cơ tin giả.

 




No comments: