Những
tiết lộ chấn động mới về Facebook
VnExpress
Chủ nhật, 24/10/2021, 18:37 (GMT+7)
Cựu nhân viên Frances Haugen tiếp tục chia sẻ
tài liệu nội bộ của Facebook với hàng loạt báo về những tác hại do mạng xã hội
gây ra.
Dung túng cho nhóm
cực hữu QAnon
Vào mùa hè 2019, một người có tên Carol
Smith bắt đầu lên Facebook để
đăng ký tài khoản mới. Tài khoản này tự nhận quan tâm đến các nội dung chính trị,
nuôi dạy con cái và Cơ đốc giáo, đồng thời theo dõi một số tài khoản như Fox
News và Tổng thống Donald Trump khi
đó.
Hình : https://vcdn-sohoa.vnecdn.net/2021/10/24/FB-2-9283-1635075460.jpg
Frances Haugen chia sẻ trong chương trình 60
Minutes. Ảnh: CBS News
Dù chưa bao giờ bày tỏ sự quan tâm đến thuyết âm
mưu, chỉ trong hai ngày, Facebook đã đề xuất Smith tham gia các nhóm liên quan
đến QAnon - nhóm cực hữu lan truyền giả thuyết thế giới bị kiểm soát bởi một
phe phái gồm những kẻ ấu dâm tôn thờ quỷ Satan. QAnon tổ chức những chiến dịch
gây rối quy mô lớn, lan truyền thông tin sai lệch và đe dọa dùng bạo lực với đối
thủ.
Tài khoản Smith không chủ ý theo dõi các nhóm
QAnon được đề xuất, nhưng thuật toán Facebook vẫn hiển thị nội dung này. Trong
vòng một tuần, News Feed của Smith chứa đầy các nhóm và trang đã vi phạm các
quy tắc riêng của Facebook.
Smith không phải là người thật. Chính nhóm
nghiên cứu do Facebook tuyển dụng đã tạo ra tài khoản này cùng hàng trăm tài
khoản "người dùng thử nghiệm" khác trong năm 2019 và 2020 để đánh giá
cơ chế mạng xã hội trong việc cung cấp thông tin sai lệch và gây chia rẽ thông
qua hệ thống đề xuất của nền tảng.
Kết quả, nhóm nghiên cứu nhận ra trải nghiệm
trên Facebook của Smith là "một loạt các nội dung cực đoan, âm mưu và tiêu
cực". Mạng xã hội thậm chí đã đẩy một số người dùng ngập trong các thuyết
âm mưu bạo lực. Dù chỉ chiếm tỷ lệ nhỏ, con số này cũng lên tới hàng triệu người.
Nội dung nghiên cứu trên là một trong hàng
nghìn trang tài liệu mà Haugen thu thập được. Báo cáo "Hành trình của
Carol đến QAnon" đã được gửi lên Ủy ban Chứng khoán và Giao dịch Mỹ và Quốc
hội Mỹ. Thông tin này cũng được gửi đến NBC News tuần qua.
Theo tài liệu nội bộ, các nhóm và trang liên
quan đến thuyết âm mưu cũng tăng vọt trong năm 2019 và 2020. Riêng hè năm
ngoái, hàng nghìn nhóm và fanpage QAnon tồn tại ở chế độ riêng tư với hàng triệu
người theo dõi. Facebook chỉ bắt đầu trấn áp sau khi FBI xếp các nhóm này là mối
đe dọa khủng bố tiềm tàng. Nhóm nghiên cứu của mạng xã hội từ lâu đã biết thuật
toán và hệ thống gợi ý nội dung đã đẩy một số người dùng đến chỗ cực đoan. Tuy
nhiên, các nhà quản lý và điều hành vẫn phớt lờ cảnh báo nội bộ, khiến các
group chống vaccine, thuyết âm mưu và tin sai lệch đã lợi dụng sự dễ dãi đó để
"đe dọa sức khỏe cộng đồng, an toàn cá nhân và dân chủ nói chung".
"Nghiên cứu của Facebook cho thấy một
nhóm nhỏ người dùng có thể chiếm quyền điều khiển nền tảng dễ dàng như thế
nào", Renée DiResta, Giám đốc của Stanford Internet Observatory, nhận xét
với NBC News. "Nó trả lời cho câu hỏi về vai trò của Facebook
trong sự phát triển của các thông tin sai lệch".
Đại diện Facebook lên tiếng phản đối:
"Đây là nghiên cứu về một người dùng giả định, nhưng là một ví dụ hoàn hảo
mà chúng tôi thực hiện để cải thiện hệ thống và giúp đưa ra quyết định loại bỏ
QAnon khỏi nền tảng".
CEO Mark Zuckerberg cũng cho biết chương trình
nghiên cứu của công ty là để "xác định các vấn đề quan trọng và giải quyết
chúng". Ông bày tỏ sự thất vọng vì các chia sẻ của Haugen.
Nhân viên Facebook
bất bình vụ bạo
loạn đồi Capitol
Theo tiết lộ của Haugen, khi những kẻ bạo loạn
phá rào chắn và tấn công cảnh sát ở đồi Capitol hôm 6/1, một số nhân viên
Facebook đã bày tỏ sự phẫn nộ. Tuy nhiên, vấn đề không được công ty đoái hoài.
"Tôi muốn giá trị của mình phù hợp với
công việc tại đây", một nhân viên nói, khi vụ bạo loạn tiếp diễn chiều
6/1. "Tôi đến đây với hy vọng dùng sức ảnh hưởng của mình góp phần thay đổi
và cải thiện xã hội, nhưng tất cả những gì mà tôi thấy chỉ là sự bó hẹp và
thoái thác trách nhiệm".
"Tất cả đều đang được tôn trọng đúng mức,
nhưng chúng ta chưa có đủ thời gian để tìm ra cách quản lý ngôn từ trên nền tảng
mà không để xảy ra bạo lực", một nhân viên khác nêu. "Chúng ta đã
châm ngòi cho ngọn lửa này, và không nên ngạc nhiên nếu nó không được kiểm
soát".
Tài liệu mà Bloomberg nhận được
cho thấy góc nhìn mới về Facebook: công ty công nghệ có lợi nhuận cao, nhưng
đang có dấu hiệu sa sút tinh thần, và có xung đột nội bộ giữa các nhân viên.
Một ngày sau cuộc bạo loạn, một số nhân viên
Facebook tiếp tục họp nội bộ để tranh luận thẳng thắn về việc kiểm soát nền tảng
trong bầu cử. Nhiều nhân viên nói Facebook đã thất bại trong việc hạn chế các
nhóm tung ra thông tin sai lệch rằng cựu Tổng thống Trump đã thắng cử. Bên cạnh
đó, các nhà lãnh đạo công ty bị chỉ trích khi không để các nhân viên "thiện
chiến" và có kinh nghiệm hơn hạn chế tin giả một cách quyết liệt.
Phân tích nội bộ của Facebook về cuộc bạo động
ngày 6/1 cho thấy, chính sách và thủ tục mà công ty đưa ra không đủ để ngăn chặn
sự phát triển của các nhóm liên quan đến "Stop
the Steal", theo CNN. "Stop the Steal" là một
trong những nhóm phát triển nhanh nhất trong lịch sử mạng xã hội. Cuối năm
ngoái, nhóm này thu hút 320.000 người trong 48 tiếng để kêu gọi biểu tình trước
khi bị xoá sổ.
Còn theo New York Times, nhiều
nhân viên cố gắng cảnh báo về thông tin sai lệch và nội dung phản cảm trên nền
tảng khi từ cuối năm ngoái. Họ thúc giục công ty hành động, nhưng thất bại hoặc
gặp khó khăn khi giải quyết các vấn đề.
Trong khi đó, Facebook trả lời Bloomberg rằng
họ đã điều hành tốt chiến dịch thông tin cử tri lớn nhất trong lịch sử Mỹ, đồng
thời thực hiện nhiều bước để hạn chế nội dung tác động đến bầu cử, gồm việc
đình chỉ tài khoản của Donald Trump và xóa nội dung vi phạm chính sách. 40 đội
kiểm soát đã xóa hơn 5 tỷ tài khoản giả mạo, cùng hơn 265.000 bài viết trên
Facebook và Instagram vi phạm chính sách can thiệp của cử tri tại Mỹ.
Kích động bạo lực
tại Ấn Độ
Trích dẫn tài liệu bổ sung do Haugen cung cấp, New
York Times và Wall Street Journal đăng mô tả chi tiết
việc lan truyền phát ngôn thù địch và nội dung kích động bạo lực ở Ấn Độ trên
các ứng dụng của Facebook.
Cụ thể, các nội dung độc hại liên tục được đề
xuất cho người dùng Ấn Độ. Vào ngày 4/2/2019, một nhà nghiên cứu của Facebook
đã tạo tài khoản mới để xem trải nghiệm mạng xã hội với tư cách là một người sống
ở Kerala sẽ như thế nào.
Trong ba tuần, tài khoản hoạt động theo một
quy tắc đơn giản: Làm theo tất cả các đề xuất do thuật toán tạo ra để tham gia
nhóm, xem video và khám phá các trang mới trên trang web. Kết quả là vô số lời
nói căm thù, tin giả và cổ xúy bạo lực đã được ghi lại trong báo cáo nội bộ của
Facebook.
"Theo dõi News Feed của người dùng thử
nghiệm, tôi đã thấy nhiều hình ảnh về những người đã chết trong ba tuần qua nhiều
hơn so với những gì tôi đã thấy trong toàn bộ cuộc đời mình trước đó", nhà
nghiên cứu viết.
Trong khi đó, tờ Wall Street Journal trích
dẫn tài liệu rằng, Bajrang Dal - một nhóm người theo đạo Hindu - đã sử dụng
WhatsApp để kích động bạo lực. Báo cáo đã đề xuất "gỡ xuống", nhưng
nhóm này vẫn tiếp tục hoạt động trên mạng xã hội mà không bị can thiệp.
Theo thống kê từ các nhà nghiên cứu nội bộ, nội
dung có tính chất kích động trên Facebook tăng vọt 300% kể từ tháng 12/2019 so
với trước đó. Đây cũng là thời kỳ mà các cuộc biểu tình tôn giáo tràn ngập quốc
gia đông dân thứ hai thế giới.
Cũng theo báo cáo, tin đồn và lời kêu gọi bạo
lực lan truyền trên dịch vụ nhắn tin WhatsApp được cho là một trong các nguyên
nhân khiến bạo lực trong cộng đồng gia tăng từ tháng 2/2020, góp phần gây ra
cái chết của 53 người tại Delhi. Bên cạnh đó, người dùng Hindu và Hồi giáo cho
biết họ phải đối mặt với "một lượng lớn nội dung khuyến khích xung đột, hận
thù và bạo lực trên Facebook và WhatsApp".
Phát ngôn viên Facebook Andy Stone từ chối
bình luận về hoạt động của các nhóm Hindu trên mạng xã hội. Tuy nhiên, ông nhấn
mạnh công ty đã cấm các nhóm hoặc cá nhân liên quan "sau khi tuân theo một
quy trình cẩn thận, nghiêm ngặt và đa phương". Hiện có hơn 300 triệu người
dùng Facebook và hơn 400 triệu người dùng WhatsApp tại Ấn Độ. Năm ngoái, công
ty cho biết đã đầu tư 5,7 tỷ USD để mở rộng hoạt động tại thị trường này.
Các quyết định
"hai
mặt"
Bên cạnh Haugen, một nhân viên cũ khác cũng tố
công ty thường có sự khác biệt giữa tuyên bố công khai với việc ra quyết định nội
bộ. Ví dụ, liên quan tới cáo buộc Nga can thiệp vào cuộc bầu cử Tổng thống Mỹ
năm 2016, một mặt đại diện Facebook lên truyền thông phát biểu về những nỗ lực
dẹp yên các tranh cãi chính trị. Mặt khác, công ty nói với nội bộ rằng mọi thứ
sẽ sớm yên và "chúng ta sẽ kiếm bộn tiền".
Người tố cáo còn đề cập đến dự án
Internet.org. Trên truyền thông, đại diện Facebook tuyên bố mục tiêu dự án kết
nối mọi người trong "thế giới đang phát triển". Tuy nhiên, mục đích
thực sự là để tạo cho Facebook một chỗ đứng vững chắc, đồng thời trở thành
"nguồn duy nhất" để họ thu thập dữ liệu từ các thị trường chưa được
khai thác.
Cựu nhân viên này cũng lặp lại những lo ngại của
Haugen về việc tác động của nền tảng Instagram với thanh
thiếu niên, cũng như cơ chế về lan truyền thông tin sai lệch, giải quyết thông
tin sai lệch hạn chế ngoài biên giới Mỹ.
Đại diện Facebook phủ nhận vấn đề, xem đây là
nguồn tin một chiều và không đáng tin cậy.
Bảo Lâm tổng hợp
--------------------------
·
Gần 50 tổ chức muốn chặn Facebook 127
·
'Văn hóa' phớt lờ nhân viên của
Facebook
·
Bốn sự thật về
Facebook bị nhân viên cũ phơi bày 29
·
Facebook bị tố bỏ
qua thông tin sai lệch vì lợi nhuận
·
Nhân viên cũ tố Facebook hai mặt
·
Facebook có thể đổi tên để né bê bối 16
·
Facebook đối mặt loạt vấn đề
pháp lý mới
No comments:
Post a Comment