leftcenterrightdel
Frances Haugen tại buổi làm chứng trước Quốc hội Anh ngày 25-10. (Ảnh: Getty Image).

Theo đó, chỉ vài giờ trước khi Facebook công bố báo cáo thu nhập quý 3, hơn 10 tờ báo lớn, nhỏ đã đồng loạt đăng tải những bài báo dựa trên những tài liệu nội bộ của Facebook do cựu nhân viên Frances Haugen cung cấp. Trước đó, những câu chuyện đầu tiên dựa trên tài liệu này cũng đã được Tạp chí phố Wall đăng tải vào hồi tháng 9. Những bài báo đã công bố nghiên cứu của Facebook về các sản phẩm có hại cho người dùng và vạch trần “ông lớn” không có những động thái kiên quyết để giải quyết những vấn đề mà nó gây ra.

Theo Tạp chí Time, trong buổi làm chứng kéo dài 2,5 giờ diễn ra đầu tuần, Frances Haugen đã liên tiếp khẳng định rằng, Facebook đã đặt “lợi nhuận lên trên an toàn”, đặc biệt là ở các khu vực đang phát triển, nơi mà Facebook không hiểu về ngôn ngữ hoặc văn hóa của họ. Dựa vào buổi làm chứng và những thông tin từ bộ hồ sơ, Time cũng đưa ra những tiết lộ quan trọng liên quan đến “gã khổng lồ” này.

Đầu tiên, Facebook đã không kiểm soát được nội dung có hại ở các quốc gia đang phát triển. Theo đó, những vấn đề về ngôn từ kích động thù địch và thông tin sai lệch đang trở nên tồi tệ hơn ở các quốc gia đang phát triển, có nhiều ngôn ngữ được sử dụng và việc kiểm duyệt thông tin thường lỏng lẻo hơn. Ấn Độ là một ví dụ. Với 22 ngôn ngữ chính thức, Facebook không đủ nguồn lực và khả năng để kiểm soát thông tin chống Hồi giáo hoặc những tài khoản giả mạo liên quan đến đảng cầm quyền tại quốc gia này.

Theo một tài liệu, 87% ngân sách toàn cầu của Facebook dành cho việc phân loại thông tin sai lệch là cho những nội dung bằng tiếng Anh, trong khi đó thực tế chỉ có 9% người dùng là người nói tiếng Anh. Tại buổi làm chứng, Haugen cũng đã nhấn mạnh, Facebook đã tạo kích động bạo lực sắc tộc ở một số quốc gia và không có chiến lược đủ mạnh để ngăn chặn nó. Cô cho rằng, Facebook chỉ đưa ra “chiến lược” nhằm làm chậm sự lan truyền của các thông tin có hại khi “khủng hoảng đã bắt đầu”.

Tiết lộ thứ 2 được Time chỉ ra là các phần mềm trí tuệ nhân tạo của Facebook không thể phát hiện chính xác các nội dung nguy hiểm mà ngôn ngữ được dùng không phải tiếng Anh. Một ví dụ cụ thể cho điều này là hồi tháng 5, Facebook đã xóa hàng loạt bài đăng của người Palestine về vụ bạo lực ở nhà thờ Al Aqsa, vì đã kiểm duyệt nhầm địa danh này với một nhóm quân sự có chữ Al Aqsa. Facebook sau đó đã lên tiếng xin lỗi, nhưng việc vô tình xóa nội dung là một ví dụ điển hình cho thấy các thuật toán của “gã khổng lồ” gặp trở ngại về ngôn ngữ và không thể kiểm soát được các nội dung ngoài tiếng Anh.

Từ lâu, Facebook dựa vào hệ thống trí tuệ nhân tạo để kiểm duyệt các nội dung nguy hiểm khỏi nền tảng của mình. Tuy nhiên, những ngôn ngữ ngoài tiếng Anh được sử dụng ngày một nhiều đã khiến việc kiểm duyệt nội dung tự động của Facebook trở nên khó khăn hơn nhiều.

Những tài liệu cũng chỉ ra rằng, Facebook đã biết được những thông tin có hại nhưng không có hành động nào để ngăn chặn. Cụ thể, Time dẫn thông tin của Hãng tin AP cho rằng, Facebook thừa nhận là đã biết về việc phụ nữ giúp việc ở Philippines phàn nàn họ bị lạm dụng và bị bán thông qua nền tảng này. Tuy nhiên, “gã khổng lồ” này đã không có hành động nào để ngăn chặn tình trạng đã được phản ánh.

“Trong cuộc điều tra của chúng tôi, những người giúp việc gia đình thường xuyên phàn nàn với các cơ quan tuyển dụng về việc họ bị nhốt trong nhà, bị bỏ đói, bị buộc phải gia hạn hợp đồng vô thời hạn, không được trả lương và nhiều lần bị bán cho người sử dụng lao động khác mà không được họ đồng ý”, một tài liệu của Facebook cho biết.

Trước vấn đề đó, Apple cũng đã đe dọa loại bỏ Facebook và Instagram khỏi kho ứng dụng của mình, nhưng đã thay đổi ý định sau khi facebook xóa 1.000 tài khoản liên quan đến việc bán người giúp việc khỏi nền tảng của mình. Tuy nhiên, cho đến nay, các nhà hoạt động nhân quyền vẫn lên tiếng khi những hình ảnh của người giúp việc, thông tin cá nhân của họ và giá cả vẫn có thể được tìm thấy trên nền tảng này.

Tài liệu rò rỉ cũng cho thấy, nội bộ Facebook đã tranh luận về việc loại bỏ nút “Like” (thích) trên nền tảng của mình. Trong năm 2019, Facebook đã kiểm tra tương tác của người dùng với các nội dung nếu không còn tính năng “Like” trên Instagram. Kết quả cho thấy rằng, tính năng này có thể có tác động tiêu cực đến sức khỏe của người dùng. Theo các tài liệu, nút “Like” đôi khi khiến người dùng trẻ tuổi của nền tảng cảm thấy "căng thẳng và lo lắng" nếu các bài đăng của mình không nhận được nhiều lượt thích từ bạn bè.

Trong buổi làm chứng, trả lời cho câu hỏi tại sao Facebook có những thay đổi để Instagram an toàn hơn cho trẻ em, Haugen nói rằng Facebook đã biết người dùng trẻ tuổi là tương lai của nền tảng này và càng tiếp cận họ sớm thì họ có thể họ sẽ sớm bị thu hút.

leftcenterrightdel
Dù trong "tâm bão" nhưng Facebook vẫn thu được lợi nhuận cao trong quý 3. (Ảnh: CNN).

Trước những thông tin bị rò rỉ và cáo buộc của cựu nhân viên của mình, người phát ngôn của Facebook đã lên tiếng: “Việc tố cáo dựa trên một tiền đề sai. Đúng, chúng tôi là doanh nghiệp và chúng tôi tạo ra lợi nhuận, nhưng cho rằng chúng tôi đánh đổi sự an toàn của mọi người là hiểu sai về lợi ích thương mại của chúng tôi".

Trong khi đó, Giám đốc điều hành của Facebook Mark Zuckerberg cho rằng những lời chỉ trích chân thành góp phần khiến nền tảng xã hội này trở nên tốt hơn, nhưng ông cho rằng có nhiều thế lực đang tìm cách lợi dụng những tài liệu rò rỉ để làm xấu hình ảnh và danh tiếng của công ty.

Theo công bố mới đây, doanh thu của Facebook trong quý 3 đạt 29 tỷ USD, tăng 33% so với cùng kỳ năm ngoái. Lợi nhuận thu được là gần 9,2 tỷ USD, tăng 17% so với quý trước. Số người sử dụng mạng xã hội này đã lên tới 2,91 tỷ người. 

TRẦN HOÀI