Facebook: Nội dung trái phép ở Việt Nam chỉ bị ẩn ở Việt Nam – An Phong

Facebook: Nội dung trái phép ở Việt Nam chỉ bị ẩn ở Việt Nam

Nếu một thông tin không vi phạm tiêu chuẩn cộng đồng Facebook, nhưng phạm luật Việt Nam, thông tin đó vẫn được phép hiển thị ở các nước khác.

Trong buổi chia sẻ về tiêu chuẩn cộng đồng của Facebook ngày 18/6 tại Hà Nội, ông Simon Harari, Giám đốc phụ trách Chính sách nội dung của Facebook châu Á - Thái Bình Dương, cho biết bất kỳ nội dung nào được người dùng đăng lên Facebook sẽ được đối chiếu với các tiêu chuẩn của mạng xã hội này. Nếu vi phạm, nó đương nhiên bị xử lý.

Trong trường hợp thông tin không vi phạm chính sách của Facebook, nhưng lại được báo cáo phạm luật của một nước nào đó, Facebook sẽ áp dụng một quy trình xử lý thống nhất trên toàn cầu.

Trước tiên, đội ngũ pháp lý của Facebook rà soát để xác định nội dung có được xem là nhạy cảm hay sai trái tại một quốc gia cụ thể, chẳng hạn Việt Nam, hay không. Nếu đúng, Facebook lập tức hạn chế hoặc chặn hiển thị ở nước đó. Tuy nhiên, mạng xã hội này không cấm thông tin đó tiếp tục được chia sẻ ở các quốc gia và vùng lãnh thổ khác.

"Chúng tôi không muốn pháp luật một nước cụ thể lại ảnh hưởng đến quyền xem nội dung của người dùng toàn thế giới", ông Harari nhấn mạnh.

Chính sách khiếu nại khi nội dung bị xóa

Người dùng Facebook có thể sử dụng công cụ Report (Báo cáo) để phản ánh các nội dung vi phạm tiêu chuẩn cộng đồng. Tuy nhiên, công cụ này đôi khi bị lợi dụng. Chẳng hạn, một người lên mạng xã hội phàn nàn về dịch vụ của một công ty và công ty kia có thể huy động nhân viên bấm "report" để khiến nội dung đó biến mất khỏi mạng xã hội.

Facebook thừa nhận thực tế trên và cho biết đã triển khai nút Khiếu nại để người dùng, nếu bị "report", có cơ hội kháng nghị và khôi phục nội dung. Tuy nhiên, tính năng này mới bắt đầu được đưa ra từ năm ngoái và chưa mở rộng trên mọi lĩnh vực do việc này tiêu tốn nguồn lực công nghệ và con người.

Ông Harari nói thêm, họ không phân biệt một nội dung bị nhận bao nhiêu báo cáo, một báo cáo hay một triệu báo cáo cũng trải qua một quy trình rà soát như nhau. Còn nếu Facebook phát hiện tài khoản nào lợi dụng tính năng Report để làm phương hại đến người dùng, tài khoản đó sẽ bị xử lý.

Cách Facebook xử lý tin giả

Facebook có quan điểm, không phải mọi nội dung trên Facebook đều bắt buộc là sự thật, không phải mọi thông tin đều có thể dễ dàng phân định thật giả. Họ đã xây dựng hệ thống xử lý tin giả gồm Xóa bỏ (Remove), Giảm thiểu (Reduce) và Thông tin (Inform).

Remove

Facebook là một nền tảng tự do, nên không phải tin giả nào cũng sẽ bị loại bỏ. Facebook chỉ xóa nếu tin giả đó có nguy cơ dẫn tới hành vi bạo lực ngoài đời, hay có khả năng tác động đến các cuộc bầu cử... Bên cạnh đó, các tài khoản được xác định mạo danh sẽ lập tức bị xóa sổ. Tính riêng từ tháng 1 đến tháng 3/2019, Facebook đã vô hiệu hóa 2,2 tỷ tài khoản giả mạo, thường chỉ trong vòng vài phút sau khi tài khoản được đăng ký.

Với thông tin khó xác định thật giả, hoặc phạm luật nước này nhưng lại không vi phạm ở khu vực khác, Facebook chọn giải pháp Reduce.

Reduce

Với một tin giả, thay vì gỡ bỏ, Facebook cho phép thông tin đó vẫn tồn tại trên Facebook, nhưng lượng người dùng có thể nhìn thấy hay tiếp cận được nội dung đó giảm 80%.

Trong sự kiện International Press Day ngày 12/6 tại trụ sở Facebook (Mỹ), bà Sheryl Sandberg, COO Facebook, cũng giải thích mục đích của tin giả vốn là để phát tán mạnh mẽ trên mạng xã hội. Vì vậy giải pháp của Facebook là ngăn sự lan truyền đó. Khi một thông tin được gắn mác là giả, Facebook giảm tỷ lệ hiển thị của nó trên News Feed tới 80%, tức số người tiếp cận và đọc được nội dung này còn rất ít, mất đi tính "viral" mà tin giả hướng tới.

Inform

Bên cạnh vai trò của Facebook, bản thân người sử dụng mạng xã hội cũng cần có "tư duy số", nâng cao nhận thức để tự đánh giá, xác định thông tin nào đáng ngờ, giả mạo, lừa đảo. Đặc biệt, người dùng nên cân nhắc, kiểm chứng thông tin trước khi chia sẻ, tránh tình trạng chia sẻ một cách mù quáng, hùa theo đám đông.

Facebook hiện có 15.000 nhân viên, sử dụng hơn 50 ngôn ngữ, trong đó có tiếng Việt, chịu trách nhiệm xem xét các nội dung được báo cáo có khả năng vi phạm. Những người kiểm duyệt này là một phần của một đội ngũ lớn hơn gồm hơn 30.000 người trên khắp thế giới có nhiệm vụ tập trung vào sự an toàn và bảo mật. Dựa trên các phản hồi toàn cầu, Facebook cập nhật chính sách về tiêu chuẩn cộng đồng hai tuần một lần.

Tiêu chuẩn cộng đồng của Facebook đề cập đến những nội dung cấm, có thể kể đến như ảnh khỏa thân người lớn và hoạt động tình dục, bắt nạt và quấy rối, ảnh khỏa thân trẻ em và bóc lột tình dục trẻ em, tài khoản giả, ngôn từ gây thù ghét, hàng hóa bị kiểm soát, spam, hoạt động tuyên truyền khủng bố toàn cầu, nội dung bạo lực và phản cảm.

Bài viết cùng danh mục:

Viết Bình luận