Facebook thắt chặt tiêu chuẩn cộng đồng, tăng cường ngăn chặn các bài viết vi phạm

10:3219/06/2019

(ĐTTD) Đại diện Facebook khu vực châu Á – Thái Bình Dương, ông Simon Harari - Giám đốc phụ trách Chính sách nội dung, vừa gặp gỡ giới truyền thông Việt Nam để chia sẻ kỹ hơn về bộ tiêu chuẩn cộng đồng của mạng xã hội này và khẳng định sẽ gỡ bỏ các bài viết vi phạm.

Ông Simon Harari - Giám đốc phụ trách Chính sách nội dung, đại diện Facebook khu vực châu Á – Thái Bình Dương.
 

Tiêu chuẩn cộng đồng của Facebook là các quy tắc chỉ ra những gì có thể và không thể chia sẻ trên nền tảng này. Các quy tắc này được tạo ra nhằm hướng tới một môi trường lành mạnh - nơi mọi người cảm thấy tự do và an toàn để thể hiện bản thân.

Chúng tôi muốn Facebook trở thành một môi trường lành mạnh, nơi mọi người có thể thoải mái thể hiện mình, kết nối với nhau và với những vấn đề mà họ quan tâm. Chúng tôi hiểu rằng mọi người sẽ chỉ làm như vậy nếu họ cảm thấy an toàn và không bị đe dọa bởi bất kỳ mối nguy hại nào. Đó là lý do tại sao chúng tôi xây dựng nên Tiêu chuẩn cộng đồng chi tiết với sự đóng góp từ các chuyên gia trên khắp thế giới để vạch rõ giới hạn chính xác cho những nội dung độc hại trên nền tảng của mình", ông Simon Harari cho biết.

Tiêu chuẩn cộng đồng của Facebook được cập nhật thường xuyên 2 tuần/lần bao gồm 9 lĩnh vực gồm: ảnh khỏa thân người lớn và hoạt động tình dục, bắt nạt và quấy rối, ảnh khỏa thân trẻ em và bóc lột tình dục trẻ em, tài khoản giả, ngôn từ gây thù ghét, hàng hóa bị kiểm soát, spam, hoạt động tuyên truyền khủng bố toàn cầu, nội dung bạo lực và phản cảm. Tất cả các bài viết có liên quan đến các chủ đề này, sẽ bị gỡ bỏ khỏi nền tảng Facebook.

Facebook cho biết đã vô hiệu hóa 1,2 tỉ tài khoản giả mạo trong quý 4/2018 và 2,19 tỉ tài khoản trong quý 1/2019. Mạng xã hội này đã xây dựng hệ thống máy học để xác định các thông tin đăng tải không phù hợp, và trong các trường hợp phát hiện vi phạm tiêu chuẩn cộng đồng, có hơn 95% nội dung được phát hiện bởi máy móc trước khi cần sự can thiệp của con người.

Đại diện của Facebook cho biết hiện mạng xã hội lớn nhất hành tinh có 15.000 nhân viên trên khắp thế giới chịu trách nhiệm xem xét nội dung được báo cáo là có khả năng vi phạm. Họ đến từ những đất nước khác nhau và sử dụng hơn 50 ngôn ngữ, bao gồm cả tiếng Việt. Những người kiểm duyệt nội dung này là một phần của một đội ngũ  lớn hơn bao gồm hơn 30.000 người trên khắp thế giới có nhiệm vụ tập trung vào an toàn và bảo mật.Ngoài ra, Facebook cũng đang đầu tư nhiều hơn vào trí thông minh nhân tạo (AI) để có thể chủ động phát hiện nội dung vi phạm, bổ sung cho các báo cáo nhận được từ cộng đồng.

Chia sẻ với giới truyền thông, ông Simon Harari cho biết, Facebook đã tích hợp thêm nút Kháng cáo (Appeal) bên cạnh các thông báo khóa tài khoản, gỡ nội dung... để người dùng khiếu nại trong trường hợp muốn Facebook xem lại trường hợp của họ.

Facebook cũng xử lý mọi báo cáo về nội dung trên nền tảng theo cùng một cách trên khắp thế giới. Không quan trọng báo cáo đến từ ai hoặc từ đâu, ai đã đăng và số lần bị báo cáo là một lần hay một nghìn lần; nếu nội dung đó vi phạm Tiêu chuẩn cộng đồng, chúng tôi sẽ gỡ bỏ nội dung đó.

Tiêu chuẩn cộng đồng của Facebook được trình bày chi tiết và có quy tắc nhằm tránh các cách hiểu khác nhau giữa những người kiểm duyệt nội dung, và để đảm bảo rằng những quyết định tương tự sẽ được đưa ra, bất kể ai là người đang xem xét nội dung. Facebook thường xuyên kiểm tra tính chính xác của các quyết định xử lý nội dung để tìm hiểu xem có lỗi ở đâu, tại sao lỗi đó lại xảy ra và giải quyết chúng theo các bước. Facebook sẽ điều chỉnh các chính sách để phát hiện các nội dung độc hại đang được chia sẻ, hoặc tăng cường đào tạo và hỗ trợ để giảm lỗi trong quá trình thực thi tiêu chuẩn.

Nhật Quang





Gửi nhận xét về bài viết:
Họ tên:    Email:
Nội dung:
  • DTTD