Kerangka Ai Baru Mendukung Moderasi Konten Linkedin

Kerangka Ai Baru Mendukung Moderasi Konten Linkedin

LinkedIn meluncurkan kerangka moderasi konten baru yang merupakan terobosan dalam mengoptimalkan antrean moderasi, mengurangi waktu untuk mendeteksi pelanggaran kebijakan sebesar 60%. Teknologi ini mungkin menjadi masa depan moderasi konten setelah teknologi tersebut semakin tersedia.

Bagaimana LinkedIn Memoderasi Pelanggaran Konten
LinkedIn memiliki tim moderasi konten yang bekerja meninjau secara manual kemungkinan konten yang melanggar kebijakan.

Mereka menggunakan kombinasi model AI, laporan anggota LinkedIn, dan ulasan manusia untuk menangkap konten berbahaya dan menghapusnya.


Namun skala masalahnya sangat besar karena ada ratusan ribu item yang perlu ditinjau setiap minggunya.

Apa yang cenderung terjadi di masa lalu, dengan menggunakan proses masuk pertama, keluar pertama (FIFO), adalah bahwa setiap item yang memerlukan peninjauan akan menunggu dalam antrean, sehingga konten yang menyinggung membutuhkan waktu lama untuk ditinjau dan dihapus.

Jadi, konsekuensi penggunaan FIFO adalah pengguna terpapar konten berbahaya.

 

LinkedIn menjelaskan kelemahan sistem FIFO yang digunakan sebelumnya:

“…pendekatan ini memiliki dua kelemahan penting.

Pertama, tidak semua konten yang ditinjau oleh manusia melanggar kebijakan kami – sebagian besar konten dievaluasi sebagai tidak melanggar (yaitu, disetujui).

Hal ini menghilangkan bandwidth pengulas yang berharga untuk meninjau konten yang sebenarnya melanggar.

Kedua, ketika item ditinjau berdasarkan FIFO, konten yang melanggar memerlukan waktu lebih lama untuk dideteksi jika diserap setelah konten yang tidak melanggar.”


LinkedIn merancang kerangka kerja otomatis menggunakan model pembelajaran mesin untuk memprioritaskan konten yang mungkin melanggar kebijakan konten, dan memindahkan item tersebut ke urutan depan.

Proses baru ini membantu mempercepat proses peninjauan.

Kerangka Baru Menggunakan XGBoost
Kerangka kerja baru ini menggunakan model pembelajaran mesin XGBoost untuk memprediksi item konten mana yang kemungkinan besar merupakan pelanggaran kebijakan.

XGBoost adalah singkatan dari Extreme Gradient Boosting, pustaka pembelajaran mesin sumber terbuka yang membantu mengklasifikasikan dan memberi peringkat item dalam kumpulan data.

Model pembelajaran mesin semacam ini, XGBoost, menggunakan algoritme untuk melatih model guna menemukan pola tertentu pada kumpulan data berlabel (kumpulan data yang diberi label item konten mana yang melanggar).


LinkedIn menggunakan proses yang sama untuk melatih kerangka baru mereka:

“Model ini dilatih pada sampel representatif dari data berlabel manusia di masa lalu dari antrean peninjauan konten dan diuji pada sampel lain yang sudah habis masa berlakunya.”

Setelah dilatih, model dapat mengidentifikasi konten yang, dalam penerapan teknologi ini, kemungkinan besar melanggar dan memerlukan peninjauan manusia.

XGBoost adalah teknologi mutakhir yang terbukti sangat berhasil dalam pengujian benchmarking untuk penggunaan semacam ini, baik dalam akurasi maupun jumlah waktu pemrosesan yang diperlukan, mengungguli jenis algoritme lainnya.

LinkedIn menjelaskan pendekatan baru ini:


“Dengan kerangka kerja ini, konten yang masuk antrean peninjauan dinilai oleh serangkaian model AI untuk menghitung kemungkinan konten tersebut melanggar kebijakan kami.

Konten dengan kemungkinan besar tidak melanggar kebijakan tidak diprioritaskan, menghemat bandwidth peninjau manusia, dan konten dengan kemungkinan lebih tinggi untuk melanggar kebijakan diprioritaskan dibandingkan konten lain sehingga dapat dideteksi dan dihapus lebih cepat.”

 

Dampak Pada Moderasi
LinkedIn melaporkan bahwa kerangka kerja baru ini mampu membuat keputusan otomatis pada sekitar 10% konten yang diantri untuk ditinjau, dengan apa yang disebut LinkedIn sebagai tingkat presisi yang “sangat tinggi”. Model ini sangat akurat sehingga model AI melampaui kinerja peninjau manusia.


Hebatnya, kerangka baru ini mengurangi waktu rata-rata untuk menangkap konten yang melanggar kebijakan sekitar 60%.

Dimana AI Baru Digunakan
Sistem prioritas tinjauan konten baru saat ini digunakan untuk postingan feed dan komentar. LinkedIn mengumumkan bahwa mereka sedang berupaya untuk menambahkan proses baru ini di tempat lain di LinkedIn.

Memoderasi konten berbahaya sangatlah penting karena dapat membantu meningkatkan pengalaman pengguna dengan mengurangi jumlah pengguna yang terpapar konten berbahaya.

Ini juga berguna bagi tim moderasi karena membantu mereka meningkatkan dan menangani volume yang besar.

Teknologi ini terbukti berhasil dan seiring berjalannya waktu, teknologi ini mungkin akan semakin tersebar luas seiring dengan ketersediaannya yang semakin luas.

Share this Post

Comments

Leave a comment