Harakatuna.com – Di tengah kemajuan teknologi yang pesat, kecerdasan buatan (artificial intelligence/AI) menjadi bagian penting dalam kehidupan kita sehari-hari. Salah satu penerapan AI yang paling sering kita jumpai ada di media sosial, di mana algoritma digunakan untuk menampilkan konten yang kita lihat. Tanpa kita sadari, algoritma ini berperan besar dalam membentuk apa yang kita pikirkan dan percaya. Namun, ada sisi lain dari kemudahan ini—algoritma ternyata bisa memicu polarisasi sosial, bahkan menjadi jalan bagi tumbuhnya radikalisme.
Algoritma media sosial sebenarnya diciptakan dengan tujuan sederhana, yakni menampilkan konten yang sesuai dengan minat dan perilaku pengguna. Semakin sering kita menyukai atau berbagi konten tertentu, algoritma akan menampilkan lebih banyak hal serupa. Ini terlihat seperti ide bagus, bukan? Tapi, masalahnya, kita hanya akan terus-menerus melihat konten yang sejalan dengan pandangan kita, tanpa kesempatan untuk mempertimbangkan sudut pandang lain. Hasilnya? Polarisasi—di mana kelompok-kelompok masyarakat terpecah menjadi kubu yang saling bertentangan, dengan pandangan yang semakin ekstrem.
Dalam buku Disrupsi Digital: Dampak Teknologi terhadap Masyarakat dan Perubahan Perilaku (2020), Yanuar Nugroho dan Wisnu Prasetya Utomo menjelaskan bahwa teknologi digital, termasuk AI, secara signifikan mempengaruhi perilaku kita sehari-hari. Media sosial, sebagai ruang publik utama, kini memainkan peran penting dalam membentuk opini dan pandangan kita. Ketika algoritma hanya menampilkan konten yang sejalan dengan pandangan kita, ruang diskusi menjadi sempit, dan orang-orang cenderung terjebak dalam echo chamber—sebuah situasi di mana kita hanya mendengar opini yang mendukung keyakinan kita sendiri.
Budi Gunawan dan Barito Mulyo Ratmono dalam bukunya Kebohongan di Dunia Maya (2021) juga menunjukkan bahwa algoritma di media sosial ikut andil dalam menyebarkan ideologi radikal. Bagaimana caranya? Ketika seseorang mulai tertarik pada konten yang berkaitan dengan paham tertentu, algoritma akan terus menampilkan konten serupa. Seiring waktu, pandangan orang tersebut bisa semakin ekstrem, terjebak dalam lingkaran informasi yang memperkuat keyakinan mereka. Inilah yang memicu polarisasi lebih jauh dan membuka jalan bagi radikalisasi.
Ketika Polarisasi Berujung Radikalisme
Polarisasi yang didorong oleh algoritma media sosial tidak hanya memecah masyarakat, tetapi juga bisa mengarah pada radikalisasi. Orang-orang yang merasa terasingkan atau tidak puas dengan keadaan sosial atau politik sering kali menjadi sasaran empuk radikalisasi. Dalam jurnal Membangun Kebhinekaan di Era Digital: Peran Platform Media Sosial dalam Meningkatkan Kesadaran Multikultural (2024), Auliya Syahda Al Lathief menjelaskan bahwa algoritma tidak hanya memperkuat polarisasi, tetapi juga membantu penyebaran konten ekstremis kepada orang-orang yang rentan.
Contoh yang paling jelas terlihat pada YouTube, di mana algoritma rekomendasinya kerap mendorong pengguna untuk menonton video yang semakin ekstrem. Seseorang yang awalnya hanya menonton video dengan pandangan politik moderat, dalam waktu singkat bisa disuguhkan video-video yang jauh lebih ekstrem. Kenapa bisa begitu? Karena algoritma dirancang untuk meningkatkan click-through rate (CTR), atau tingkat keterlibatan pengguna. Konten yang memicu emosi kuat—seperti marah atau takut—cenderung membuat orang lebih sering berinteraksi, dan ini menguntungkan platform.
Namun, radikalisasi di dunia digital tidak selalu dimulai dengan konten ekstrem. Dalam buku Ekstremisme dan Radikalisme dalam Dunia Pendidikan (2019), Syamsul Arifin menjelaskan bahwa radikalisasi sering kali terjadi secara perlahan. Algoritma mulai dengan menampilkan konten moderat yang relevan dengan minat pengguna, lalu secara bertahap memperkenalkan konten yang lebih ekstrem. Proses ini dikenal dengan istilah radicalization pipeline, di mana pengguna bergerak dari pandangan moderat ke ekstrem tanpa menyadari perubahan tersebut.
Siapa yang Bertanggung Jawab?
Melihat dampak buruk ini, pertanyaan penting pun muncul: siapa yang seharusnya bertanggung jawab? Dalam artikel Algoritma Gelap di Media Sosial (Tempo, 2019), Didi Achjaru menjelaskan bahwa meski platform media sosial seperti Facebook dan Twitter sudah berusaha menangani konten radikal, algoritma mereka tetap menjadi masalah. Algoritma dirancang untuk memaksimalkan keterlibatan pengguna, dan dalam prosesnya, malah memperkuat narasi radikal.
Beberapa platform media sosial sudah berupaya memoderasi konten dengan menggunakan AI untuk mendeteksi dan menghapus konten berbahaya. Namun, upaya ini sering dianggap tidak cukup. Mengapa? Karena sistem moderasi biasanya bekerja setelah konten radikal sudah dipublikasikan dan menyebar. Ini membuat upaya mereka terkesan reaktif, bukan preventif.
Algoritma AI harus didesain ulang untuk tidak hanya mengejar keterlibatan pengguna, tetapi juga memikirkan dampak sosial dari konten yang ditampilkan. AI perlu lebih cerdas dan memperhitungkan konteks sosial-politik saat menampilkan atau menyaring konten. Hanya dengan cara ini, media sosial bisa lebih efektif menangkal radikalisme yang dipicu oleh polarisasi.
Mengembangkan Algoritma yang Lebih Etis
Untuk mencegah AI memicu radikalisme, kita perlu membangun algoritma yang lebih etis. Dalam buku Algoritma dan Struktur Data (2019), Rinaldi Munir menekankan pentingnya memahami desain algoritma secara bijaksana. Algoritma tidak boleh hanya berfokus pada performa teknis, tetapi juga harus mempertimbangkan dampaknya terhadap masyarakat. Pengembang algoritma harus mulai memprioritaskan kesejahteraan sosial di atas sekadar meningkatkan keterlibatan pengguna.
Beberapa langkah penting yang bisa diambil adalah meningkatkan transparansi dalam cara kerja algoritma dan memperkuat akuntabilitas platform. Transparansi memungkinkan pengguna untuk memahami bagaimana konten direkomendasikan kepada mereka. Selain itu, perusahaan teknologi harus lebih bertanggung jawab dalam mengevaluasi dampak sosial dari teknologi yang mereka kembangkan.
Selain tanggung jawab di pihak platform, literasi digital di kalangan masyarakat juga perlu ditingkatkan. Pengguna harus lebih sadar tentang bagaimana algoritma bekerja dan bagaimana mereka bisa terjebak dalam ruang gema yang hanya memperkuat pandangan mereka. Dengan pemahaman yang lebih baik, masyarakat akan lebih kritis terhadap informasi yang mereka konsumsi, sehingga lebih sulit terpengaruh oleh konten radikal.
Algoritma AI di media sosial tidak lagi hanya sekadar alat untuk meningkatkan keterlibatan pengguna, mereka juga punya peran besar dalam memperparah polarisasi sosial dan mendorong radikalisasi. Tanpa kontrol yang tepat, algoritma ini bisa menjadi ancaman nyata bagi persatuan sosial dan stabilitas nasional.
Untuk mencegah dampak buruk ini, kita membutuhkan kolaborasi antara pengembang teknologi, pemerintah, dan masyarakat. Dengan mengembangkan algoritma yang lebih etis, meningkatkan literasi digital, dan memastikan platform lebih bertanggung jawab atas dampak sosialnya, kita bisa mencegah AI menjadi alat yang memperkuat radikalisme di masa depan.








Leave a Comment