Pengaruh Sistem Rekomendasi Digital terhadap Tatanan Sosial Masyarakat

Pernah nggak sih kamu scroll TikTok atau YouTube dan merasa kayak lagi berada di dunia yang isinya cuma orang-orang yang setuju sama kamu? Nah, itu bukan kebetulan. Itu adalah hasil kerja sistem rekomendasi—alias algoritma yang ngatur apa yang kamu lihat di platform digital.

Salah satu kekhawatiran besar terkait algoritma rekomendasi adalah potensi mereka dalam memupuk filter bubble dan echo chamber, yang dapat membatasi individu terhadap informasi yang beragam sehingga meningkatkan polarisasi politik dan sosial (Kawahata, 2024). Desain algoritma rekomendasi cenderung memprioritaskan konten yang mirip dengan apa yang telah disukai oleh pengguna lain sehingga mendorong lingkungan di mana pengguna lebih banyak terpapar informasi yang mengkonfirmasi keyakinan mereka sebelumnya. Kurangnya paparan terhadap perspektif yang beragam dapat memperkuat bias dan berpotensi mengarah pada pandangan ekstrimis (Bojić, et al. 2021).

Namun, penelitian juga menunjukkan bahwa dampak sistem rekomendasi terhadap polarisasi politik mungkin lebih kompleks daripada yang diperkirakan. Beberapa studi menunjukkan bahwa preferensi dan pilihan pengguna memiliki peran signifikan dalam membentuk pola konsumsi informasi mereka (Pavlak, 2025). Kemauan pengguna untuk secara aktif mencari pandangan yang beragam, bisa memberikan pengaruh yang lebih kuat dibandingkan dengan sistem rekomendasi itu sendiri (Liu, et al., 2025). Selain itu, penelitian tersebut juga menunjukkan bahwa efek jangka pendek dari algoritma rekomendasi terhadap sikap politik pengguna mungkin tidak sebesar yang diperkirakan sebelumnya. Meski demikian, konsekuensi jangka panjang dari sistem rekomendasi terhadap pembentukan dan penguatan opini sosial masih perlu diteliti lebih lanjut.

Sistem rekomendasi juga berkontribusi dalam memfasilitasi penyebaran misinformasi dan disinformasi (hoaks) secara daring (Jayakumar, 2024). Algoritma-algoritma ini dapat secara tidak sengaja mempromosikan konten yang sensasional atau emosional, termasuk informasi-informasi yang keliru atau menyesatkan (eSafetyCommissioner, 2022). Dengan membatasi perspektif yang beragam, sistem rekomendasi dapat membuat pengguna lebih rentan untuk menerima informasi yang keliru sebagai kebenaran (Fernandez & Bellogin, 2020).

Selain itu, ketergantungan terhadap sistem rekomendasi untuk mengonsumsi konten, seperti musik, film, dan sastra, telah menimbulkan kekhawatiran terhadap keberagaman budaya (Moradi, et al. 2025). Masalah utama dalam konteks ini adalah bias popularitas, di mana sistem rekomendasi cenderung merekomendasikan produk atau konten populer karena jumlah data interaksi pengguna yang lebih besar. Bias ini dapat menyebabkan representasi yang berlebihan dari budaya yang lebih dominan, sementara meminggirkan kelompok marjinal dan ekspresi budaya mereka. Amplifikasi algoritmik dari konten mainstream dapat menyebabkan homogenisasi budaya, membatasi keragaman budaya, dan berpotensi menghambat penemuan produk budaya dari kelompok minoritas atau niche (Zhou et al., 2010).

Pengaruh sistem rekomendasi juga berpotensi memperburuk ketimpangan ekonomi yang ada (Yohe, 2023). Cara sistem rekomendasi dalam memengaruhi kompetisi pasar juga dapat memiliki konsekuensi ekonomi. Algoritma yang sangat mendukung barang-barang populer dapat membuat pendatang baru kesulitan untuk mendapatkan visibilitas, sehingga mengurangi inovasi (Calvano, et al. 2023). Oleh karena itu, pertimbangan yang cermat tentang keadilan dan kesetaraan dalam desain sistem rekomendasi sangat penting untuk mencegah penguatan ketimpangan ekonomi dan mendorong pasar digital yang lebih inklusif dan kompetitif.

Mengingat peran sentral mereka dalam memediasi informasi, sistem rekomendasi memiliki pengaruh signifikan terhadap proses demokrasi dan kohesi sosial. Di era ini, algoritma telah bertindak sebagai penjaga gerbang untuk menentukan konten mana yang menjadi sorotan dan suara mana yang didengar. Kecenderungan beberapa sistem rekomendasi untuk menciptakan filter bubble dan echo chamber, seperti yang telah dibahas sebelumnya, dapat membatasi paparan warga terhadap berbagai perspektif, yang berpotensi menghambat diskursus politik dan semakin mendorong polarisasi sosial.

Referensi:

  • Fernandez, M., & Bellogín, A. (2020). Recommender systems and misinformation: the problem or the solution?.
  • Moradi, A., Neophytou, N., Carichon, F., & Farnadi, G. (2025, April). Embedding Cultural Diversity in Prototype-based Recommender Systems. In European Conference on Information Retrieval (pp. 17-31). Cham: Springer Nature Switzerland.
  • Zhou, T., Kuscsik, Z., Liu, J. G., Medo, M., Wakeling, J. R., & Zhang, Y. C. (2010). Solving the apparent diversity-accuracy dilemma of recommender systems. Proceedings of the National Academy of Sciences, 107(10), 4511-4515.
  • Yohe, K. A. (2023). Towards Global, Socio-Economic, and Culturally Aware Recommender Systems. arXiv preprint arXiv:2312.05805.
  • Li, L. (2017). Economics of Recommender Systems in Online Marketplaces (Doctoral dissertation).
  • Calvano et al. (2023). AI-powered recommendations enhance users’ experience but lessen competition
Disclaimer: Sebagian konten dalam tulisan ini dikembangkan dengan bantuan teknologi kecerdasan buatan (AI). Ide utama dan draf awal tulisan merupakan kontribusi orisinal penulis. AI digunakan sebagai alat bantu untuk mempercepat penulisan (OpenAI ChatGPT), mencari dan mengumpulkan literatur yang relevan (DeepSearch, Google Gemini), serta menciptakan ilustrasi di awal (ChatGPT). Penulis tetap melakukan kurasi dan pengeditan naskah, serta pengecekan terhadap literatur untuk memastikan akurasi dan relevansinya. Penggunaan AI tidak menggantikan tanggung jawab intelektual penulis, melainkan berfungsi sebagai mitra kreatif dalam pengembangan materi.

Dampak Sistem Rekomendasi Digital terhadap Kesehatan Mental

Sistem rekomendasi kini menjadi bagian penting dari berbagai platform digital, mulai dari media sosial hingga e-commerce dan aplikasi kesehatan. Meskipun dirancang untuk membantu pengguna menyaring informasi dan membuat keputusan lebih mudah, berbagai penelitian menunjukkan bahwa sistem ini juga dapat membawa dampak negatif, terutama terhadap kesehatan mental dan kualitas pengambilan keputusan.

Integrasi recommender systems ke dalam platform media sosial telah menimbulkan kekhawatiran terhadap dampak negatifnya pada kesehatan mental. Penelitian menunjukkan adanya korelasi negatif antara algorithmic feeds, seperti yang digunakan di Instagram, dengan kesehatan mental pada remaja (Simona, 2025). Efek negatif ini kemungkinan besar dipicu oleh penguatan algoritmik terhadap konten yang mendorong perbandingan sosial yang negatif, sehingga menimbulkan perasaan tidak cukup pantas (inadequacy) dan penurunan kepercayaan diri. Paparan terus-menerus terhadap citra ideal dari orang lain dapat menciptakan lingkungan yang memicu kecemasan dan depresi, terutama untuk kalangan yang rentan.

Selain itu, desain algoritma yang memprioritaskan user engagement juga berkontribusi pada pola doomscrolling, di mana orang terus menerus ditunjukkan konten dengan citra yang ideal sehingga memperparah ketidakpuasan terhadap kondisi diri dan memicu dampak kesehatan mental lainnya (Kawahata, 2024). Dengan demikian, kurasi konten oleh algoritma perlu dipertimbangkan secara hati-hati karena potensinya dalam memperburuk kondisi psikologis pengguna.

Dampak dari recommender systems juga meluas ke ranah pengambilan keputusan pengguna di berbagai konteks, mulai dari belanja daring, konsumsi informasi, hingga pilihan terkait kesehatan. Meskipun tujuan awalnya adalah membantu pengguna menyaring informasi yang berlebih dan mempermudah proses memilih, sistem ini juga dapat memperkenalkan berbagai bentuk bias serta membatasi eksplorasi terhadap alternatif lain, yang dapat mengarah pada keputusan yang kurang optimal (Carnovalini, et al., 2025). Misalnya, sistem sering kali dioptimalkan untuk mencapai metrik keterlibatan seperti click-through rate, yang berujung pada penayangan konten yang hanya memperkuat preferensi yang sudah ada. Hal ini dapat menciptakan filter bubbles, di mana pengguna hanya menerima informasi yang sesuai dengan pandangan mereka saat ini, sehingga membatasi paparan terhadap perspektif yang berbeda (Cha, et al. 2024). Selain itu, banyak recommender systems tidak mempertimbangkan secara memadai berbagai bias keputusan seperti position effects atau framing effects yang terbukti memengaruhi pilihan pengguna. Bahkan, dalam beberapa kasus, desain sistem justru secara tidak sengaja memperkuat bias tersebut, sehingga menghasilkan keputusan yang menyimpang atau terdistorsi (Teppan & Zanker, 2015)

Dengan demikian, meskipun algoritma rekomendasi dirancang untuk memberikan kemudahan dan efisiensi, berbagai penelitian menunjukkan bahwa sistem ini dapat membawa konsekuensi yang tidak diinginkan, mulai dari masalah kesehatan mental hingga distorsi dalam pengambilan keputusan. Oleh karena itu, desain algoritma yang lebih etis diperlukan, agar sistem rekomendasi benar-benar dapat mendukung kesejahteraan dan kesehatan pengguna.

Referensi

  1. Mandile, S. (2025). The Dark Side of Social Media: Recommender Algorithms and Mental Health (No. 11648). CESifo.
  2. Kawahata, Y (2024). Algorithmic Pollution and Its Impact on Mental Health: Provisional Study Evaluating the Risks of Induced Reliance on Short-Form Video Content. American Journal of Biomedical Science & Research.
  3. Jayakumar, P. (2024). For You Page or For Corporate Profits: How Recommender Systems are Harmfully Designed.
  4. Carnovalini, F., Rodà, A., & Wiggins, G. A. (2025). Popularity Bias in Recommender Systems: The Search for Fairness in the Long Tail. Information, 16(2), 151. https://doi.org/10.3390/info16020151
  5. Cha, S., Loeser, M., & Seo, K. (2024). The Impact of AI-Based Course-Recommender System on Students’ Course-Selection Decision-Making Process. Applied Sciences, 14(9), 3672. https://doi.org/10.3390/app14093672
  6. Teppan, E. C., & Zanker, M. (2015). Decision biases in recommender systems. Journal of Internet Commerce, 14(2), 255-275.
Disclaimer: Sebagian konten dalam tulisan ini dikembangkan dengan bantuan teknologi kecerdasan buatan (AI). Ide utama dan draf awal tulisan merupakan kontribusi orisinal penulis. AI digunakan sebagai alat bantu untuk mempercepat penulisan (OpenAI ChatGPT), mencari dan mengumpulkan literatur yang relevan (Google Gemini), serta menciptakan ilustrasi di awal (ChatGPT). Penulis tetap melakukan kurasi dan pengeditan naskah, serta pengecekan terhadap literatur untuk memastikan akurasi dan relevansinya. Penggunaan AI tidak menggantikan tanggung jawab intelektual penulis, melainkan berfungsi sebagai mitra kreatif dalam pengembangan materi.

Etika Penggunaan AI untuk Tugas Kuliah

Generative AI (GenAI) – seperti ChatGPT, Gemini, atau DeepSeek – makin sering dipakai mahasiswa buat bantu ngerjain tugas kuliah. Tapi pertanyaannya: boleh nggak sih sebenarnya pakai AI?

TL/IDR: boleh, tapi harus tahu etika penggunaannya.

Yuk kita kupas kapan boleh dan tidak boleh pakai GenAI dalam perkuliahan.

Kapan Boleh Pakai AI?

Umumnya, GenAI boleh digunakan untuk hal-hal seperti:

  1. Brainstorming: Bingung mau nulis apa? Pakai GenAI buat cari ide awal atau bikin outline kasar. Lalu kembangkan gagasan tersebut secara mandiri.
  2. Meringkas Teks yang Panjang: Pakai AI untuk mendapatkan gambaran umum dan skimming teks panjang, tapi bukan untuk menggantikan proses membaca keseluruhan.
  3. Belajar Materi Sulit: Minta penjelasan ulang dari AI saat dosenmu ngajarin konsep rumit pakai bahasa alien.
  4. Ngecek Tata Bahasa: Pakai AI buat ngecek grammar atau nyari kalimat yang lebih enak dibaca.
  5. Bantu Coding (kalo dibolehkan dosen): Kalau kamu kuliah di jurusan yang butuh ngoding, AI bisa bantu debug atau kasih saran — asal kamu paham konsep dasarnya dulu ya.
  6. Latihan Soal: Mau belajar sebelum ujian? Suruh AI buatin soal-soal latihan buat ngetes pemahaman kamu.
  7. Mencari Pendapat yang Berbeda: Minta AI untuk mencari pendapat yang berbeda dengan pendapatmu untuk meperkaya dan mempertajam argumen dalam analisismu.

Kapan Tidak Boleh? 🚫

Beberapa penggunaan AI berikut dapat melanggar etika akademik:

  1. Mengklaim hasil AI sebagai karyamu sendiri: copas mentah-mentah jawaban dari AI (teks, gambar, suara, video, code) dan mengakuinya sebagai hasil karyamu sendiri.
  2. Menggantikan tugas berpikir kritis: membuat keseluruhan esai, solusi, dan hasil karya kreatif, yang diharapkan untuk kamu buat sendiri.
  3. Mengabaikan proses belajar: menggantungkan kepada AI untuk menjawab pertanyaan atau tugas yang sulit tanpa berusaha mengembangkan pemahaman sendiri.
  4. Membuat kutipan, data, atau referensi palsu hasil karangan AI.
  5. Mengunggah data sensitif: data privat, data perusahaan, ataupun data sensitif lainnya tidak boleh diunggah ke AI.

Kalau kamu tetap ngelakuin itu bisa-bisa dianggap plagiarisme, dan itu termasuk pelanggaran serius di dunia akademik (e.g. bisa kena sanksi bahkan hingga dikeluarkan dari kampus).

Bagaimana Etika Menggunakan AI? 💕

Kalau kamu pakai GenAI yang berkontribusi signifikan ke isi tugasmu, seperti:

  • Membuat outline atau struktur laporan yang benar-benar membentuk hasil akhir tugasmu.
  • Menyisipkan kalimat, paragraf, atau ide hasil dari AI, meskipun sudah kamu edit.
  • Membuat kode, analisis data, atau solusi spesifik yang jadi bagian tugasmu.
  • Meringkas sumber bacaan yang kemudian kamu pakai di tulisanmu.

Maka kamu wajib melaporkan secara transparan dalam sebuah “pernyataan pengungkapan” (disclosure statement) yang minimal berisikan: nama platform AI yang digunakan dan bagaimana cara penggunaannya (misal: brainstorming, meringkas, bantu coding, bikin gambar).

Cara pengungkapan bisa lewat:

1. Pernyataan Umum (Acknowledgment):

“Penulis menggunakan bantuan ChatGPT 4.0 untuk mengembangkan ide awal dan memperbaiki struktur kalimat dalam penugasan ini.”

2. Catatan Kaki (Footnote):

Bagian argumentasi awal dikembangkan dengan bantuan Gemini (akses 14 April 2025) menggunakan prompt: ‘Apa saja dampak sosial dari subsidi energi?'

3. Di bagian metode penelitian:

Selama proses brainstorming, ChatGPT digunakan untuk mengeksplorasi berbagai topik seputar ekonomi sirkular. Ide-ide yang relevan kemudian dikembangkan lebih lanjut dengan kajian pustaka manual.

Mari kita gunakan GenAI sebagai alat bantu belajar, bukan sebagai joki digital. Jika kamu menggunakan AI, maka kamu wajib menyebutkan dengan jujur dan terbuka. Tugas kuliah harus mencerminkan pemahaman dan usaha kamu sendiri. Kalau kamu ragu, tanya dosennya langsung. Setiap kampus dan mata kuliah bisa punya aturan yang beda. Jadi, selalu cek kebijakan di kampus-mu masing-masing ya.