Filter Bubble dan Krisis Realitas: Bagaimana Arsitektur Kognitif Memecah Masyarakat Global

Table of Contents

Filter Bubble dan Krisis Realitas
Fenomena gelembung filter (filter bubble) telah berkembang melampaui sekadar istilah teknis menjadi sebuah krisis epistemologis sistemik yang mendefinisikan ulang cara manusia modern memahami realitas. Sejak aktivis internet Eli Pariser mempopulerkan konsep ini pada tahun 2011, perdebatan mengenai dampaknya terhadap kohesi sosial, otonomi individu, dan stabilitas demokrasi telah menjadi pusat perhatian multidisipliner. 

Pada intinya, gelembung filter adalah kondisi isolasi intelektual yang tercipta ketika algoritma personalisasi secara selektif menyaring informasi yang disajikan kepada pengguna berdasarkan data historis seperti lokasi, perilaku klik, dan preferensi masa lalu. Struktur ini menciptakan ekosistem informasi yang sangat terkurasi, di mana individu secara konsisten terpapar pada gagasan yang memperkuat keyakinan mereka sendiri, sementara pandangan yang menantang atau berbeda secara sistematis disingkirkan dari pandangan digital mereka.

Evolusi konsep ini mencerminkan transisi fundamental dalam sejarah internet, dari era Web 1.0 yang berbasis direktori manual hingga Web 2.0 yang didominasi oleh kecerdasan buatan. Pada awal 1990-an, pencarian informasi memerlukan prosedur rumit dan alamat web yang kompleks, namun munculnya mesin pencari di pertengahan dekade tersebut mulai menyederhanakan proses ini melalui kata kunci.

Namun, titik balik sesungguhnya terjadi ketika perusahaan teknologi mulai menggunakan algoritma untuk mempersonalisasi hasil pencarian bukan hanya berdasarkan relevansi kata kunci, tetapi berdasarkan profil pengguna. Transformasi ini mengubah internet dari perpustakaan publik yang universal menjadi serangkaian cermin yang hanya memantulkan preferensi penggunanya, menciptakan apa yang disebut Pariser sebagai "autopropaganda tidak terlihat".

Mekanisme Teknologis: Dari Machine Learning hingga Deep Filter Bubble

Struktur teknis di balik gelembung filter berakar pada arsitektur sistem rekomendasi modern yang memanfaatkan pembelajaran mesin (machine learning) tingkat lanjut. Algoritma ini beroperasi melalui proses tiga tahap yang sistematis: pengumpulan data historis, prediksi minat melalui pemodelan statistik, dan penyajian konten yang dioptimalkan untuk keterlibatan maksimal. Platform media sosial seperti Facebook, YouTube, dan TikTok menggunakan metrik seperti waktu tonton, kecepatan gulir, dan interaksi eksplisit (likes, shares) untuk membangun profil psikografis pengguna yang sangat detail.

Personalisasi Implisit dan Eksplisit

Dalam memahami mekanisme ini, penting untuk membedakan antara personalisasi eksplisit dan implisit. Personalisasi eksplisit terjadi ketika pengguna secara sadar memilih untuk mengikuti akun atau topik tertentu, yang sering dikaitkan dengan pembentukan ruang gema (echo chambers). Sebaliknya, gelembung filter secara dominan digerakkan oleh personalisasi implisit, di mana algoritma kecerdasan buatan memprediksi preferensi tanpa input sadar dari pengguna. Di sini, pengguna sering kali menjadi korban pasif dari teknologi yang membatasi cakrawala informasi mereka demi menjaga mereka tetap berada di dalam platform selama mungkin.

Personalisasi Implisit dan Eksplisit

Fenomena Deep Filter Bubble pada Platform Video Pendek

Penelitian terbaru pada tahun 2024 dan 2025 telah mengidentifikasi varian yang lebih agresif yang dikenal sebagai deep filter bubble (gelembung filter mendalam), khususnya pada platform seperti TikTok. Jika gelembung filter tradisional membatasi pengguna pada kategori topik yang luas, deep filter bubble menggambarkan penyempitan paparan dalam minat yang sudah ada. Sebagai contoh, dalam hierarki kategori video, seorang pengguna yang tertarik pada "olahraga" mungkin secara bertahap didorong untuk hanya melihat konten "sepak bola", dan akhirnya hanya konten tentang satu klub spesifik, sehingga mematikan eksplorasi pada sub-kategori lain yang relevan.

Platform video pendek memiliki risiko lebih tinggi dalam pembentukan gelembung mendalam karena mereka sangat bergantung pada umpan balik perilaku seketika. Sinyal implisit seperti menonton video hingga selesai tanpa melewati (skipping) memberikan data yang jauh lebih padat bagi algoritma untuk melakukan eksploitasi minat daripada eksplorasi konten baru. Hal ini menciptakan paradoks di mana semakin akurat sistem memprediksi selera pengguna, semakin sempit pula "ruang gerak" informasi yang tersedia bagi pengguna tersebut.

Dimensi Psikologis: Bias Konfirmasi dan Distorsi Realitas

Efektivitas gelembung filter sangat bergantung pada kerentanan kognitif manusia. Manusia secara biologis diprogram untuk mencari informasi yang memvalidasi keyakinan mereka dan menghindari disonansi kognitif yang menimbulkan stres psikologis. Algoritma mengeksploitasi kecenderungan ini dengan menciptakan lingkungan yang "bebas gesekan" (frictionless), di mana setiap keping informasi terasa akrab dan menghibur.

Overconfidence dan Inakurasi Generalisasi

Dampak psikologis yang paling mengkhawatirkan adalah timbulnya rasa percaya diri yang berlebihan pada pengetahuan yang salah. Sebuah studi dari Ohio State University pada tahun 2025 menunjukkan bahwa ketika algoritma mengontrol aliran informasi, pengguna cenderung membangun generalisasi yang menyapu dari subset data yang sangat terbatas. Partisipan dalam studi tersebut sering kali memberikan jawaban yang salah dalam tes pengetahuan tetapi menunjukkan tingkat keyakinan yang lebih tinggi daripada mereka yang terpapar pada informasi yang tidak terfilter. Hal ini membuktikan bahwa gelembung filter tidak hanya membatasi apa yang kita ketahui, tetapi juga merusak kemampuan kita untuk menilai batas-batas dari ketidaktahuan kita sendiri.

Erosi Serendipitas dan Discovery

Selain penguatan bias, gelembung filter menyebabkan hilangnya "serendipitas"—kemampuan untuk menemukan sesuatu yang berharga secara tidak sengaja. Dalam lingkungan digital yang dioptimalkan untuk kepuasan yang diprediksi, peluang untuk tersandung pada ide yang tidak terduga atau perspektif yang benar-benar baru menjadi sangat minim. Hal ini berakibat pada penyempitan pertumbuhan intelektual, karena individu hanya terus mengonsumsi variasi dari apa yang sudah mereka ketahui, sebuah kondisi yang digambarkan oleh Pariser sebagai "autopropaganda" yang mematikan rasa ingin tahu terhadap yang tidak diketahui.

Sosiologi Pengetahuan: Konstruksi Sosial Realitas dalam Era Algoritma

Pendekatan sosiologis melalui kerangka kerja Peter Berger dan Thomas Luckmann dalam "The Social Construction of Reality" memberikan perspektif mendalam tentang bagaimana algoritma bertindak sebagai agen pelembagaan baru. Menurut Berger dan Luckmann, realitas sosial diciptakan melalui proses dialektis: eksternalisasi (manusia bertindak), objektivasi (tindakan menjadi pola/institusi), dan internalisasi (generasi baru menerima pola tersebut sebagai kebenaran mutlak).

Algoritma sebagai Institusi Realitas

Dalam konteks digital, algoritma melakukan otomatisasi terhadap proses "habitalisasi"—pengubahan tindakan berulang menjadi pola yang menghemat upaya mental. Algoritma mengumpulkan jejak digital pengguna (eksternalisasi), memprosesnya menjadi profil data yang tampak objektif dan mandiri (objektivasi), dan kemudian menyajikan kembali realitas tersebut kepada pengguna sebagai satu-satunya dunia yang ada (internalisasi). Bahayanya terletak pada fakta bahwa jika pada masyarakat tradisional institusi dibangun melalui negosiasi intersubjektif, institusi algoritmik bersifat opak dan sepihak.

Teori Manuel Castells tentang "Masyarakat Jaringan" (Network Society) semakin memperjelas fragmentasi ini. Castells berargumen bahwa kekuasaan kini bergeser dari penguasaan atas wilayah fisik menuju penguasaan atas "ruang arus" (space of flows) informasi. Gelembung filter menciptakan segmentasi dalam ruang arus ini, di mana kelompok-kelompok sosial tidak lagi berbagi realitas objektif yang sama, melainkan hidup dalam semesta paralel yang dikonstruksi oleh kepentingan komersial platform. Hal ini menyebabkan apa yang disebut sebagai "kolaps konteks," di mana informasi berpindah antar lingkungan digital tanpa isyarat sosiokultural yang memadai, sehingga memudahkan terjadinya mispersepsi dan radikalisasi.

Meta-Kapital Algoritmik dan Kekuasaan Simbolik

Mengintegrasikan pemikiran Pierre Bourdieu, platform digital dapat dilihat sebagai pemegang "meta-kapital algoritmik"—sebuah bentuk kekuasaan yang memungkinkan mereka untuk menentukan aturan main dalam berbagai ranah (fields) sosial. Algoritma tidak hanya menyaring konten, tetapi juga memberikan visibilitas dan status (modal simbolik) kepada narasi tertentu. Hegemoni digital ini bermanifestasi ketika pengguna mulai menganggap kurasi algoritmik sebagai sesuatu yang netral, padahal ia secara aktif memproduksi perbedaan sosial dan memperkuat hierarki kekuasaan neoliberal melalui pengawasan yang meresap.

Ekonomi Politik: Kapitalisme Surveilans dan Modifikasi Perilaku

Gelembung filter tidak dapat dipisahkan dari logika ekonomi "Kapitalisme Surveilans" yang diuraikan oleh Shoshana Zuboff. Dalam model bisnis ini, pengalaman pribadi manusia diklaim secara sepihak sebagai bahan baku untuk diterjemahkan menjadi data perilaku bagi pasar prediksi masa depan. Gelembung filter adalah alat yang sangat efisien untuk tujuan ini karena ia meningkatkan "prediktabilitas" perilaku pengguna.

Imperatif Kepastian dan Pengurangan Otonomi

Platform memiliki insentif ekonomi untuk menjaga pengguna dalam keadaan informasi yang stabil. Ketidakpastian adalah musuh dari akurasi prediksi; oleh karena itu, algoritma "mendorong" (nudging) pengguna ke arah pola konsumsi yang konsisten dengan profil mereka. Proses ini bukan hanya tentang memantau, tetapi tentang "menggerakkan" (actuating) perilaku melalui penghargaan dan hukuman subliminal dalam antarmuka digital. Akibatnya, otonomi individu terkikis demi keuntungan perusahaan teknologi, di mana manusia tidak lagi dipandang sebagai subjek yang memiliki kehendak, melainkan sebagai "sel" dalam sebuah "sarang" digital yang dikendalikan untuk kepastian maksimal.

Imperatif Kepastian dan Pengurangan Otonomi

Dampak Sosial-Politik: Krisis Demokrasi dan Polarisasi Toksik

Dalam ranah politik, gelembung filter telah menjadi katalisator bagi polarisasi yang ekstrem dan erosi diskursus publik yang sehat. Demokrasi deliberatif, sebagaimana yang dibayangkan oleh Jurgen Habermas, memerlukan ruang publik di mana warga negara dapat berdebat berdasarkan alasan rasional dan fakta yang disepakati. Gelembung filter menghancurkan prasyarat ini dengan menciptakan semesta informasi yang saling bertentangan, di mana kelompok-kelompok yang berbeda tidak lagi memiliki dasar fakta yang sama untuk berkomunikasi.

Studi Kasus: Pemilu Indonesia 2024 dan TikTok

Indonesia memberikan studi kasus yang signifikan mengenai bagaimana algoritma video pendek mempengaruhi perilaku politik. Dengan jumlah pengguna TikTok terbesar kedua di dunia, masyarakat Indonesia sangat rentan terhadap "polarisasi toksik". Algoritma TikTok cenderung memprioritaskan konten yang memicu emosi tinggi dan keterlibatan cepat, yang sering kali berupa konten partisan atau disinformasi berbasis SARA.

Selama kampanye Pemilu 2024, fitur For You Page (FYP) menciptakan ruang di mana pendukung kandidat tertentu hanya terpapar pada narasi yang memuja pihak mereka dan menjelekkan lawan tanpa adanya ruang untuk klarifikasi atau debat lintas perspektif. Hal ini mengakibatkan terjadinya isolasi intelektual massal, di mana individu tidak lagi mampu menerima kritik atau mengenali kebenaran dalam pandangan orang lain, yang pada akhirnya dapat menyebabkan stagnasi demokrasi dan persekusi terhadap suara-suara minoritas.

Polarisasi Geografis dan Pengaruh Influencer

Di Amerika Serikat, penelitian menunjukkan bahwa algoritma TikTok juga sensitif terhadap data geografis, yang menciptakan gelembung filter regional. Pengguna di daerah konservatif lebih mungkin terpapar pada pengaruh sayap kanan, sementara pengguna di daerah liberal terpapar pada narasi progresif, sehingga memperdalam perpecahan nasional bahkan dalam ruang digital. Selain itu, dinamika influencer sering kali hanya memperkuat gelembung ini karena audiens mereka cenderung bersifat homogen secara ideologis, menciptakan persepsi palsu bahwa mayoritas masyarakat mendukung pandangan ekstrem mereka.

Debat Akademik: Mitos vs. Realitas dalam Studi Gelembung Filter

Penting untuk dicatat bahwa tidak semua peneliti setuju dengan tingkat keparahan gelembung filter yang digambarkan oleh Pariser. Debat "Mitos vs. Realitas" ini menyoroti kompleksitas interaksi manusia dengan teknologi yang tidak dapat direduksi menjadi determinisme teknologis semata.

Argumen Skeptis: Agensi Pengguna dan Paparan Tidak Sengaja

Beberapa peneliti, seperti Richard Fletcher dari Reuters Institute, berargumen bahwa pengguna internet sebenarnya sering terpapar pada keragaman sumber informasi yang lebih luas melalui media sosial dibandingkan mereka yang tidak menggunakannya. Fenomena ini terjadi karena pengguna terpapar secara insidental pada konten yang dibagikan oleh jaringan sosial mereka yang heterogen. Selain itu, ada bukti yang menunjukkan bahwa polarisasi justru bisa meningkat ketika orang terpapar pada pandangan yang berlawanan, karena hal itu memicu reaksi defensif dan memperkuat posisi awal mereka—sebuah proses yang dikenal sebagai efek bumerang kognitif.

Konsep Mirasi Digital dan Fluktuasi Algoritmik

Penelitian terbaru dari University of Twente pada tahun 2026 menantang ide bahwa gelembung filter adalah struktur yang statis dan stabil. Melalui pengumpulan data otomatis, ditemukan bahwa hasil pencarian di Google dan mesin lainnya sebenarnya bersifat fluktuatif dan terus berubah. Fenomena ini disebut sebagai "mirasi digital," di mana konfigurasi informasi muncul dan larut secara dinamis tergantung pada perilaku pengguna dan konteks sosial. Pandangan ini menyarankan bahwa masalahnya bukan pada "penjara" informasi yang tetap, melainkan pada ketidakstabilan realitas yang membuat kebenaran sulit untuk dikenali dan dipertahankan secara kolektif.

Solusi dan Mitigasi: Intervensi Algoritmik dan Regulasi Global

Menghadapi tantangan gelembung filter memerlukan pendekatan sistemik yang mencakup rekayasa teknologi, kebijakan hukum, dan pemberdayaan individu.

Mitigasi Algoritmik: Beyond Accuracy

Dalam bidang kecerdasan buatan, fokus penelitian mulai bergeser dari sekadar optimasi akurasi menuju metrik "di luar akurasi" (beyond accuracy) seperti diversitas, serendipitas, dan keadilan. Salah satu strategi yang menjanjikan adalah penggunaan Large Language Model (LLM) embeddings untuk menyandikan informasi semantik tentang item yang direkomendasikan, sehingga sistem dapat membandingkan kesamaan konten melampaui riwayat interaksi pengguna.

Metrik baru seperti Bubble Escape Potential (BEP) dikembangkan untuk mengukur seberapa efektif seorang pengguna dapat keluar dari gelembung informasi melalui tindakan aktif mereka. Metrik ini menggunakan simulasi agen berbasis LLM untuk membedakan antara bias sistem dan preferensi perilaku pengguna, memberikan alat bagi pengembang untuk mengevaluasi kesehatan ekosistem informasi mereka.

Bubble Escape Potential (BEP)

Regulasi Digital: Digital Services Act (DSA) Uni Eropa

Di tingkat hukum, Uni Eropa telah menetapkan standar global melalui Digital Services Act (DSA) yang mulai berlaku penuh pada tahun 2024. DSA memaksa platform online sangat besar untuk menjadi lebih transparan mengenai sistem rekomendasi mereka dan memberikan hak kepada pengguna untuk memilih parameter utama dalam kurasi konten mereka. Selain itu, DSA mewajibkan audit tahunan terhadap risiko sistemik, termasuk dampak algoritma terhadap proses pemilihan umum dan kesehatan mental masyarakat.

Literasi Digital dan Transformasi Pendidikan

Intervensi di tingkat individu tetap menjadi kunci utama. Transformasi kurikulum pendidikan, seperti integrasi nilai-nilai karakter dan pemahaman algoritma dalam pendidikan di Indonesia, bertujuan untuk memperkuat kesadaran akan keberagaman dan persatuan di tengah gempuran fragmentasi informasi. Strategi seperti lateral reading (membaca lintas sumber) dan kesadaran akan bias kognitif telah terbukti meningkatkan ketahanan masyarakat terhadap manipulasi algoritmik.

Implikasi Epistemologis: Agensi Manusia di Era Algoritma

Secara filosofis, gelembung filter menantang konsep otonomi dan kedaulatan diri. Jika keyakinan kita dibentuk oleh mesin yang mengoptimalkan statistik daripada kebenaran, apakah kita masih memiliki agensi atas pikiran kita sendiri?. Konsep "keyakinan berbasis teknologi" menunjukkan bahwa banyak dari apa yang kita anggap sebagai opini pribadi sebenarnya adalah hasil dari pengaruh lingkungan digital yang melampaui kendali sadar kita.

Dilema Kebebasan dalam Dunia yang Terotomatisasi

Kebebasan dalam memahami realitas di era algoritma adalah sebuah dilema antara kenyamanan dan otonomi. Algoritma memberikan kemudahan luar biasa dalam menavigasi lautan informasi, namun kenyamanan ini sering kali dibayar dengan penyempitan cakrawala intelektual kita. Kita hidup dalam "ketidaksadaran digital," di mana pilihan-pilihan kita "disenggol" oleh arsitektur pilihan yang dirancang untuk kepentingan akumulasi modal surveilans, bukan untuk pencerahan individu.

Kesimpulan: Menuju Kebebasan yang Disadari

Meskipun teknologi algoritma telah menciptakan tantangan besar bagi pemahaman realitas yang objektif, manusia tidak sepenuhnya deterministik atau pasif. Kebebasan di era algoritma terletak pada "refleksivitas"—kemampuan untuk menyadari keterbatasan kita sendiri dan keterlibatan kita dalam sistem digital. Memahami gelembung filter sebagai fenomena sosial-teknologis global adalah langkah pertama untuk memecahkannya. 

Kita harus menuntut platform yang lebih transparan, regulasi yang lebih kuat, dan yang paling penting, kita harus secara aktif mengolah kembali kapasitas kita untuk terkejut, ditantang, dan diubah oleh perspektif yang berbeda. Kebebasan sesungguhnya bukan berarti hidup tanpa algoritma, melainkan kemampuan untuk tetap menjadi subjek yang berpikir kritis di tengah-tengah perhitungan mesin, memastikan bahwa teknologi tetap menjadi alat untuk memperluas kemanusiaan kita, bukan penjara yang menyempitkannya.

Sitasi:

AlgorithmWatch. (2026). A guide to the Digital Services Act, the EU's law to rein in Big Tech. Diakses April 28, 2026, dari https://algorithmwatch.org/en/dsa-explained/

Anttiroiko, A.-V. (n.d.). Castells' network concept and its connections to social, economic and political network analyses. Diakses April 28, 2026, dari https://www.cmu.edu/joss/content/articles/volume16/Anttiroiko.pdf

ArXiv. (2026). Uncovering the deep filter bubble: Narrow exposure in short-video recommendation. Diakses April 28, 2026, dari https://arxiv.org/abs/2403.04511

Berger, P. L., & Luckmann, T. (1966). The social construction of reality. Diakses April 28, 2026, dari https://soztheo.com/sociology/key-works-in-sociology/peter-l-berger-and-thomas-luckmann-the-social-construction-of-reality-1966/

Bourdieu, P. (n.d.). Bourdieu and habitus. Diakses April 28, 2026, dari https://www.powercube.net/other-forms-of-power/bourdieu-and-habitus/

Cakra Communico: Journal of Communication Science. (2026). The role of TikTok's algorithm in political polarization and disinformation in Indonesia. Universitas Negeri Malang. Diakses April 28, 2026, dari https://journal-fis.um.ac.id/index.php/cc/article/download/1185/682/1836

CLaME. (n.d.). Berger and Luckmann social construction of reality. Diakses April 28, 2026, dari https://clame.nyu.edu/fetch.php/E1CA67/316348/Berger%20And%20Luckmann%20Social%20Construction%20Of%20Reality.pdf

EBSCO. (n.d.). Filter bubble. Diakses April 28, 2026, dari https://www.ebsco.com/research-starters/social-sciences-and-humanities/filter-bubble

EBSCO. (n.d.). Social construction of reality. Diakses April 28, 2026, dari https://www.ebsco.com/research-starters/religion-and-philosophy/social-construction-reality

ECPS. (n.d.). Filter bubbles. Diakses April 28, 2026, dari https://www.populismstudies.org/Vocabulary/filter-bubbles/

Fondation Descartes. (2020). Filter bubbles and echo chambers. Diakses April 28, 2026, dari https://www.fondationdescartes.org/en/2020/07/filter-bubbles-and-echo-chambers/

Harvard Gazette. (2019). Harvard professor says surveillance capitalism is undermining democracy. Diakses April 28, 2026, dari https://news.harvard.edu/gazette/story/2019/03/harvard-professor-says-surveillance-capitalism-is-undermining-democracy/

Heinrich-Böll-Stiftung. (2022). What are filter bubbles and digital echo chambers? Diakses April 28, 2026, dari https://il.boell.org/en/2022/03/04/what-are-filter-bubbles-and-digital-echo-chambers

IN3 Blog. (n.d.). The network society today: (Revisiting) Manuel Castells' information age trilogy. Diakses April 28, 2026, dari https://blogs.uoc.edu/in3/the-network-society-today-revisiting-manuel-castells-information-age-trilogy/

Journal La Sociale. (2026). Analysis of the filter bubble algorithm on TikTok concerning “toxic” polarization during the 2024 presidential campaign. Diakses April 28, 2026, dari https://newinera.com/index.php/JournalLaSociale/article/view/1334

Lumen Learning. (n.d.). The social construction of reality. Diakses April 28, 2026, dari https://courses.lumenlearning.com/wm-introductiontosociology/chapter/the-social-construction-of-reality/

Mayer Brown. (2023). EU Digital Services Act's effects on algorithmic transparency and accountability. Diakses April 28, 2026, dari https://www.mayerbrown.com/en/insights/publications/2023/03/eu-digital-services-acts-effects-on-algorithmic-transparency-and-accountability

MDPI. (2026). Trap of social media algorithms: A systematic review of research on filter bubbles, echo chambers, and their impact on youth. Societies, 15(11), 301. Diakses April 28, 2026, dari https://www.mdpi.com/2075-4698/15/11/301

MedCrave. (n.d.). Digital platforms and neoliberal rationality: Reconfigurations of power in contemporary social fields. Diakses April 28, 2026, dari https://medcraveonline.com/SIJ/SIJ-09-00445.pdf

Medium. (2026). The ethics of algorithms: Responsibility in the age of the digital unconscious. Diakses April 28, 2026, dari https://medium.com/@Aisentica/the-ethics-of-algorithms-responsibility-in-the-age-of-the-digital-unconscious-46bcb963ce8e

MIT DSpace. (2026). Leveraging large language model embeddings to enhance diversity and mitigate the filter bubble effect in recommender systems. Diakses April 28, 2026, dari https://dspace.mit.edu/handle/1721.1/162682

Moonlight. (2026). Uncovering the deep filter bubble: Narrow exposure in short-video recommendation (Literature review). Diakses April 28, 2026, dari https://www.themoonlight.io/en/review/uncovering-the-deep-filter-bubble-narrow-exposure-in-short-video-recommendation

MyScience. (2026). UT research debunks the filter bubble myth. Diakses April 28, 2026, dari https://www.myscience.org/en/news/wire/ut_research_debunks_the_filter_bubble_myth-2026-utwente

NIH (PMC). (2022). Through the newsfeed glass: Rethinking filter bubbles and echo chambers. Diakses April 28, 2026, dari https://pmc.ncbi.nlm.nih.gov/articles/PMC8923337/

NIH (PMC). (2024). Beyond-accuracy: A review on diversity, serendipity, and fairness in recommender systems based on graph neural networks. Diakses April 28, 2026, dari https://pmc.ncbi.nlm.nih.gov/articles/PMC10762851/

NIH (PMC). (2026). Reconstructing the social construction of reality. Diakses April 28, 2026, dari https://pmc.ncbi.nlm.nih.gov/articles/PMC12163552/

Ohio State News. (n.d.). How personalized algorithms lead to a distorted view of reality. Diakses April 28, 2026, dari https://news.osu.edu/how-personalized-algorithms-lead-to-a-distorted-view-of-reality/

Pariser, E. (2011). The filter bubble: What the internet is hiding from you (Review). Diakses April 28, 2026, dari https://escholarship.org/uc/item/8w7105jp

ResearchGate. (2026). Assess the evidence for and against the existence of “filter bubbles”. Diakses April 28, 2026, dari https://www.researchgate.net/publication/396660350

ResearchGate. (2026). Digital literacy curriculum transformation to overcome filter bubble in Pancasila character understanding. Diakses April 28, 2026, dari https://www.researchgate.net/publication/391480332

Revisesociology. (2026). Manuel Castells network society. Diakses April 28, 2026, dari https://revisesociology.com/2026/01/02/manuel-castells-network-society/

Social Sci LibreTexts. (n.d.). Epistemic bubbles, filter bubbles, and echo chambers. Diakses April 28, 2026, dari https://socialsci.libretexts.org/...

Stanford Impact Labs. (2026). Can digital literacy interventions build AI know-how? Diakses April 28, 2026, dari https://impact.stanford.edu/article/can-digital-literacy-interventions-build-ai-know-how

Stanford Law School. (2020). Book review: Economies of surveillance. Diakses April 28, 2026, dari https://law.stanford.edu/wp-content/uploads/2020/02/1280-1336_Online.pdf

Sustainability Directory. (n.d.). How does algorithmic personalization affect individual choice? Diakses April 28, 2026, dari https://lifestyle.sustainability-directory.com/question/how-does-algorithmic-personalization-affect-individual-choice/

Tsinghua University. (2026). Uncovering the deep filter bubble: Narrow exposure in short-video recommendation. Diakses April 28, 2026, dari https://fi.ee.tsinghua.edu.cn/public/publications/...

UOP eClass. (2018). Diversity, serendipity, novelty, and coverage: A survey and empirical analysis of beyond-accuracy objectives in recommender systems. Diakses April 28, 2026, dari http://old-eclass.uop.gr/...

Wikipedia. (2026). Filter bubble. Diakses April 28, 2026, dari https://en.wikipedia.org/wiki/Filter_bubble

Wikipedia. (2026). Surveillance capitalism. Diakses April 28, 2026, dari https://en.wikipedia.org/wiki/Surveillance_capitalism

Wikipedia. (2026). The social construction of reality. Diakses April 28, 2026, dari https://en.wikipedia.org/wiki/The_Social_Construction_of_Reality

Aletheia Rabbani
Aletheia Rabbani “Barang siapa yang tidak mampu menahan lelahnya belajar, maka ia harus mampu menahan perihnya kebodohan” _ Imam As-Syafi’i

Post a Comment