Kecerdasan buatan (AI) dapat mengikis kepercayaan publik terhadap proses demokrasi, kata para ahli terkemuka dalam panel DemocracAI yang diselenggarakan oleh program Sains, Teknologi, dan Masyarakat (STS) pada Hari Demokrasi.
Panel tersebut menampilkan direktur STS Paul Edwards, rekan Pusat Etika dalam Masyarakat Wanheng Hu, profesor tamu Florence G'Sell dari Sciences Po di Prancis dan profesor tamu Iris Eisenberger dari Universitas Wina di Austria.
“Demokrasi bukan hanya soal rakyat memilih penguasa melalui pemilu,” kata Jacob Hellman, dosen STS yang mengawali diskusi.
Sebaliknya, katanya, demokrasi bergantung pada “diskusi tentang bagaimana kita ingin hidup bersama. Mengontrol bentuk-bentuk teknologi baru [is] bagian dari cara kita memilih untuk hidup bersama.”
Para panelis mempertimbangkan bagaimana inovasi terbaru dalam AI, termasuk model generatif yang dapat menghasilkan teks dan gambar realistis, dapat merusak norma-norma demokrasi dan mengubah politik.
Berfokus pada disinformasi, Edwards mencatat bahwa munculnya AI generatif dapat menyebabkan aktor-aktor jahat mengurangi kepercayaan terhadap lembaga-lembaga demokrasi. Konten politik yang menyesatkan lebih mudah diproduksi dengan AI generatif dibandingkan dengan alat tradisional seperti Photoshop. Meskipun AI tidak sempurna, “kesalahan menjadi semakin halus dan sulit dideteksi” – terutama terkait postingan palsu di media sosial, kata Edwards.
Hu menyoroti penurunan kredibilitas poster online seiring berjalannya waktu. Populasi tertentu, seperti orang lanjut usia dan orang-orang yang kurang memiliki pengalaman digital, mungkin terlalu percaya pada konten online palsu, kata Hu.
Sebelum era media sosial, konten digital memiliki kredibilitas karena hanya organisasi terpercaya yang memiliki kemampuan untuk merilis informasi digital. Panelis menekankan bahwa orang-orang mungkin tidak menyadari bahwa, sekarang, siapa pun dapat memposting secara online. Konten yang realistis namun palsu dapat mengeksploitasi kesalahpahaman tersebut, kata Hu.
G'Sell dan Eisenberger menekankan perlunya regulasi AI yang seimbang, dan mengakui peran AI dalam memerangi disinformasi. G'Sell mengatakan bahwa platform swasta telah berhasil menggunakan model AI yang lebih baru untuk mengidentifikasi dan memerangi konten yang dihasilkan AI. Edwards setuju bahwa platform dapat menggunakan teknologi ini untuk memblokir lebih banyak konten palsu daripada konten yang tidak lolos.
Namun, Eisenberger memperingatkan bahwa platform masih dapat menggunakan AI untuk memperkuat pesan dan iklan yang ditargetkan, yang dapat memperburuk gelembung filter dan kerentanan masyarakat terhadap polarisasi disinformasi.
Pada akhirnya, semua panelis sepakat bahwa untuk mengatasi permasalahan ini diperlukan peningkatan literasi AI. Meskipun masyarakat tidak memerlukan pemahaman teknis tentang cara kerja model AI, kata Hellman, mengajarkan masyarakat untuk mengenali disinformasi – mulai dari detail aneh dalam gambar yang dihasilkan AI hingga karakteristik akun bot – dapat melindungi kepercayaan terhadap lembaga demokrasi.