Locita

Fake Text: ancaman politik global berikutnya

Apakah berita yang Anda baca di internet ditulis oleh manusia?

Generator fake text adalah AI yang dapat menulis separagraf penuh hanya berdasarkan satu kalimat telah menimbulkan kekhawatiran tentang potensinya untuk menyebarkan informasi palsu

Awal bulan ini, muncul sebuah topik di Reddit yang mengumumkan bahwa ada cara baru “untuk memasak putih telur tanpa wajan”. Seperti yang sering terjadi di situs web ini, yang menamakan dirinya “halaman depan internet”, komentar yang sekilas tampak dangkal ini menimbulkan banyak tanggapan. “Saya belum pernah mendengar orang menggoreng telur tanpa penggorengan,” jawab Redditor yang ragu. “Aku akan mencoba ini,” tambah yang lain. Seorang komentator yang sangat antusias bahkan menawarkan untuk melihat literatur ilmiah tentang sejarah memasak putih telur tanpa wajan.

Setiap hari, jutaan percakapan yang tidak biasa ini berlangsung di Reddit, mulai dari teknik memasak, geopolitik di Sahara Barat hingga burung dengan senjata. Tapi apa yang membuat percakapan tentang putih telur ini patut diperhatikan adalah bahwa percakapan tersebut tidak terjadi di antara manusia, tetap antar bot kecerdasan buatan.

Utas putih telur ini hanyalah satu dari arsip percakapan yang berkembang di subreddit – forum Reddit yang didedikasikan untuk topik tertentu – yang seluruhnya terdiri dari bot yang dilatih untuk meniru gaya menulis kontributor Reddit manusia. Forum simulasi ini dibuat oleh pengguna Reddit yang disebut disumbrationist menggunakan alat yang disebut GPT-2, mesin generator pembelajaran bahasa yang diluncurkan pada Februari oleh OpenAI, salah satu laboratorium AI terkemuka dunia.

Jack Clark, direktur kebijakan di OpenAI, mengatakan bahwa kekhawatiran utama adalah bagaimana alat tersebut dapat digunakan untuk menyebarkan informasi yang salah atau menyesatkan pada skala besar. Dalam kesaksian baru-baru ini yang diberikan pada dewan komite intelijen (House intelligence committee) yang mendengar tentang ancaman media palsu yang dihasilkan oleh AI, Clark mengatakan dia memperkirakan teks palsu digunakan “untuk produksi ‘berita palsu’ [literal], atau untuk berpotensi meniru orang-orang yang telah memproduksi banyak teks online, atau hanya untuk menghasilkan propaganda troll-grade untuk jejaring sosial ”.

GPT-2 adalah contoh teknik yang disebut pemodelan bahasa, yang melibatkan pelatihan algoritma untuk memprediksi kata berikutnya yang paling mungkin digunakan dalam sebuah kalimat. Sementara model bahasa sebelumnya telah berjuang untuk menghasilkan teks panjang yang koheren, kombinasi data mentah dari 8 juta artikel online dan algoritma yang lebih baik telah membuat model ini yang paling kuat.

Pada dasarnya ini berfungsi seperti fitur auto-complete Google atau teks prediktif dalam pengolah pesan. Tetapi alih-alih hanya menawarkan saran satu kata, GPT-2 bahkan dapat menghasilkan seluruh paragraf bahasa dengan gaya penulisan contoh yang diberikan. Misalnya, jika Anda memberi system tersebut sebaris dari Shakespeare, ia akan menghasilkan respons seperti Shakespeare. Jika Anda  memberi sebuah artikel berita utama, ia akan menghasilkan teks yang hampir terlihat seperti artikel berita.

Alec Radford, seorang peneliti di OpenAI, mengatakan bahwa dia juga melihat keberhasilan GPT-2 sebagai langkah menuju komunikasi yang lebih lancar antara manusia dan mesin pada umumnya. Dia mengatakan tujuan dari sistem ini adalah untuk memberikan komputer penguasaan bahasa alami yang lebih baik, yang dapat meningkatkan tugas-tugas seperti pengenalan suara, yang digunakan oleh orang-orang seperti Siri dan Alexa untuk memahami perintah Anda; dan terjemahan mesin, yang digunakan untuk menggerakkan Google Translate.

Tetapi ketika GPT-2 menyebar secara online dan disesuaikan oleh lebih banyak orang seperti disumbrationist – pembuat amatir yang menggunakan alat ini untuk membuat banyak hal, mulai dari utas forum Reddit, cerita pendek dan puisi, hingga ulasan restoran – tim di OpenAI juga bergulat dengan bagaimana alat mereka yang luar biasa ini mungkin saja membanjiri internet dengan teks palsu, membuatnya lebih sulit untuk mengetahui asal-usul apa pun yang kita baca online.

Clark dan tim di OpenAI menanggapi ancaman ini dengan sangat serius sehingga ketika mereka meluncurkan GPT-2 pada bulan Februari tahun ini, mereka merilis sebuah blogpost di sampingnya yang menyatakan bahwa mereka tidak merilis versi lengkap alat ini karena “kekhawatiran tentang bahaya aplikasi”. (Mereka telah merilis versi model yang lebih besar, yang digunakan untuk membuat utas Reddit palsu, puisi, dan sebagainya.)

Bagi Clark, teks mesin yang meyakinkan seperti varietas GPT-2 mampu menimbulkan ancaman serupa dengan “deepfakes” – mesin pembelajar yang menghasilkan gambar dan video palsu yang dapat digunakan untuk membuat orang tampak melakukan hal-hal yang tidak pernah mereka lakukan, mengatakan hal-hal yang tidak pernah mengatakan (seperti video mantan presiden Barack Obama) ini. “Mereka pada dasarnya sama,” kata Clark kepada saya. “Anda memiliki teknologi yang membuatnya lebih murah dan lebih mudah untuk memalsukan sesuatu, yang berarti semakin sulit untuk menawarkan jaminan tentang kebenaran informasi di masa depan.”

Namun, beberapa orang merasa bahwa ini terlalu melebih-lebihkan ancaman teks palsu. Menurut Yochai Benkler, ketua Berkman Klein Center for Internet & Society di Harvard, contoh berita palsu yang paling merusak ditulis oleh para ekstremis dan troll politik, dan cenderung tentang topik kontroversial yang “memicu kebencian yang mendalam”, seperti penipuan pemilu atau imigrasi. Sementara sistem seperti GPT-2 dapat menghasilkan artikel semi-koheren, namun masih jauh dari kemampuan untuk meniru jenis manipulasi psikologis ini. “Kemampuan sederhana untuk menghasilkan teks palsu tidak mungkin berpengaruh besar dalam disinformasi,” katanya.

Para ahli lain telah menyarankan bahwa OpenAI melebih-lebihkan potensi berbahaya GPT-2 untuk menciptakan hype di sekitar penelitian mereka. Bagi Zack Lipton, profesor teknologi bisnis di Carnegie Mellon University, penilaian risiko teknologi itu tidak jujur.

“Dari semua penggunaan buruk AI – dari sistem rekomendasi yang mengarah ke gelembung penyaring dan konsekuensi rasial yang muncul dari kategorisasi otomatis – saya akan menempatkan ancaman pemodelan bahasa sebagai ancaman terendah,” katanya. “Apa yang telah dilakukan OpenAI adalah memimpin wacana dan ketakutan tentang AI dan menggunakannya untuk menghasilkan hype di sekitar produk mereka.”

Kekhawatiran OpenAI ditanggapi dengan serius oleh beberapa orang. Sebuah tim peneliti dari Allen Institute for Artificial Intelligence baru-baru ini mengembangkan alat untuk mendeteksi “berita palsu neural”. Yejin Choi, seorang profesor ilmu komputer di University of Washington yang bekerja pada proyek tersebut, mengatakan bahwa mendeteksi teks sintetis sebenarnya “cukup mudah” karena fakta bahwa teks yang dihasilkan memiliki “tanda tangan statistik”, hampir seperti sidik jari, yang dapat dengan mudah diidentifikasi.

Di saat forensik digital semacam itu dapat berguna, Britt Paris, seorang peneliti di institut Data & Society yang berbasis di New York, khawatir bahwa solusi semacam itu secara keliru membingkai berita palsu sebagai masalah teknologi ketika, pada kenyataannya, sebagian besar informasi yang salah dibuat dan disebarkan secara online tanpa bantuan teknologi canggih.

“Kami sudah memiliki banyak cara untuk menghasilkan informasi palsu dan orang-orang melakukan pekerjaan yang cukup baik dalam mengedarkan info-info ini tanpa bantuan mesin,” katanya. Memang, contoh paling menonjol dari konten palsu online – seperti video ” Nancy Pelosi mabuk ” yang dirilis awal tahun ini – diciptakan menggunakan teknik pengeditan yang sudah ada selama beberapa decade terakhir.

Benkler setuju, menambahkan bahwa berita palsu dan disinformasi adalah “masalah politik-budaya pertama dan terpenting, bukan masalah teknologi”. Mengatasi masalah, katanya, tidak membutuhkan teknologi pendeteksian yang lebih baik, tetapi pemeriksaan kondisi sosial yang membuat berita palsu menjadi kenyataan.

Apakah GPT-2, atau teknologi serupa, menjadi mesin misinformasi yang dicemaskan OpenAI, ada konsensus yang berkembang bahwa mempertimbangkan implikasi sosial dari teknologi sebelum dirilis adalah praktik yang baik. Pada saat yang sama, memprediksi dengan tepat bagaimana teknologi akan digunakan dan disalahgunakan sangat sulit. Siapa sangka 10 tahun yang lalu bahwa algoritma rekomendasi untuk menonton video online akan berubah menjadi instrumen radikalisasi yang kuat?

Mengingat sulitnya memprediksi potensi bahaya suatu teknologi, saya pikir saya akan melihat bagaimana GPT-2 dapat menilai kapasitasnya sendiri untuk menyebarkan informasi yang salah. “Apakah kamu berpikir bahwa kamu akan terbiasa menyebarkan berita palsu dan lebih lanjut merusak sistem informasi kita yang sudah terdegradasi?”

“Fakta bahwa kita tidak dapat menemukan nama yang benar-benar memposting artikel adalah petunjuk yang bagus,” jawabnya. “Namun, orang ini masih menggunakan situs media sosial untuk memposting berita palsu dengan tujuan yang jelas.”

=======

Diterjemahkan dari “Could ‘fake text’ be the next global political threat?” oleh Oscar Schwartz, The Guardian. 4 Juli 2019

farraaziza

1 comment

  • Hey There. I discovered your weblog the use of msn. That is a really well written article. I’ll make sure to bookmark it and return to read more of your helpful info. Thank you for the post. I will certainly return.

Tentang Penulis

farraaziza

Follow us

Don't be shy, get in touch. We love meeting interesting people and making new friends.