Di tengah gelombang kontroversi dan tuntutan hukum AI, CNET telah mendapat peringatan publik sejak pertama kali mulai memposting konten terselubung yang dihasilkan AI di situsnya pada akhir tahun 2022— sebuah skandal yang berpuncak pada penurunan situs tersebut dari Sumber Tepercaya menjadi Sumber Tidak Tepercaya di Wikipedia. [h/t Futurism].
Mengingat CNET telah menjalankan bisnis ini sejak tahun 1994 dan mempertahankan reputasi papan atas di Wikipedia hingga akhir tahun 2020, perubahan ini terjadi setelah banyak perdebatan di antara para editor Wikipedia dan telah menarik perhatian banyak media, termasuk beberapa anggota staf CNET. .
Penting untuk diingat bahwa meskipun Wikipedia adalah “Ensiklopedia Gratis yang Dapat Diedit Siapa Saja”, Wikipedia bukanlah The Wild West. Komunitas editor dan sukarelawan Wikipedia meminta kutipan untuk informasi apa pun yang ditambahkan ke halaman Wiki, sehingga menjaga akuntabilitas pada tingkat tertentu di belakang komunitas besar yang bertanggung jawab mengoperasikan Wikipedia. Meskipun Wikipedia tidak boleh digunakan sebagai sumber utama, setidaknya Wikipedia cenderung menjadi tempat yang baik untuk mulai meneliti topik-topik tersebut karena persyaratan kutipan tersebut.
Kejatuhan (tampaknya) CNET di Wikipedia dimulai sebelum konten yang dihasilkan AI ditemukan. Pada bulan Oktober 2020, akuisisi CNET oleh penerbit Red Ventures mulai mendorong CNET turun di Wikipedia karena bukti tampaknya menunjukkan penurunan standar editorial dan lebih banyak konten yang disukai pengiklan.
Namun setelah November 2023, ketika Red Ventures mulai memposting konten buatan AI ke salah satu situs teknologi paling terkemuka, editor Wikipedia segera mulai mendorong untuk menurunkan CNET sepenuhnya dari daftar sumber terpercaya Wikipedia. CNET mengklaim telah berhenti memposting konten yang dihasilkan AI karena sifat kejam Red Ventures yang mengejar modal dan memposting informasi yang salah di situs milik lainnya (seperti Healthline) telah membuat CNET tidak masuk dalam daftar sumber terpercaya saat ini.
Salah satu editor Wikipedia, Chess, dikutip dalam artikel Futurisme yang mengatakan, “Kita tidak boleh berulang kali membebani editor untuk membuktikan bahwa Red Ventures merusak sebuah situs sebelum kita dapat mulai menghapusnya; mereka dapat dengan mudah membeli atau membuat situs lain. Saya Saya pikir kita harus melihat kesamaannya di sini, yaitu Red Ventures, dan menargetkan masalah (jaringan spam) pada sumbernya.”
Ini adalah keputusan yang benar-benar pedas, tapi mungkin memang benar. Masalahnya di sini bukan semata-mata penggunaan AI generatif secara tersembunyi dalam artikel yang diterbitkan di salah satu situs berita teknologi paling terkenal yang pernah ada. Sebaliknya, faktanya artikel-artikel yang dihasilkan AI tersebut cenderung ditulis dengan buruk dan tidak akurat.
Sebelum era AI, editor Wikipedia harus berurusan dengan konten otomatis yang tidak diinginkan dalam bentuk robot spam dan pelaku jahat. Dengan cara ini, perlakuan editor terhadap konten yang dihasilkan AI sangat konsisten dengan kebijakan mereka sebelumnya: ini hanyalah spam, bukan?
Dalam cerita terkait beberapa bulan yang lalu, sebuah “pencurian SEO” yang menggambarkan dirinya sendiri ditemukan di Twitter. Hal ini mungkin tidak akan diketahui jika orang yang bertanggung jawab tidak secara terbuka membual tentang “pencapaian” tersebut, yang mencakup melihat situs pesaing, menjalankan semuanya melalui AI, dan segera AI menghasilkan seluruh situs web pesaing dengan 1800 artikel menargetkan ceruk yang sama untuk “mencuri total lalu lintas 3,6 juta dari pesaing”.
Situs yang dirugikan oleh pencurian SEO ini disebut Exceljet, sebuah situs yang dijalankan oleh pakar Excel David Bruns untuk membantu orang lain menggunakan Excel dengan lebih baik. Selain kerja kerasnya dicuri dengan cara yang mungkin paling kotor dan paling malas, Bruns juga menemukan bahwa sebagian besar konten tersebut tidak akurat. Liputan Hubspot tentang cerita tersebut juga membahas bagaimana, untungnya, Google akhirnya mengetahui hal ini.
Sayangnya, kebangkitan AI generatif juga mulai merugikan Internet yang dapat digunakan dengan konten yang ditulis oleh manusia yang mampu menguji dan benar-benar memahami berbagai hal. Kita hanya bisa berharap bahwa cerita seperti ini dapat membantu mencegah penerbit mengesampingkan kontrol kualitas hingga pada titik di mana mereka secara otomatis menghasilkan konten yang menyesatkan.
Terutama ketika kita juga mempertimbangkan tuntutan hukum seperti The New York Times v. OpenAI dan Microsoft mengingatkan kita bahwa apa yang disebut AI generatif ini diperlukan untuk mencuri karya orang lain agar dapat berfungsi. Setidaknya ketika pencuri biasa mencuri suatu benda, benda itu masih berfungsi. Dengan AI generatif, Anda bahkan tidak dapat menjamin bahwa hasilnya akan akurat, terutama jika Anda tidak memiliki keahlian untuk membedakannya.