GPT-4V bisa memainkan Doom dengan sangat buruk — tidak ragu untuk menembak manusia dan setan

Ilmuwan Microsoft dan peneliti Universitas York Adrian de Wynter baru-baru ini memutuskan untuk menguji GPT-4, menjalankan Doom tanpa pelatihan sebelumnya, lapor Pendaftaran. Hasilnya menyimpulkan bahwa GPT-4 dapat memainkan Doom dengan tingkat kemanjuran tertentu tanpa pelatihan sebelumnya, meskipun penyiapannya memerlukan antarmuka GPT-4V untuk visi AI dan penambahan Matplotlib dan Python untuk memungkinkan masukan AI.

Menurut makalah aslinya, AI GPT-4 yang memainkan Doom dapat membuka pintu, melawan musuh, dan menembakkan senjata. Fungsi gameplay dasar, termasuk menavigasi dunia, hampir semuanya ada di sana. Namun, AI juga tidak mempunyai perasaan akan kepermanenan objek — segera setelah musuh berada di luar layar, AI tidak lagi menyadarinya sama sekali. Meskipun instruksi disertakan mengenai apa yang harus dilakukan jika musuh di luar layar menyebabkan kerusakan, model tidak dapat bereaksi terhadap apa pun di luar cakupan sempitnya.

Saat berbicara tentang temuan etis penelitiannya, De Wynter berkomentar, “Cukup mengkhawatirkan betapa mudahnya bagi saya untuk membuat kode agar model dapat memotret sesuatu dan model dapat memotret sesuatu secara akurat tanpa benar-benar menebak-nebak instruksinya.”

Dia melanjutkan, “Jadi, meskipun ini merupakan eksplorasi yang sangat menarik seputar perencanaan dan penalaran, dan dapat diterapkan dalam pengujian video game otomatis, cukup jelas bahwa model ini tidak menyadari apa yang dilakukannya. Saya sangat mendorong semua orang untuk berpikir tentang dampak penerapan model ini bagi masyarakat dan potensi penyalahgunaannya.”

Tentu saja dia tidak salah: Teknologi senjata mutakhir semakin menakutkan setiap tahunnya, dan AI telah mengalami pertumbuhan dan dampak ekonomi yang menakutkan di tempat lain. Jauh di tahun 90an, Deep Blue bertenaga superkomputer IBM terkenal mengalahkan Grandmaster Catur Garry Kasparov. Sekarang kami memiliki solusi GPT-4V yang cepat dan kotor yang dijalankan melalui Doom, melalui upaya satu orang. Bayangkan apa yang mungkin dilakukan militer di balik pekerjaan semacam itu.

Untungnya, kami belum memproduksi bot pembunuh dengan tujuan dan alasan yang setara dengan yang terbaik Pembunuh hebat Dan Malapetaka pemain, apalagi kekuatan rata-rata T-800 yang tak terhentikan. Untuk saat ini, “serangan AI” utama yang dikhawatirkan sebagian besar orang berkaitan dengan AI generatif dan dampak berkelanjutannya, baik terhadap pekerja kreatif independen maupun profesional industri.

Namun fakta bahwa GPT-4 tidak segan-segan memotret benda berbentuk manusia masih memprihatinkan. Ini adalah saat yang tepat untuk mengingatkan pembaca bahwa “Hukum Robotika” karya Isaac Asimov yang menyatakan bahwa robot tidak boleh membahayakan manusia selalu bersifat fiksi. Mudah-mudahan mereka yang menjalankan proyek AI dapat menemukan cara untuk mengkodifikasi perlindungan kemanusiaan dengan tepat ke dalam model mereka sebelum Skynet online.