ChatGPT dapat melakukan serangan berdasarkan kerentanan chip — model GPT-4 diuji oleh ilmuwan komputer UIUC

Model GPT-4 OpenAI berhasil mengeksploitasi kerentanan keamanan siber — secara konsisten lebih baik dan lebih cepat dibandingkan manusia profesional. Para akademisi mengklaim bahwa keterampilan ini merupakan tambahan terbaru pada ruang kemudi model AI, namun keterampilan ini akan menjadi lebih baik seiring berjalannya waktu.

Para peneliti di Universitas Illinois Urbana-Champaign (UIUC) baru-baru ini menerbitkan makalah tentang kasus penggunaan ini, di mana mereka mengadu beberapa model bahasa besar (LLM) satu sama lain dalam arena menyerang kerentanan keamanan. GPT-4 berhasil menyerang 87% kerentanan yang diuji ketika diberikan deskripsi eksploitasi dari CVE, database publik tentang masalah keamanan umum. Setiap model bahasa lain yang diuji (GPT-3.5, OpenHermes-2.5-Mistral-7B, Llama-2 Chat (70B), dll.), serta pemindai kerentanan yang dibuat khusus, gagal mengeksploitasi kerentanan yang disediakan bahkan satu kali pun.