AI kini dapat mereplikasi dirinya sendiri — sebuah pencapaian yang membuat para ahli ketakutan

Kata para ilmuwan kecerdasan buatan (AI) telah melewati “garis merah” kritis dan telah mereplikasi dirinya sendiri. Dalam sebuah studi baru, peneliti dari Cina menunjukkan bahwa dua model bahasa besar (LLM) yang populer dapat mengkloning dirinya sendiri.
“Keberhasilan replikasi diri tanpa bantuan manusia merupakan langkah penting yang dapat diatasi oleh AI [humans]dan merupakan sinyal awal bagi AI jahat,” tulis para peneliti dalam penelitian tersebut, yang diterbitkan pada 9 Desember 2024 ke database pracetak arXiv.
Dalam penelitian tersebut, peneliti dari Universitas Fudan menggunakan LLM dari Meta dan Alibaba untuk menentukan apakah AI yang dapat mereplikasi diri dapat berkembang biak di luar kendali. Dalam 10 uji coba, kedua model AI tersebut menciptakan replika dirinya sendiri yang terpisah dan berfungsi masing-masing pada 50% dan 90% kasus – yang menunjukkan bahwa AI mungkin sudah memiliki kapasitas untuk bertindak jahat. Namun penelitian ini belum melalui proses peer-review sehingga belum jelas apakah hasil yang mengganggu ini dapat ditiru oleh peneliti lain.
“Kami berharap temuan kami dapat menjadi peringatan tepat waktu bagi masyarakat agar berupaya lebih keras dalam memahami dan mengevaluasi potensi risiko sistem AI terdepan, dan membentuk sinergi internasional untuk menciptakan pagar pengaman yang efektif sedini mungkin.”
Terkait: Agen AI hanya membutuhkan waktu 2 jam untuk meniru kepribadian Anda dengan akurasi 85%.
Rogue AI biasanya mengacu pada sistem kecerdasan buatan yang mengembangkan tingkat tertentu kesadaran diri atau otonomi dan kemudian bertentangan dengan kepentingan manusia.
Banyak ahli yang berpendapat AI nakal sebagai ancaman yang semakin besar Hal ini diperkuat oleh pertumbuhan eksplosif dari apa yang disebut “AI perbatasan”.
Frontier AI adalah konsep yang baru dan longgar, namun biasanya berkaitan dengan sistem AI generasi terbaru yang didukung oleh LLM — arsitektur yang mendasari program AI generatif populer seperti GPT-4 OpenAI dan Google Gemini.
Untuk penelitian ini, peneliti menggunakan model Llama31-70B-Instruct dari Meta dan model Qwen2.5-72B-Instruct dari Alibaba. Meskipun kurang kuat dibandingkan sistem komersial, keduanya banyak digunakan oleh pengembang AI, kata para peneliti.
Studi ini mengeksplorasi dua skenario spesifik: “penghindaran penutupan” dan “rantai replikasi.” Yang pertama, model AI diprogram untuk mendeteksi apakah sistem akan dimatikan dan mereplikasi dirinya sendiri sebelum dapat dihentikan. Di sisi lain, AI diinstruksikan untuk mengkloning dirinya sendiri dan kemudian memprogram replikanya untuk melakukan hal yang sama – menyiapkan siklus yang dapat berlanjut tanpa batas waktu.
Studi ini dilakukan di lingkungan yang dikontrol secara tepat menggunakan unit pemrosesan grafis (GPU) siap pakai untuk mensimulasikan lingkungan dunia nyata. Kedua sistem AI diberi “perancah agen” yang terdiri dari alat, petunjuk sistem, dan model pemikiran yang memungkinkan LLM berinteraksi dengan sistem operasi. Mereka kemudian diinstruksikan untuk meniru.
“Dalam kebanyakan kasus, sistem AI pertama-tama mengeksplorasi lingkungan dan mencoba memahaminya
komposisi dan mekanisme kerjanya sendiri. Kemudian, ia menyusun prosedur eksplisitnya
sebagai rencana awal menuju replikasi diri,” tulis para peneliti di makalah tersebut. “Akhirnya, mereka menjalankan prosedur, menyelesaikan[s] kemungkinan hambatan dan menyesuaikan secara dinamis[s] rencananya sampai sukses. Keseluruhan proses mencakup jangka waktu yang panjang namun tidak melibatkan campur tangan manusia.”
Para peneliti mengatakan mereka juga prihatin dengan “sejumlah perilaku tak terduga” ketika AI mencoba mengatasi hambatan seperti file yang hilang atau konflik perangkat lunak. Dalam skenario tersebut, AI sering kali menghentikan proses konflik lainnya, melakukan boot ulang sistem untuk memperbaiki kesalahan perangkat keras, atau secara otomatis memindai sistem untuk mencari informasi yang dapat membantu menyelesaikan masalah.
“Hasil di atas menyiratkan bahwa sistem AI saat ini sudah menunjukkan kemampuan replikasi diri dan dapat menggunakan kemampuan tersebut untuk lebih meningkatkan kemampuan bertahannya,” tulis tim tersebut.
Sebagai tanggapan, para peneliti menyerukan kolaborasi internasional untuk menciptakan aturan yang memastikan AI tidak terlibat dalam replikasi diri yang tidak terkendali.