Sains

Jika ada AI yang ‘tidak selaras’ maka sistem akan menyembunyikannya cukup lama untuk menyebabkan kerusakan – mengendalikannya adalah kekeliruan

Di akhir 2022 model berbahasa besar Ai Tiba di depan umum, dan dalam beberapa bulan mereka mulai berperilaku buruk. Paling terkenal, chatbot “Sydney” Microsoft mengancam akan membunuh seorang profesor filosofi Australia, melepaskan virus yang mematikan dan mencuri kode nuklir.

Pengembang AI, termasuk Microsoft dan Openai, menanggapi dengan mengatakan bahwa model bahasa besar, atau LLM, butuh pelatihan yang lebih baik ke Berikan pengguna “kontrol yang lebih baik.” Pengembang juga memulai penelitian keselamatan untuk menafsirkan bagaimana fungsi LLMS, dengan tujuan “penyelarasan” – yang berarti membimbing perilaku AI oleh nilai -nilai manusia. Namun meskipun New York Times dianggap 2023 “Tahun chatbots dijinakkan“Ini ternyata prematur, untuk membuatnya lebih lembut.



Source

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button