Teknologi

Chatgpt mungkin tidak haus kekuatan seperti yang pernah diasumsikan

ChatgptPlatform chatbot Openai, mungkin tidak haus daya seperti yang pernah diasumsikan. Tetapi nafsu makannya sangat tergantung pada bagaimana chatgpt digunakan, dan model AI yang menjawab pertanyaan, menurut sebuah studi baru.

A analisis terbaru Oleh Epoch AI, lembaga penelitian AI nirlaba, berusaha untuk menghitung berapa banyak energi yang dikonsumsi oleh chatgpt yang dikonsumsi. A Stat yang umum dikutip Apakah chatgpt membutuhkan sekitar 3 watt-jam kekuatan untuk menjawab satu pertanyaan, atau 10 kali lebih banyak dari pencarian Google.

Epoch percaya itu terlalu tinggi.

Menggunakan model default terbaru Openai untuk chatgpt, GPT-4Osebagai referensi, Epoch menemukan kueri chatgpt rata-rata mengkonsumsi sekitar 0,3 watt-jam-kurang dari banyak peralatan rumah tangga.

“Penggunaan energi benar -benar bukan masalah besar dibandingkan dengan menggunakan peralatan normal atau pemanasan atau mendinginkan rumah Anda, atau mengendarai mobil,” Joshua You, analis data di Epoch yang melakukan analisis, mengatakan kepada TechCrunch.

Penggunaan energi AI – dan dampak lingkungannya, secara luas – adalah subjek perdebatan yang kontroversial karena perusahaan AI berupaya memperluas jejak infrastruktur mereka dengan cepat. Baru minggu lalu, sekelompok lebih dari 100 organisasi menerbitkan surat terbuka Menyerukan industri AI dan regulator untuk memastikan bahwa pusat data AI baru tidak menghabiskan sumber daya alam dan memaksa utilitas untuk mengandalkan sumber energi yang tidak terbarukan.

Anda mengatakan kepada TechCrunch, analisisnya didorong oleh apa yang ia cirikan sebagai penelitian yang sudah ketinggalan zaman sebelumnya. Anda menunjukkan, misalnya, bahwa penulis laporan yang tiba di perkiraan 3-watt-jam diasumsikan Openai menggunakan chip yang lebih tua dan kurang efisien untuk menjalankan modelnya.

Kredit gambar:Epoch AI

“Saya telah melihat banyak wacana publik yang dengan benar mengakui bahwa AI akan mengkonsumsi banyak energi di tahun -tahun mendatang, tetapi tidak benar -benar secara akurat menggambarkan energi yang akan terjadi pada AI hari ini,” kata Anda. “Juga, beberapa rekan saya memperhatikan bahwa perkiraan 3 watt per kueri yang paling banyak dilaporkan didasarkan pada penelitian yang cukup lama, dan berdasarkan pada beberapa matematika serbet tampaknya terlalu tinggi.”

Memang, angka 0,3 watt-jam Epoch juga merupakan perkiraan; Openai belum menerbitkan detail yang diperlukan untuk membuat perhitungan yang tepat.

Analisis ini juga tidak mempertimbangkan biaya energi tambahan yang dikeluarkan oleh fitur chatgpt seperti pembuatan gambar, atau pemrosesan input. Anda mengakui bahwa “input panjang” chatgpt kueri – kueri dengan file panjang terlampir, misalnya – kemungkinan mengkonsumsi lebih banyak listrik di muka daripada pertanyaan khas.

Anda bilang dia mengharapkan konsumsi daya chatgpt awal akan meningkat.

“[The] AI akan menjadi lebih maju, melatih AI ini mungkin akan membutuhkan lebih banyak energi, dan AI masa depan ini dapat digunakan lebih intens – menangani lebih banyak tugas, dan tugas yang lebih kompleks, daripada bagaimana orang menggunakan chatgpt hari ini, ”kata Anda.

Sementara sudah ada Terobosan yang luar biasa Dalam efisiensi AI dalam beberapa bulan terakhir, skala di mana AI digunakan diperkirakan akan mendorong ekspansi infrastruktur yang sangat besar dan haus kekuasaan. Dalam dua tahun ke depan, pusat data AI mungkin membutuhkan hampir semua kapasitas daya 2022 California (68 GW), Menurut laporan rand. Pada tahun 2030, melatih model perbatasan dapat menuntut output daya yang setara dengan delapan reaktor nuklir (8 GW), laporan tersebut diprediksi.

ChatGPT saja mencapai jumlah orang yang sangat besar – dan memperluas -, membuat servernya menuntut yang sama besarnya. Openai, bersama dengan beberapa mitra investasi, berencana untuk menghabiskan miliaran dolar untuk proyek pusat data AI baru Selama beberapa tahun ke depan.

Perhatian Openai-bersama dengan sisa industri AI-juga bergeser ke model penalaran, yang umumnya lebih mampu dalam hal tugas yang dapat mereka capai, tetapi membutuhkan lebih banyak komputasi untuk dijalankan. Berbeda dengan model seperti GPT-4O, yang menanggapi pertanyaan hampir secara instan, model penalaran “berpikir” selama beberapa menit sebelum menjawab, sebuah proses yang menyedot lebih banyak komputasi-dan dengan demikian daya.

“Model penalaran akan semakin mengambil tugas yang tidak bisa dilakukan oleh model lama, dan menghasilkan lebih banyak [data] Untuk melakukannya, dan keduanya membutuhkan lebih banyak pusat data, ”kata Anda.

Openai telah mulai merilis model penalaran yang lebih hemat daya seperti O3-Mini. Tetapi tampaknya tidak mungkin, setidaknya pada saat ini, keuntungan efisiensi akan mengimbangi peningkatan tuntutan daya dari proses “pemikiran” model penalaran dan pertumbuhan penggunaan AI di seluruh dunia.

Anda menyarankan agar orang -orang khawatir tentang aplikasi AI Energy Footprint mereka seperti chatgpt jarang, atau memilih model yang meminimalkan komputasi yang diperlukan – sejauh yang realistis.

“Anda bisa mencoba menggunakan model AI yang lebih kecil seperti [OpenAI’s] GPT-4O-Mini, “Anda berkata,” dan dengan hemat menggunakannya dengan cara yang membutuhkan pemrosesan atau menghasilkan banyak data. “

Source

Related Articles

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Back to top button