Dahaga AI terhadap Listrik yang Tak Pernah Terpuaskan dan Dampaknya bagi Dunia
Selasa, 15 April 2025 oleh jurnal
AI: Haus Listrik yang Tak Pernah Padam
Bayangkan dunia tanpa AI. Tanpa ChatGPT, tanpa rekomendasi film di Netflix, tanpa diagnosa medis yang cepat dan akurat. Sulit, bukan? AI memang telah merambah hampir semua aspek kehidupan modern, menawarkan kemudahan dan efisiensi yang luar biasa. Namun, di balik kecerdasan buatan ini, tersimpan rahasia kelam: konsumsi listriknya yang rakus.
Saya iseng bertanya pada Grok, AI besutan Elon Musk, tentang berapa listrik yang dihabiskan untuk menjawab satu pertanyaan. Jawabannya? "Sulit dipastikan, tergantung banyak faktor seperti perangkat, efisiensi server, dan kompleksitas pertanyaan. Kira-kira, satu pertanyaan sederhana mungkin menghabiskan 0,01-0,1 watt-hour (Wh) di sisi server." Kecil, ya? Tapi bayangkan miliaran pertanyaan yang diajukan setiap hari. Jumlahnya jadi luar biasa besar.
Seberapa Besar 'Nafsu Makan' AI?
Model bahasa besar (LLM) seperti GPT-4, Gemini, dan Claude, adalah 'pemakan' listrik sejati. Proses pelatihan dan inferensi (penggunaan model untuk menghasilkan respons) membutuhkan daya komputasi yang sangat besar. Laporan memproyeksikan permintaan listrik pusat data global akan meningkat lebih dari dua kali lipat pada 2030, mencapai 945 Terawatt-hour (TWh) – lebih besar dari total konsumsi listrik Jepang saat ini! McKinsey & Company juga memperkirakan lonjakan permintaan daya dari pusat data AS hingga 606 TWh pada 2030, naik drastis dari 147 TWh pada 2023.
Sebagai gambaran, pelatihan GPT-3 menghabiskan 1.300 Megawatt-hour (MWh) – setara konsumsi listrik 120 rumah di AS selama setahun! Bayangkan berapa energi yang dibutuhkan untuk melatih model yang lebih besar seperti GPT-4 atau Gemini. Sayangnya, angka pastinya sering dirahasiakan perusahaan.
Epoch AI, lembaga penelitian AI, menawarkan perkiraan yang lebih optimis, yaitu sekitar 0,3 Wh per interaksi sederhana di ChatGPT. Meski lebih tinggi dari pencarian Google (0,0003 Wh), angka ini jauh lebih rendah dari perkiraan sebelumnya (3 Wh). Perbedaan ini muncul karena asumsi yang berbeda tentang token keluaran, pemanfaatan daya server, dan efisiensi perangkat keras.
Dampak Lingkungan: Sebuah Tantangan Besar
Konsumsi listrik yang tinggi berarti emisi karbon yang tinggi pula. Pusat data, infrastruktur utama AI, mengonsumsi sekitar 1-1,3% listrik dunia pada 2022. Pada 2024, angka ini naik menjadi 415 TWh, atau sekitar 1,5% dari total penggunaan global. Dan ini baru permulaan, sebelum adopsi AI generatif secara luas.
Melatih satu model AI bisa menghasilkan 626.000 pon CO2 – hampir lima kali lipat emisi total mobil biasa seumur hidup! Belum lagi masalah penggunaan air yang besar untuk pendinginan perangkat keras dan peningkatan limbah elektronik dari masa pakai GPU yang singkat.
Bisakah AI Berkelanjutan?
Ketergantungan AI pada listrik menimbulkan pertanyaan penting tentang keberlanjutan. Charlotte Wang, pendiri EQuota Energy, menyoroti perlunya investasi strategis, insentif pemerintah, dan terobosan teknologi untuk memastikan solusi energi bersih yang digerakkan oleh AI dapat diperluas.
Beberapa solusi yang sedang dieksplorasi antara lain pengembangan model AI yang lebih hemat energi, penggunaan komputasi kuantum, dan optimalisasi algoritma. Peralihan ke energi terbarukan untuk menggerakkan pusat data juga menjadi kunci.
Berikut beberapa tips untuk mengurangi dampak lingkungan dari penggunaan AI:
1. Batasi penggunaan AI untuk hal-hal yang penting. - Sebelum menggunakan AI, tanyakan pada diri sendiri apakah tugas tersebut benar-benar membutuhkan AI atau bisa diselesaikan dengan cara konvensional. Misalnya, alih-alih menggunakan AI untuk meringkas artikel pendek, bacalah sendiri artikel tersebut.
2. Pilih penyedia AI yang menggunakan energi terbarukan. - Banyak perusahaan teknologi besar kini berkomitmen untuk menggunakan energi terbarukan di pusat data mereka. Pilihlah penyedia yang ramah lingkungan. Contohnya, Google telah berkomitmen untuk menggunakan energi terbarukan di pusat data mereka.
3. Gunakan model AI yang lebih kecil dan efisien. - Untuk tugas-tugas sederhana, gunakan model AI yang lebih kecil dan lebih efisien. Ini akan mengurangi konsumsi energi. Misalnya, untuk chatbot sederhana, tidak perlu menggunakan model sebesar GPT-4.
4. Dukung pengembangan dan adopsi teknologi AI yang hemat energi. - Dukung riset dan inovasi di bidang AI yang berfokus pada efisiensi energi. Ini bisa berupa pengembangan algoritma baru, perangkat keras yang lebih efisien, atau penggunaan komputasi kuantum. Misalnya, ikuti perkembangan riset tentang komputasi neuromorfik.
Bagaimana cara mengurangi jejak karbon AI, Pak Budi Santoso?
Budi Santoso, Menteri Energi dan Sumber Daya Mineral: "Pemerintah berkomitmen untuk mendorong transisi energi menuju sumber energi terbarukan. Ini krusial untuk mengurangi jejak karbon AI. Kami juga mendorong investasi di bidang riset dan pengembangan teknologi AI yang lebih hemat energi."
Apa dampak penggunaan air yang besar oleh pusat data AI, Ibu Ani Wijaya?
Ani Wijaya, Menteri Lingkungan Hidup dan Kehutanan: "Penggunaan air yang besar oleh pusat data AI, terutama untuk pendinginan, menjadi perhatian serius, khususnya di daerah yang rawan kekeringan. Kami sedang mengkaji regulasi dan insentif untuk mendorong penggunaan teknologi pendinginan yang lebih efisien dan ramah lingkungan."
Apa yang bisa dilakukan pengguna individu untuk mengurangi dampak lingkungan AI, Pak Bambang Sutrisno?
Bambang Sutrisno, Pakar Teknologi Informasi: "Pengguna bisa berkontribusi dengan bijak dalam menggunakan AI, misalnya hanya untuk keperluan yang penting. Memilih penyedia layanan yang berkomitmen pada energi terbarukan juga merupakan langkah konkret."
Bagaimana perkembangan riset untuk menciptakan AI yang lebih hemat energi, Ibu Dewi Pertiwi?
Dewi Pertiwi, Peneliti AI: "Saat ini, riset berfokus pada pengembangan algoritma yang lebih efisien, pemanfaatan komputasi kuantum, dan penciptaan chip khusus yang dirancang untuk AI. Semua ini bertujuan untuk mengurangi konsumsi energi AI secara signifikan tanpa mengorbankan performanya."