Seiring berkembangnya AI dalam penggunaan dan pemakaian di banyak sektor dan bidang, menyebabkan meningkatnya konsumsi daya AI. Ini dapat terjadi karena sebagian besar disebabkan oleh peningkatan popularitas deep learning, cabang algoritma kecerdasan buatan yang bergantung pada pemrosesan data dalam jumlah besar.
“Algoritma pembelajaran mesin modern menggunakan jaringan neural dalam, yang merupakan model matematika yang sangat besar dengan ratusan juta atau bahkan milyaran parameter,” kata Kate Saenko, profesor di Departemen Ilmu Komputer di Universitas Boston dan direktur Komputer Visi dan Kelompok Belajar – sebagaimana dikutip di PC Magazine.
Banyak parameter ini memungkinkan jaringan saraf untuk memecahkan masalah yang rumit seperti mengklasifikasikan gambar, mengenali wajah dan suara, dan menghasilkan teks yang koheren dan meyakinkan. Namun sebelum mereka dapat melakukan tugas-tugas ini dengan akurasi yang optimal, jaringan saraf perlu menjalani “pelatihan”, yang melibatkan pengaturan parameter mereka dengan melakukan penghitungan rumit pada sejumlah besar contoh.
“Lebih buruk lagi, jaringan tidak langsung belajar setelah melihat contoh pelatihan sekali; itu harus diperlihatkan contoh berkali-kali sebelum parameternya menjadi cukup baik untuk mencapai akurasi yang optimal,” lanjut Saenko. Semua perhitungan ini membutuhkan banyak listrik.
Menurut sebuah studi oleh para peneliti di Universitas Massachusetts, Amherst, listrik yang dikonsumsi selama pelatihan transformator, sejenis algoritma pembelajaran mendalam, dapat mengeluarkan lebih dari 626.000 pon karbon dioksida – hampir lima kali emisi rata-rata mobil Amerika. Studi lain menemukan bahwa AlphaZero, sistem AI Go dan bermain catur Google, menghasilkan 192.000 pon CO2 selama pelatihan. Mungkin tidak semua sistem AI semahal ini.
Transformer digunakan dalam sebagian kecil model pembelajaran mendalam, sebagian besar dalam sistem pemrosesan bahasa alami tingkat lanjut seperti GPT-2 dan BERT OpenAI, yang baru-baru ini diintegrasikan ke dalam mesin telusur Google. Dan beberapa laboratorium AI memiliki sumber daya keuangan untuk mengembangkan dan melatih model AI yang mahal seperti AlphaZero.
Selain itu, setelah deep-learning model dilatih, dibutuhkan daya yang jauh lebih sedikit. “Untuk jaringan yang terlatih untuk membuat prediksi, jaringan perlu melihat data masukan hanya sekali, dan ini hanya satu contoh daripada database besar secara keseluruhan.
Jadi inferensi jauh lebih murah untuk dilakukan secara komputasi, “kata Saenko. Banyak model pembelajaran mendalam dapat diterapkan pada perangkat yang lebih kecil setelah dilatih di server besar.
Banyak aplikasi edge AI sekarang berjalan di perangkat seluler, drone, laptop, dan perangkat IoT (Internet of Things). Tetapi bahkan model pembelajaran mendalam yang kecil mengkonsumsi banyak energi dibandingkan dengan perangkat lunak lain.
Dan mengingat perluasan aplikasi deep-learning, biaya kumulatif sumber daya komputasi yang dialokasikan untuk melatih jaringan neural berkembang menjadi masalah. Menurut sebuah perkiraan, pada tahun 2030, lebih dari 6 persen energi dunia dapat dikonsumsi oleh Data Center.
“Saya tidak berpikir itu akan terjadi, meskipun menurut saya latihan seperti hackathon kami menunjukkan bagaimana pengembang kreatif dapat ketika diberi masukan tentang pilihan yang mereka buat. Solusi mereka akan jauh lebih efisien”, kata John Cohn, seorang ilmuwan riset dengan IBM yang ikut memimpin hackathon Green AI di MIT.
Hal ini kiranya menjadi ide dan pemikiran untuk menciptakan Perangkat Keras AI yang seharusnya hemat energi dan ramah lingkungan. Topik ini akan dibahas pada artikel selanjutnya.