Analis manusia tidak dapat lagi secara efektif bertahan melawan serangan keamanan siber yang semakin cepat dan kompleks. Jumlah data terlalu besar untuk disaring secara manual.
AI Generatif, alat yang paling transformatif di zaman kita, memungkinkan semacam jiu jitsu digital. Hal ini memungkinkan perusahaan untuk mengubah kekuatan data yang mengancam dan ancaman akan kewalahan.
Para pemimpin bisnis tampaknya siap dengan peluang yang ada. Dalam sebuah survei baru-baru ini, para CEO mengatakan bahwa keamanan siber merupakan salah satu dari tiga kekhawatiran utama mereka, dan mereka melihat AI generatif sebagai teknologi terdepan yang akan memberikan keunggulan kompetitif.
AI generatif membawa risiko dan manfaat. Berikut adalah tiga cara AI generatif dapat meningkatkan keamanan siber.
Mulailah Dengan Pengembang
Pertama, berikan pengembang kopilot keamanan. Setiap orang berperan dalam keamanan, tetapi tidak semua orang adalah ahli keamanan. Jadi, ini adalah salah satu tempat paling strategis untuk memulai.
Tempat terbaik untuk mulai meningkatkan keamanan adalah di bagian depan, tempat para pengembang menulis perangkat lunak. Asisten bertenaga AI, yang dilatih sebagai ahli keamanan, dapat membantu mereka memastikan kode mereka mengikuti praktik terbaik dalam keamanan.
Asisten perangkat lunak AI dapat menjadi lebih pintar setiap hari jika diberi makan kode yang telah ditinjau sebelumnya. Asisten ini dapat belajar dari pekerjaan sebelumnya untuk membantu memandu para pengembang tentang praktik terbaik.
Untuk memberikan kemudahan bagi pengguna, NVIDIA menciptakan alur kerja untuk membangun co-pilot atau chatbot. Alur kerja khusus ini menggunakan komponen dari NVIDIA NeMo, sebuah kerangka kerja untuk membangun dan menyesuaikan model bahasa yang besar.
Baik pengguna menyesuaikan model mereka sendiri atau menggunakan layanan komersial, asisten keamanan hanyalah langkah pertama dalam menerapkan AI generatif pada keamanan siber.
Agen untuk Menganalisis Kerentanan
Kedua, biarkan AI generatif membantu menavigasi lautan kerentanan perangkat lunak yang diketahui.
Setiap saat, perusahaan harus memilih di antara ribuan tambalan untuk memitigasi eksploitasi yang diketahui. Hal ini dikarenakan setiap bagian dari kode dapat berakar pada puluhan bahkan ribuan cabang perangkat lunak dan proyek sumber terbuka yang berbeda.
LLM yang berfokus pada analisis kerentanan dapat membantu memprioritaskan patch mana yang harus diterapkan perusahaan terlebih dahulu. LLM merupakan asisten keamanan yang sangat kuat karena dapat membaca semua pustaka perangkat lunak yang digunakan perusahaan serta kebijakannya tentang fitur dan API yang didukungnya.
Untuk menguji konsep ini, NVIDIA membangun sebuah pipeline untuk menganalisis kontainer perangkat lunak untuk mencari kerentanan. Agen tersebut mengidentifikasi area yang perlu ditambal dengan akurasi tinggi, mempercepat pekerjaan analis manusia hingga 4x lipat.
Kesimpulannya jelas. Sudah waktunya untuk menggunakan AI generatif sebagai responden pertama dalam analisis kerentanan.
Mengisi Kesenjangan Data
Terakhir, gunakan LLM untuk membantu mengisi kesenjangan data yang terus bertambah dalam keamanan siber. Pengguna jarang berbagi informasi tentang pelanggaran data karena sangat sensitif. Hal ini menyulitkan untuk mengantisipasi eksploitasi.
Masukkan LLM. Model AI generatif dapat membuat data sintetis untuk mensimulasikan pola serangan yang belum pernah terjadi sebelumnya. Data sintetis tersebut juga dapat mengisi kesenjangan dalam data pelatihan sehingga sistem pembelajaran mesin dapat mempelajari cara mempertahankan diri dari eksploitasi sebelum terjadi.
Melakukan Simulasi yang Aman
Jangan menunggu penyerang menunjukkan apa yang mungkin terjadi. Buatlah simulasi yang aman untuk mempelajari bagaimana mereka mencoba menembus pertahanan perusahaan.
Pertahanan proaktif seperti ini adalah ciri khas dari program keamanan yang kuat. Sudah saatnya pengguna memanfaatkan teknologi canggih ini untuk pertahanan keamanan siber.
Untuk menunjukkan apa yang mungkin terjadi, alur kerja AI lainnya menggunakan AI generatif untuk mempertahankan diri dari spear phishing – email palsu yang ditargetkan dengan cermat yang merugikan perusahaan sekitar $ 2,4 miliar pada tahun 2021 saja.
Alur kerja ini menghasilkan email sintetis untuk memastikan bahwa ia memiliki banyak contoh pesan spear phishing yang bagus. Model AI yang dilatih dengan data tersebut belajar memahami maksud dari email yang masuk melalui kemampuan pemrosesan bahasa alami di NVIDIA Morpheus, sebuah kerangka kerja untuk keamanan siber bertenaga AI.
Model yang dihasilkan menangkap 21% lebih banyak email spear phishing dibandingkan dengan alat yang sudah ada. Berca Hardayaperkasa akan membantu tim kamu mengenai solusi keamanan, hubungi tim Berca di Marketing@berca.co.id atau WhatsApp