Perlindungan Data di Setiap Lapisan Generative AI dengan AWS

Kecerdasan buatan (AI) generatif mengubah pengalaman pelanggan di berbagai industri di seluruh dunia. Pelanggan membangun aplikasi AI generatif menggunakan model bahasa besar (LLM) dan model fondasi (FM) lainnya, yang meningkatkan pengalaman pelanggan, mengubah operasi, meningkatkan produktivitas karyawan, dan menciptakan saluran pendapatan baru.

 

FM dan aplikasi yang dibangun sering digunakan dengan data bisnis yang sangat sensitif, seperti data pribadi, data kepatuhan, data operasional, dan informasi keuangan, untuk mengoptimalkan keluaran model. Kekhawatiran terbesar dari para pelanggan ketika mereka mengeksplorasi keuntungan dari AI generatif adalah bagaimana melindungi data dan investasi mereka yang sangat sensitif. Karena data dan bobot model mereka sangat berharga, pelanggan mengharuskan mereka untuk tetap terlindungi, aman, dan privat, baik itu dari akun administrator mereka sendiri, pelanggan mereka, kerentanan dalam perangkat lunak yang berjalan di lingkungan mereka sendiri, atau bahkan penyedia layanan cloud mereka agar tidak dapat mengaksesnya.

 

AWS, prioritas utama kami adalah menjaga keamanan dan kerahasiaan beban kerja pelanggan kami. Kami memikirkan keamanan di tiga lapisan tumpukan AI generatif kami:

 

Lapisan bawah – Menyediakan alat untuk membangun dan melatih LLM dan FM lainnya
Lapisan tengah – Menyediakan akses ke semua model beserta alat yang Anda perlukan untuk membangun dan menskalakan aplikasi AI generatif
Lapisan atas – Termasuk aplikasi yang menggunakan LLM dan FM lainnya untuk membuat pekerjaan bebas stres dengan menulis dan men-debug kode, menghasilkan konten, memperoleh wawasan, dan mengambil tindakan
Setiap lapisan penting untuk membuat AI generatif meresap dan transformatif.

 

 

Dengan AWS Nitro System, AWS menghadirkan inovasi pertama dari jenisnya untuk pelanggan kami. Nitro System adalah tulang punggung komputasi yang tak tertandingi untuk AWS, dengan keamanan dan performa sebagai intinya. Perangkat keras khusus dan firmware terkaitnya dirancang untuk memberlakukan pembatasan sehingga tidak seorang pun, termasuk siapa pun di AWS, dapat mengakses beban kerja atau data Anda yang berjalan di instance Amazon Elastic Compute Cloud (Amazon EC2). Pelanggan telah mendapatkan manfaat dari kerahasiaan dan isolasi ini dari operator AWS pada semua instance EC2 berbasis Nitro sejak tahun 2017.

 

 

Secara desain, tidak ada mekanisme bagi karyawan Amazon mana pun untuk mengakses instance Nitro EC2 yang digunakan pelanggan untuk menjalankan beban kerja mereka, atau untuk mengakses data yang dikirim pelanggan ke akselerator atau GPU machine learning (ML). Perlindungan ini berlaku untuk semua instance berbasis Nitro, termasuk instance dengan akselerator ML seperti AWS Inferentia dan AWS Trainium, serta instance dengan GPU seperti P4, P5, G5, dan G6.

 

 

Sistem Nitro memungkinkan Elastic Fabric Adapter (EFA), yang menggunakan protokol komunikasi AWS Scalable Reliable Datagram (SRD) yang dibangun AWS untuk pelatihan terdistribusi yang elastis dan berskala besar, sehingga memungkinkan satu-satunya jaringan yang mampu melakukan Remote Direct Memory Access (RDMA) yang selalu terenkripsi. Semua komunikasi melalui EFA dienkripsi dengan enkripsi VPC tanpa menimbulkan penalti kinerja.

 

 

Desain Nitro System telah divalidasi oleh NCC Group, sebuah perusahaan keamanan siber independen. AWS memberikan perlindungan tingkat tinggi untuk beban kerja pelanggan, dan kami yakin ini adalah tingkat keamanan dan kerahasiaan yang seharusnya diharapkan oleh pelanggan dari penyedia cloud mereka. Tingkat perlindungan ini sangat penting sehingga kami menambahkannya dalam Persyaratan Layanan AWS untuk memberikan jaminan tambahan kepada semua pelanggan kami.

 

 

Berinovasi dalam mengamankan beban kerja AI generatif menggunakan kemampuan keamanan terdepan di industri AWS
Sejak hari pertama, infrastruktur dan layanan AI AWS telah memiliki fitur keamanan dan privasi bawaan untuk memberi Anda kendali atas data Anda. Saat pelanggan bergerak cepat untuk menerapkan AI generatif di organisasi mereka, Anda perlu mengetahui bahwa data Anda ditangani dengan aman di seluruh siklus hidup AI, termasuk persiapan data, pelatihan, dan penarikan kesimpulan. Keamanan bobot model-parameter yang dipelajari model selama pelatihan yang sangat penting untuk kemampuannya membuat prediksi-sangat penting untuk melindungi data Anda dan menjaga integritas model.

 

 

Inilah sebabnya mengapa sangat penting bagi AWS untuk terus berinovasi atas nama pelanggan kami untuk meningkatkan standar keamanan di setiap lapisan tumpukan AI generatif. Untuk melakukan hal ini, kami percaya bahwa Anda harus memiliki keamanan dan kerahasiaan yang dibangun di setiap lapisan tumpukan AI generatif. Anda harus dapat mengamankan infrastruktur untuk melatih LLM dan FM lainnya, membangun secara aman dengan alat untuk menjalankan LLM dan FM lainnya, serta menjalankan aplikasi yang menggunakan FM dengan keamanan dan privasi bawaan yang dapat Anda percayai.

 

 

Di AWS, pengamanan infrastruktur AI mengacu pada tidak adanya akses ke data AI yang sensitif, seperti bobot model AI dan data yang diproses dengan model tersebut, oleh orang yang tidak berwenang, baik di operator infrastruktur maupun pelanggan. Hal ini terdiri dari tiga prinsip utama:

 

 

Di AWS, pengamanan infrastruktur AI mengacu pada tidak adanya akses ke data AI yang sensitif, seperti bobot model AI dan data yang diproses dengan model tersebut, oleh siapa pun yang tidak berwenang, baik di operator infrastruktur maupun pelanggan. Hal ini terdiri dari tiga prinsip utama:

 

 

Isolasi penuh data AI dari operator infrastruktur – Operator infrastruktur tidak boleh memiliki kemampuan untuk mengakses konten pelanggan dan data AI, seperti bobot model AI dan data yang diproses dengan model tersebut.
Kemampuan bagi pelanggan untuk mengisolasi data AI dari diri mereka sendiri – Infrastruktur harus menyediakan mekanisme yang memungkinkan bobot model dan data dimuat ke dalam perangkat keras, namun tetap terisolasi dan tidak dapat diakses oleh pengguna dan perangkat lunak pelanggan.
Komunikasi infrastruktur yang terlindungi – Komunikasi antar perangkat dalam infrastruktur akselerator ML harus dilindungi. Semua tautan yang dapat diakses secara eksternal antara perangkat harus dienkripsi.

 

Nitro System memenuhi prinsip pertama dari Secure AI Infrastructure dengan mengisolasi data AI Anda dari operator AWS. Prinsip kedua memberi Anda cara untuk menghapus akses administratif pengguna dan perangkat lunak Anda sendiri ke data AI Anda. AWS tidak hanya menawarkan cara untuk mencapai hal tersebut, tetapi kami juga membuatnya mudah dan praktis dengan berinvestasi dalam membangun solusi terintegrasi antara AWS Nitro Enclaves dan AWS Key Management Service (AWS KMS). Dengan Nitro Enclaves dan AWS KMS, Anda dapat mengenkripsi data AI sensitif Anda menggunakan kunci yang Anda miliki dan kendalikan, menyimpan data tersebut di lokasi pilihan Anda, dan dengan aman mentransfer data terenkripsi ke lingkungan komputasi yang terisolasi untuk inferensi. Selama seluruh proses ini, data AI yang sensitif dienkripsi dan diisolasi dari pengguna dan perangkat lunak Anda sendiri di instance EC2, dan operator AWS tidak dapat mengakses data ini. Kasus penggunaan yang telah diuntungkan dari aliran ini termasuk menjalankan inferensi LLM dalam sebuah kantong. Hingga saat ini, Nitro Enclave hanya beroperasi di CPU, sehingga membatasi potensi model AI generatif yang lebih besar dan pemrosesan yang lebih kompleks.

 

 

Kami mengumumkan rencana kami untuk memperluas aliran terenkripsi end-to-end Nitro ini untuk menyertakan integrasi kelas satu dengan akselerator ML dan GPU, memenuhi prinsip ketiga. Anda akan dapat mendekripsi dan memuat data AI yang sensitif ke dalam akselerator ML untuk diproses sambil memberikan isolasi dari operator Anda sendiri dan keaslian terverifikasi dari aplikasi yang digunakan untuk memproses data AI. Melalui Nitro System, Anda dapat memvalidasi aplikasi Anda secara kriptografis ke AWS KMS dan mendekripsi data hanya jika pemeriksaan yang diperlukan telah berlalu. Peningkatan ini memungkinkan AWS untuk menawarkan enkripsi end-to-end untuk data Anda saat data mengalir melalui beban kerja AI generatif.

 

 

Kami berencana untuk menawarkan aliran terenkripsi end-to-end ini di Trainium2 yang dirancang AWS yang akan datang serta instance GPU berdasarkan arsitektur Blackwell NVIDIA yang akan datang, yang keduanya menawarkan komunikasi yang aman antar perangkat, prinsip ketiga dari Infrastruktur AI yang Aman. AWS dan NVIDIA berkolaborasi secara erat untuk menghadirkan solusi bersama ke pasar, termasuk platform GPU NVIDIA Blackwell NVIDIA yang baru, yang menggabungkan solusi NVIDIA GB200 NVL72 dengan teknologi Nitro System dan EFA untuk memberikan solusi terdepan di industri dalam membangun dan menerapkan aplikasi AI generatif generasi mendatang dengan aman.

 

 

Memajukan masa depan keamanan AI generatif
Saat ini, puluhan ribu pelanggan menggunakan AWS untuk bereksperimen dan memindahkan aplikasi AI generatif transformatif ke dalam produksi. Beban kerja AI generatif berisi data yang sangat berharga dan sensitif yang membutuhkan tingkat perlindungan dari operator Anda sendiri dan penyedia layanan cloud. Pelanggan yang menggunakan instance EC2 berbasis AWS Nitro telah menerima tingkat perlindungan dan isolasi ini dari operator AWS sejak tahun 2017, saat kami meluncurkan Sistem Nitro yang inovatif.

Di AWS, kami melanjutkan inovasi tersebut dengan berinvestasi dalam membangun kemampuan yang berkinerja dan dapat diakses untuk memudahkan pelanggan kami mengamankan beban kerja AI generatif mereka di tiga lapisan tumpukan AI generatif, sehingga Anda dapat fokus pada hal yang paling Anda lakukan: membangun dan memperluas penggunaan AI generatif ke lebih banyak area.

 

Selengkapnya dapat menghubungi tim kami di marketing@berca.co.id atau WhatsApp Berca