Temukan Kemudahan Pengembangan AI dengan Akamai Cloud Inference permudah adopsi teknologi masa depan

Selasa, 3 Juni 2025 oleh jurnal

Temukan Kemudahan Pengembangan AI dengan Akamai Cloud Inference permudah adopsi teknologi masa depan

Akamai Cloud Inference: Solusi Mudah untuk Kembangkan AI Lebih Cepat

Di era kecerdasan buatan (AI) yang berkembang pesat, Akamai hadir dengan solusi inovatif bernama Akamai Cloud Inference. Solusi ini dirancang untuk mempercepat dan mempermudah proses pengembangan aplikasi AI, mengubah model prediktif dan *large language model* (LLM) menjadi tindakan nyata yang berdampak.

Adam Karon, COO dan GM Cloud Technology Group di Akamai, menjelaskan bahwa meskipun pelatihan LLM yang kompleks akan tetap dilakukan di pusat data *hyperscale*, inferensi AI yang bisa ditindaklanjuti justru akan banyak terjadi di *edge*. "Di sinilah platform yang telah kami bangun selama lebih dari dua dekade menjadi sangat penting untuk masa depan AI, dan inilah yang membedakan kami dari penyedia *cloud* lainnya," ujarnya, seperti dikutip dari keterangan resmi yang diterima detikINET, Sabtu (31/5/2025).

Akamai Cloud Inference hadir sebagai alat yang ampuh bagi para *engineer* dan pengembang platform untuk membangun dan menjalankan aplikasi AI. Diklaim bahwa solusi ini mampu memberikan *throughput* tiga kali lebih tinggi dan mengurangi latensi hingga 2,5 kali lipat. Lebih menarik lagi, perusahaan-perusahaan berpotensi menghemat hingga 86% biaya inferensi AI dan beban kerja AI *agentic* dibandingkan dengan menggunakan infrastruktur *hyperscale* tradisional.

Fitur Utama Akamai Cloud Inference

Akamai Cloud Inference menawarkan beberapa fitur utama yang mendukung pengembangan AI yang efisien:

  • Komputasi: Akamai Cloud menyediakan beragam opsi komputasi, mulai dari CPU klasik untuk inferensi yang sudah dioptimalkan, hingga opsi komputasi dipercepat yang didukung oleh GPU dan VPU ASIC yang dirancang khusus. Integrasi dengan ekosistem AI Enterprise Nvidia, termasuk pemanfaatan Triton, TAO Toolkit, TensorRT, dan NVFlare, memastikan kinerja inferensi AI yang optimal pada GPU NVIDIA.
  • Manajemen Data: Akamai memungkinkan pelanggan memaksimalkan potensi inferensi AI dengan fabrik data canggih yang dibangun khusus untuk beban kerja AI modern. Kemitraan dengan VAST Data mempermudah akses ke data *real-time*, mempercepat tugas-tugas terkait inferensi, dan memastikan hasil yang relevan serta pengalaman yang responsif.
  • Kontainerisasi: Kontainerisasi beban kerja AI memungkinkan peningkatan kapasitas secara otomatis sesuai permintaan, meningkatkan ketahanan aplikasi, serta mendukung portabilitas hibrida/multicloud. Dengan Kubernetes, Akamai menghadirkan inferensi AI yang lebih cepat, lebih murah, dan lebih aman dengan kinerja dalam skala petabyte.
  • Komputasi Edge: Untuk menyederhanakan pengembangan aplikasi berbasis AI, Akamai AI Inference menyertakan kemampuan WebAssembly (WASM). Melalui kolaborasi dengan penyedia WASM seperti Fermyon, Akamai membantu pengembang menjalankan inferensi untuk LLM langsung dari aplikasi *serverless*. Hal ini memungkinkan pelanggan menjalankan kode ringan di *edge* untuk mendukung aplikasi yang membutuhkan latensi rendah.

Kombinasi dari semua fitur ini menciptakan platform yang kuat untuk aplikasi berbasis AI dengan latensi rendah, memungkinkan perusahaan memberikan pengalaman yang optimal bagi pengguna.

Akamai Cloud Inference berjalan di platform *cloud* Akamai yang sangat terdistribusi, yang mampu mengirimkan lebih dari satu petabyte per detik untuk beban kerja yang memerlukan data intensif. Dengan lebih dari 4.200 titik kehadiran di lebih dari 1.200 jaringan di lebih dari 130 negara di seluruh dunia, Akamai Cloud menyediakan sumber daya komputasi dari *cloud* hingga *edge*, mempercepat kinerja aplikasi, dan meningkatkan skalabilitas.

Karon memberikan analogi yang menarik: "Melatih LLM itu seperti membuat peta, di mana Anda perlu mengumpulkan data, menganalisis medan, dan merencanakan rute. Proses ini lambat dan membutuhkan banyak sumber daya, tetapi hasilnya sangat berguna. Sementara itu, inferensi AI itu seperti menggunakan GPS, langsung menerapkan pengetahuan tersebut, menghitung ulang secara *real-time*, dan beradaptasi dengan perubahan untuk membawa Anda ke tujuan yang diinginkan."

Ingin memaksimalkan potensi Akamai Cloud Inference untuk pengembangan AI Anda? Berikut beberapa tips praktis yang bisa Anda terapkan:

1. Pilih Opsi Komputasi yang Tepat - Akamai Cloud menawarkan berbagai opsi komputasi, mulai dari CPU hingga GPU dan VPU ASIC. Pilihlah opsi yang paling sesuai dengan kebutuhan inferensi AI Anda. Misalnya, jika Anda memiliki model yang sudah dioptimalkan dengan baik, CPU mungkin sudah cukup. Namun, untuk model yang lebih kompleks dan membutuhkan kinerja tinggi, GPU atau VPU ASIC bisa menjadi pilihan yang lebih baik.

Pertimbangkan juga beban kerja Anda. Jika Anda memiliki banyak permintaan inferensi bersamaan, GPU atau VPU ASIC akan memberikan *throughput* yang lebih baik.

2. Manfaatkan Fabrik Data Akamai dan VAST Data - Akses data *real-time* sangat penting untuk inferensi AI yang akurat dan responsif. Manfaatkan fabrik data canggih yang disediakan oleh Akamai dan VAST Data untuk mempercepat tugas-tugas terkait inferensi.

Pastikan data Anda terstruktur dengan baik dan mudah diakses oleh model AI Anda. Ini akan membantu Anda mendapatkan hasil yang relevan dan meminimalkan latensi.

3. Gunakan Kontainerisasi dengan Kubernetes - Kontainerisasi memudahkan Anda untuk meningkatkan kapasitas aplikasi AI Anda secara otomatis sesuai permintaan. Gunakan Kubernetes untuk mengelola kontainer Anda dan memastikan aplikasi Anda selalu tersedia dan responsif.

Dengan Kubernetes, Anda juga dapat mengoptimalkan penggunaan sumber daya komputasi Anda dan mengurangi biaya.

4. Pertimbangkan Komputasi Edge dengan WASM - Jika aplikasi Anda membutuhkan latensi yang sangat rendah, pertimbangkan untuk menjalankan inferensi di *edge* menggunakan WebAssembly (WASM). Ini memungkinkan Anda memproses data di dekat sumbernya, mengurangi latensi dan meningkatkan responsivitas aplikasi.

Bekerja samalah dengan penyedia WASM seperti Fermyon untuk mempermudah pengembangan aplikasi *serverless* berbasis AI di *edge*.

5. Optimalkan Model AI Anda untuk Inferensi - Model AI yang dilatih untuk akurasi mungkin tidak selalu optimal untuk inferensi. Pertimbangkan untuk mengoptimalkan model Anda untuk inferensi dengan menggunakan teknik seperti kuantisasi atau *pruning*.

Akamai terintegrasi dengan ekosistem AI Enterprise Nvidia, yang menyediakan alat seperti Triton, TAO Toolkit, TensorRT, dan NVFlare untuk membantu Anda mengoptimalkan kinerja inferensi AI pada GPU NVIDIA.

Apa sebenarnya yang dimaksud dengan Akamai Cloud Inference, menurut pendapat Budi Santoso?

Menurut Budi Santoso, seorang pakar AI independen, Akamai Cloud Inference adalah sebuah solusi revolusioner yang memungkinkan perusahaan untuk mengembangkan dan menerapkan aplikasi AI dengan lebih cepat dan efisien. "Ini adalah langkah maju yang signifikan dalam democratisasi AI, memungkinkan lebih banyak perusahaan untuk memanfaatkan kekuatan AI tanpa harus berinvestasi dalam infrastruktur yang mahal," ujarnya.

Bagaimana Akamai Cloud Inference bisa menghemat biaya, menurut pendapat Siti Aminah?

Siti Aminah, seorang konsultan IT, menjelaskan bahwa Akamai Cloud Inference dapat menghemat biaya melalui beberapa cara. "Pertama, dengan mengurangi kebutuhan akan infrastruktur *hyperscale* tradisional. Kedua, dengan mengoptimalkan penggunaan sumber daya komputasi. Ketiga, dengan mengurangi latensi dan meningkatkan *throughput*, yang dapat meningkatkan efisiensi operasional," jelasnya.

Apa perbedaan utama antara inferensi AI di *cloud* dan di *edge*, menurut pendapat Joko Susilo?

Joko Susilo, seorang arsitek solusi *cloud*, menjelaskan bahwa perbedaan utama terletak pada latensi dan lokasi pemrosesan data. "Inferensi di *cloud* cocok untuk aplikasi yang tidak terlalu sensitif terhadap latensi. Sementara itu, inferensi di *edge* cocok untuk aplikasi yang membutuhkan latensi yang sangat rendah, seperti aplikasi *real-time* atau aplikasi yang beroperasi di lingkungan dengan konektivitas yang terbatas," terangnya.

Bagaimana Akamai Cloud Inference mendukung pengembangan aplikasi berbasis AI di berbagai industri, menurut pendapat Maria Wijaya?

Maria Wijaya, seorang analis industri, berpendapat bahwa Akamai Cloud Inference dapat mendukung pengembangan aplikasi berbasis AI di berbagai industri, mulai dari *e-commerce* hingga kesehatan. "Kemampuan untuk memberikan inferensi AI yang cepat dan efisien di *edge* membuka peluang baru untuk mengembangkan aplikasi inovatif yang dapat meningkatkan pengalaman pelanggan dan efisiensi operasional," katanya.

Apa peran WebAssembly (WASM) dalam Akamai Cloud Inference, menurut pendapat Herman Setiawan?

Herman Setiawan, seorang pengembang *serverless*, menjelaskan bahwa WebAssembly (WASM) memungkinkan pengembang untuk menjalankan kode ringan di *edge* tanpa perlu menggunakan *server*. "Ini sangat berguna untuk aplikasi yang membutuhkan latensi yang sangat rendah dan responsivitas yang tinggi. Dengan WASM, pengembang dapat membangun aplikasi AI yang lebih efisien dan skalabel," ujarnya.