Huawei Membuka Stack Perangkat Lunak AI Cloud untuk Mengatasi Tantangan Adopsi Pengembang
Pada minggu lalu, penyedia cloud dan perusahaan yang membangun infrastruktur AI pribadi menerima timeline implementasi mendetail untuk menerapkan stack perangkat lunak AI cloud open-source dari Huawei. Di acara Huawei Connect 2025 yang berlangsung di Shanghai, perusahaan ini menguraikan bagaimana toolkit CANN, lingkungan pengembangan seri Mind, dan model dasar openPangu akan tersedia untuk umum pada 31 Desember, menjawab tantangan yang terus berlanjut dalam penerapan AI cloud: ketergantungan pada vendor dan ketergantungan pada alat proprietary.
Pengumuman ini memiliki arti penting bagi tim infrastruktur cloud yang mengevaluasi strategi AI multi-vendor. Dengan membuka sumber seluruh stack perangkat lunaknya dan menyediakan integrasi sistem operasi yang fleksibel, Huawei menempatkan platform Ascend-nya sebagai alternatif yang layak bagi organisasi yang ingin menghindari ketergantungan pada ekosistem proprietary tunggal—masalah yang semakin mengkhawatirkan seiring dengan meningkatnya anggaran infrastruktur cloud untuk beban kerja AI.
Mengatasi Friksi Penerapan Cloud
Eric Xu, Wakil Ketua dan Ketua Bergilir Huawei, membuka keynote-nya dengan pengakuan jujur mengenai tantangan yang dihadapi penyedia cloud dan perusahaan dalam menerapkan infrastruktur Ascend. Mengacu pada dampak peluncuran DeepSeek-R1 awal tahun ini, Xu mencatat: “Antara Januari dan 30 April, tim R&D AI kami bekerja sama untuk memastikan bahwa kemampuan inferensi dari chip Ascend 910B dan 910C dapat memenuhi kebutuhan pelanggan.”
Setelah sesi umpan balik pelanggan, Xu menyatakan: “Pelanggan kami telah mengangkat banyak masalah dan ekspektasi yang mereka miliki terhadap Ascend. Dan mereka terus memberikan saran yang luar biasa.”
Bagi penyedia cloud yang mengalami kesulitan dengan integrasi alat Ascend, kekurangan dokumentasi, atau kematangan ekosistem, penilaian jujur ini menunjukkan kesadaran bahwa kemampuan teknis saja tidak menjamin keberhasilan penerapan cloud. Strategi open-source ini tampak dirancang untuk mengatasi titik friksi operasional ini dengan memungkinkan kontribusi komunitas dan memungkinkan tim infrastruktur cloud untuk menyesuaikan implementasi untuk lingkungan spesifik mereka.
Toolkit CANN: Lapisan Dasar untuk Penerapan Cloud
Komitmen paling signifikan untuk penerapan stack perangkat lunak AI cloud melibatkan CANN (Compute Architecture for Neural Networks), toolkit dasar Huawei yang berada di antara kerangka kerja AI dan perangkat keras Ascend. Pada KTT Pengembangan Industri Komputasi Ascend di bulan Agustus, Xu menegaskan: “Untuk CANN, kami akan membuka antarmuka untuk compiler dan set instruksi virtual, dan sepenuhnya open-source untuk perangkat lunak lainnya.”
Pendekatan bertingkat ini membedakan antara komponen yang menerima perlakuan open-source penuh dan yang di mana Huawei menyediakan antarmuka terbuka dengan implementasi yang mungkin proprietary. Bagi tim infrastruktur cloud, ini berarti transparansi mengenai bagaimana beban kerja dikompilasi dan dieksekusi di prosesor Ascend—informasi penting untuk perencanaan kapasitas, optimisasi kinerja, dan manajemen multi-tenant.
Antarmuka untuk compiler dan set instruksi virtual akan terbuka, memungkinkan penyedia cloud untuk memahami proses kompilasi meskipun implementasi tetap sebagian tertutup. Transparansi ini penting untuk penerapan cloud di mana prediktabilitas kinerja dan kemampuan optimisasi secara langsung mempengaruhi ekonomi layanan dan pengalaman pelanggan.
Timeline tetap tegas: “Kami akan membuka sumber dan akses dengan CANN (berdasarkan desain Ascend 910B/910C yang ada) pada 31 Desember 2025.” Spesifikasi perangkat keras generasi saat ini memperjelas bahwa penyedia cloud dapat membangun strategi penerapan di sekitar spesifikasi yang stabil alih-alih mengantisipasi perubahan arsitektur di masa depan.
Seri Mind: Alat Lapisan Aplikasi
Di luar infrastruktur dasar, Huawei berkomitmen untuk membuka sumber alat lapisan aplikasi yang sebenarnya digunakan oleh pelanggan cloud: “Untuk kit dan toolchain enablement aplikasi seri Mind kami, kami akan sepenuhnya open-source pada 31 Desember 2025,” konfirmasi Xu di Huawei Connect, memperkuat komitmen bulan Agustus.
Seri Mind mencakup SDK, pustaka, alat debugging, profiler, dan utilitas—lingkungan pengembangan praktis yang dibutuhkan pelanggan cloud untuk membangun aplikasi AI. Berbeda dengan pendekatan bertingkat CANN, seri Mind menerima komitmen blanket untuk open-source penuh.
Bagi penyedia cloud yang menawarkan layanan AI terkelola, ini berarti seluruh lapisan aplikasi menjadi dapat diperiksa dan dimodifikasi. Tim infrastruktur cloud dapat meningkatkan kemampuan debugging, mengoptimalkan pustaka untuk beban kerja pelanggan tertentu, dan membungkus utilitas dalam antarmuka spesifik layanan.
Ekosistem pengembangan dapat berkembang melalui kontribusi komunitas alih-alih bergantung hanya pada pembaruan vendor. Namun, pengumuman tersebut tidak merinci alat spesifik apa yang termasuk dalam seri Mind, bahasa pemrograman yang didukung, atau kelengkapan dokumentasi.
Model Dasar OpenPangu untuk Layanan Cloud
Melampaui alat pengembangan, Huawei berkomitmen untuk “sepenuhnya open-source” model dasar openPangu mereka. Bagi penyedia cloud, model dasar open-source mewakili peluang untuk menawarkan layanan AI yang terpisah tanpa mengharuskan pelanggan membawa model mereka sendiri atau menanggung biaya pelatihan.
Pengumuman tersebut tidak memberikan rincian spesifik tentang kemampuan openPangu, jumlah parameter, data pelatihan, atau syarat lisensi—semua detail yang dibutuhkan penyedia cloud untuk perencanaan layanan. Lisensi model dasar sangat mempengaruhi penerapan cloud: pembatasan pada penggunaan komersial, redistribusi, atau penyempurnaan secara langsung berdampak pada layanan yang dapat ditawarkan penyedia dan bagaimana mereka dapat dimonetisasi.
Rilis bulan Desember akan mengungkap apakah model openPangu merupakan alternatif yang layak untuk opsi open-source yang sudah mapan yang dapat diintegrasikan ke dalam layanan terkelola atau ditawarkan melalui pasar model.
Integrasi Sistem Operasi: Fleksibilitas Multi-Cloud
Sebuah detail implementasi praktis mengatasi hambatan umum dalam penerapan cloud: kompatibilitas sistem operasi. Huawei mengumumkan bahwa “seluruh Komponen UB OS” telah dibuat open-source dengan jalur integrasi fleksibel untuk berbagai lingkungan Linux.
Menurut pengumuman tersebut: “Pengguna dapat mengintegrasikan sebagian atau seluruh kode sumber Komponen UB OS ke dalam OS yang ada, untuk mendukung iterasi independen dan pemeliharaan versi. Pengguna juga dapat menyematkan seluruh komponen ke dalam OS yang ada sebagai plugin untuk memastikan bahwa ia dapat berkembang sejalan dengan komunitas open-source.”
Bagi penyedia cloud, desain modular ini berarti infrastruktur Ascend dapat diintegrasikan ke dalam lingkungan yang ada tanpa memaksa migrasi ke sistem operasi khusus Huawei. Komponen UB OS—yang menangani manajemen interkoneksi SuperPod di tingkat sistem operasi—dapat diintegrasikan ke dalam Ubuntu, Red Hat Enterprise Linux, atau distribusi lainnya yang membentuk dasar infrastruktur cloud.
Fleksibilitas ini sangat penting untuk penerapan hybrid cloud dan multi-cloud di mana standardisasi pada satu distribusi sistem operasi di seluruh infrastruktur yang beragam menjadi tidak praktis.
Namun, fleksibilitas ini mentransfer tanggung jawab integrasi dan pemeliharaan kepada penyedia cloud alih-alih menawarkan dukungan vendor turnkey—pendekatan yang bekerja dengan baik untuk organisasi dengan keahlian Linux yang kuat tetapi mungkin menantang bagi penyedia cloud yang lebih kecil yang mengharapkan solusi yang dikelola vendor.
Kompatibilitas Kerangka Kerja: Mengurangi Hambatan Migrasi
Untuk adopsi stack perangkat lunak AI cloud, kompatibilitas dengan kerangka kerja yang ada menentukan friksi migrasi. Alih-alih memaksa pelanggan cloud untuk meninggalkan alat yang sudah dikenal, Huawei membangun lapisan integrasi. Menurut Huawei, mereka “telah memprioritaskan dukungan untuk komunitas open-source seperti PyTorch dan vLLM untuk membantu pengembang berinovasi secara mandiri.”
Kompatibilitas PyTorch sangat signifikan bagi penyedia cloud mengingat dominasi kerangka kerja tersebut dalam beban kerja AI. Jika pelanggan dapat menerapkan kode PyTorch standar di infrastruktur Ascend tanpa modifikasi yang ekstensif, penyedia cloud dapat menawarkan layanan berbasis Ascend kepada basis pelanggan yang ada tanpa memerlukan penulisan ulang aplikasi.
Integrasi vLLM menargetkan optimisasi inferensi model bahasa besar—kasus penggunaan yang sangat diminati saat organisasi menerapkan aplikasi berbasis LLM melalui layanan cloud. Dukungan vLLM asli menunjukkan bahwa Huawei sedang menangani masalah praktis dalam penerapan cloud alih-alih hanya kemampuan penelitian.
Namun, pengumuman tersebut tidak merinci kelengkapan integrasi—informasi penting bagi penyedia cloud yang mengevaluasi penawaran layanan. Kompatibilitas PyTorch yang sebagian memerlukan solusi yang rumit atau kinerja yang tidak optimal dapat menciptakan tantangan dukungan pelanggan dan masalah kualitas layanan.
Timeline 31 Desember dan Implikasi bagi Penyedia Cloud
Timeline 31 Desember 2025 untuk open-source CANN, seri Mind, dan model openPangu kurang lebih tiga bulan lagi, menunjukkan bahwa pekerjaan persiapan yang substansial sudah selesai. Bagi penyedia cloud, tenggat waktu jangka pendek ini memungkinkan perencanaan konkret untuk potensi penawaran layanan atau evaluasi infrastruktur pada awal 2026.
Kualitas rilis awal akan sangat menentukan adopsi penyedia cloud. Proyek open-source yang tiba dengan dokumentasi yang tidak lengkap, contoh terbatas, atau alat yang belum matang menciptakan friksi penerapan yang harus diserap penyedia cloud atau diteruskan kepada pelanggan—tidak ada opsi yang menarik untuk layanan terkelola.
Penyedia cloud memerlukan panduan implementasi komprehensif, contoh siap produksi, dan jalur yang jelas dari bukti konsep menuju penerapan skala produksi. Rilis bulan Desember mewakili awal, bukan akhir—adopsi stack perangkat lunak AI cloud yang berhasil memerlukan investasi berkelanjutan dalam manajemen komunitas, pemeliharaan dokumentasi, dan pengembangan yang berkelanjutan.
Apakah Huawei berkomitmen untuk dukungan komunitas selama bertahun-tahun akan menentukan apakah penyedia cloud dapat dengan percaya diri membangun strategi infrastruktur jangka panjang di sekitar platform Ascend atau apakah teknologi tersebut berisiko menjadi tidak didukung dengan kode publik tetapi pengembangan aktif yang minimal.
Timeline Evaluasi Penyedia Cloud
Bagi penyedia cloud dan perusahaan yang mengevaluasi stack perangkat lunak AI cloud open-source Huawei, tiga bulan ke depan memberikan waktu persiapan. Organisasi dapat menilai kebutuhan, mengevaluasi apakah spesifikasi Ascend cocok dengan karakteristik beban kerja yang direncanakan, dan mempersiapkan tim infrastruktur untuk potensi adopsi platform.
Rilis 31 Desember akan memberikan materi evaluasi konkret: kode aktual untuk ditinjau, dokumentasi untuk dinilai, dan toolchain untuk diuji dalam penerapan bukti konsep. Minggu setelah rilis akan mengungkapkan respons komunitas—apakah kontributor eksternal mengajukan masalah, mengajukan perbaikan, dan mulai membangun sumber daya ekosistem yang membuat platform semakin siap untuk produksi.
Menjelang pertengahan 2026, pola harus muncul tentang apakah strategi Huawei membangun komunitas aktif di sekitar infrastruktur Ascend atau apakah platform tetap dipimpin vendor dengan partisipasi eksternal yang terbatas. Bagi penyedia cloud, periode evaluasi enam bulan dari Desember 2025 hingga pertengahan 2026 akan menentukan apakah stack perangkat lunak AI cloud open-source ini layak untuk investasi infrastruktur yang serius dan pengembangan layanan yang berorientasi pelanggan.
(Foto oleh Cloud Computing News)
“`