An Interview with Dr. Mike Flaxman, VP of Product Management at HEAVY.AI
Dr. Mike Flaxman, VP of Product Management at HEAVY.AI – Interview Series
Dr. Mike Flaxman saat ini menjabat sebagai VP of Product di HEAVY.AI, setelah sebelumnya menjabat sebagai Product Manager dan memimpin praktik Spatial Data Science di Professional Services. Beliau telah menghabiskan 20 tahun terakhir bekerja di bidang perencanaan lingkungan spasial. Sebelum HEAVY.AI, beliau mendirikan Geodesign Technologies, Inc dan menjadi salah satu pendiri GeoAdaptive LLC, dua startup yang menerapkan teknologi analisis spasial untuk perencanaan. Sebelum terjun ke dunia startup, beliau adalah seorang profesor perencanaan di MIT dan Industry Manager di ESRI.
HEAVY.AI adalah platform yang dipercepat perangkat keras untuk analisis data real-time dan berdampak tinggi. Platform ini memanfaatkan pemrosesan GPU dan CPU untuk meng-query dataset besar dengan cepat, dengan dukungan untuk SQL dan data geospasial. Platform ini mencakup alat visualisasi analitik untuk dashboard interaktif, penyaringan silang, dan visualisasi data yang dapat diskalakan, memungkinkan analisis big data yang efisien di berbagai industri.
Bagaimana latar belakang profesional Anda dan apa yang mendorong Anda bergabung dengan HEAVY.AI?
Sebelum bergabung dengan HEAVY.AI, saya menghabiskan bertahun-tahun di dunia akademis, akhirnya mengajar analisis spasial di MIT. Saya juga menjalankan sebuah firma konsultasi kecil, dengan berbagai klien sektor publik. Saya telah terlibat dalam proyek GIS di 17 negara. Pekerjaan saya membawa saya dari memberikan saran kepada organisasi seperti Inter American Development Bank hingga mengelola teknologi GIS untuk arsitektur, rekayasa, dan konstruksi di ESRI, pengembang GIS terbesar di dunia.
Saya masih ingat jelas pertemuan pertama saya dengan apa yang sekarang disebut HEAVY.AI, saat saya bertanggung jawab untuk perencanaan skenario untuk Program Konservasi Habitat Pantai Florida. Saya dan rekan-rekan saya kesulitan memodelkan habitat penyu laut menggunakan data Landsat 30m dan seorang teman menunjukkan kepada saya data LiDAR 5cm yang sangat baru dan relevan. Itu persis apa yang kami butuhkan secara ilmiah, tetapi sekitar 3600 kali lebih besar dari yang telah kami rencanakan untuk digunakan. Tidak perlu dikatakan, tidak ada yang akan meningkatkan anggaran saya bahkan sebesar sebagian kecil dari jumlah itu. Jadi hari itu saya meletakkan alat-alat yang telah saya gunakan dan ajarkan selama beberapa dekade dan mencari sesuatu yang baru. HEAVY.AI memotong dan merender data itu begitu lancar dan mudah sehingga saya langsung terpikat.
Melompat beberapa tahun ke depan, dan saya masih berpikir bahwa apa yang dilakukan HEAVY.AI cukup unik dan taruhannya awal pada analitik GPU adalah persis ke mana industri masih perlu pergi. HEAVY.AI sangat fokus pada demokratisasi akses ke big data. Ini memiliki komponen volume data dan kecepatan pemrosesan tentu saja, secara praktis memberikan setiap orang superkomputer mereka sendiri. Tetapi aspek yang semakin penting dengan munculnya model bahasa besar adalah membuat pemodelan spasial dapat diakses oleh jauh lebih banyak orang. Saat ini, daripada menghabiskan bertahun-tahun belajar antarmuka yang kompleks dengan ribuan alat, Anda dapat langsung memulai percakapan dengan HEAVY.AI dalam bahasa manusia pilihan Anda. Program ini tidak hanya menghasilkan perintah yang diperlukan, tetapi juga menyajikan visualisasi yang relevan.
Di balik layar, memberikan kemudahan penggunaan tentu saja sangat sulit. Saat ini, sebagai VP of Product Management di HEAVY.AI, saya sangat terlibat dalam menentukan fitur dan kemampuan mana yang kami prioritaskan untuk produk kami. Latar belakang GIS saya yang luas memungkinkan saya benar-benar memahami kebutuhan pelanggan kami dan memandu jalur pengembangan kami sesuai dengan itu.
Bagaimana pengalaman Anda sebelumnya dalam perencanaan lingkungan spasial dan startup memengaruhi pekerjaan Anda di HEAVY.AI?
Perencanaan lingkungan adalah domain yang sangat menantang karena Anda perlu mempertimbangkan berbagai kebutuhan manusia dan dunia alam. Solusi umum yang saya pelajari sejak dulu adalah mencocokkan metode yang dikenal sebagai perencanaan partisipatif, dengan teknologi-teknologi remote sensing dan GIS. Sebelum menetapkan rencana tindakan, kami membuat beberapa skenario dan mensimulasikan dampak positif dan negatifnya di komputer menggunakan visualisasi. Dengan menggunakan proses partisipatif, kami dapat menggabungkan berbagai bentuk keahlian dan menyelesaikan masalah yang sangat kompleks.
Meskipun kami biasanya tidak melakukan perencanaan lingkungan di HEAVY.AI, pola ini masih sangat efektif dalam pengaturan bisnis. Jadi kami membantu pelanggan membangun tiruan digital dari bagian-bagian kunci bisnis mereka, dan kami memungkinkan mereka membuat dan mengevaluasi skenario bisnis dengan cepat.
Saya rasa pengalaman mengajar saya telah memberikan empati yang mendalam terhadap pengguna perangkat lunak, terutama sistem perangkat lunak yang kompleks. Ketika seorang siswa tergelincir di satu tempat adalah acak, tetapi ketika puluhan atau ratusan orang membuat kesalahan serupa, Anda tahu Anda memiliki masalah desain. Mungkin bagian favorit saya dari desain perangkat lunak adalah mengambil pembelajaran ini dan mengaplikasikannya dalam merancang generasi baru sistem.
Bagaimana HeavyIQ memanfaatkan pemrosesan bahasa alami untuk memfasilitasi eksplorasi dan visualisasi data?
Saat ini, sepertinya setiap orang dan saudara laki-lakinya memamerkan model genAI baru, sebagian besar dari mereka adalah klon yang mudah dilupakan. Kami telah mengambil jalur yang sangat berbeda. Kami percaya bahwa akurasi, reproduktibilitas, dan privasi adalah karakteristik penting untuk alat analitik bisnis apa pun, termasuk yang dihasilkan dengan model bahasa besar (LLM). Jadi kami telah membangun itu ke dalam penawaran kami pada tingkat yang mendasar. Misalnya, kami membatasi input model secara ketat hanya pada database perusahaan dan untuk menyediakan dokumen di dalam perimeter keamanan perusahaan. Kami juga membatasi output ke HeavySQL terbaru dan Charts. Itu berarti bahwa tidak peduli pertanyaan apa yang Anda ajukan, kami akan mencoba menjawab dengan data Anda, dan kami akan menunjukkan secara tepat bagaimana kami mendapatkan jawaban itu.
Dengan garansi-garansi tersebut, tidak terlalu penting bagi pelanggan kami bagaimana kami memproses kueri. Namun, di balik layar, perbedaan penting lainnya dibandingkan dengan genAI konsumen adalah bahwa kami menyetel ulang model secara ekstensif terhadap jenis pertanyaan yang spesifik yang pengguna bisnis ajukan terhadap data bisnis, termasuk data spasial. Jadi misalnya model kami sangat bagus dalam melakukan join spasial dan deret waktu, yang tidak ada dalam benchmark SQL klasik tetapi pengguna kami gunakan setiap hari.
Kami memasukkan kemampuan inti ini ke dalam antarmuka Notebook kami yang kami sebut HeavyIQ. IQ adalah tentang membuat eksplorasi data dan visualisasi seintuitif mungkin dengan menggunakan pemrosesan bahasa alami (NLP). Anda mengajukan pertanyaan dalam bahasa Inggris—seperti, “Bagaimana pola cuaca di California minggu lalu?”—dan HeavyIQ menerjemahkan itu ke kueri SQL yang diproses database yang dipercepat GPU kami dengan cepat. Hasilnya disajikan bukan hanya sebagai data tetapi sebagai visualisasi—peta, grafik, apa pun yang paling relevan. Ini tentang memungkinkan kueri dan visualisasi yang interaktif, terutama saat menangani dataset besar atau bergerak cepat. Yang kunci di sini adalah seringkali bukan pertanyaan pertama yang Anda ajukan, tetapi mungkin yang ketiga, yang benar-benar mengungkapkan inti wawasan, dan HeavyIQ dirancang untuk memfasilitasi eksplorasi yang lebih dalam.
Apa manfaat utama menggunakan HeavyIQ daripada alat BI tradisional untuk perusahaan telekomunikasi, utilitas, dan lembaga pemerintah?
HeavyIQ sangat unggul dalam lingkungan di mana Anda berurusan dengan data berukuran besar, bergerak cepat—tepat jenis data yang dihadapi telekomunikasi, utilitas, dan lembaga pemerintah. Alat bisnis intelligence tradisional sering kesulitan dengan volume dan kecepatan data ini. Misalnya, dalam telekomunikasi, Anda mungkin memiliki miliaran catatan panggilan, tetapi hanya sebagian kecil panggilan yang terputus yang perlu difokuskan. HeavyIQ memungkinkan Anda menyaring data itu 10 hingga 100 kali lebih cepat berkat infrastruktur GPU kami. Kecepatan ini, dikombinasikan dengan kemampuan untuk menanyakan dan memvisualisasikan data secara interaktif, membuatnya sangat berharga untuk analisis risiko di utilitas atau perencanaan skenario real-time untuk lembaga pemerintah.
Keuntungan lain yang sudah disebutkan di atas, adalah bahwa kueri SQL spasial dan temporal sangat kuat secara analitis—tetapi bisa lambat atau sulit ditulis secara manual. Ketika sebuah sistem beroperasi pada apa yang kami sebut “kecepatan rasa ingin tahu,” pengguna dapat mengajukan lebih banyak pertanyaan dan pertanyaan yang lebih halus. Jadi misalnya seorang insinyur telekomunikasi mungkin melihat lonjakan temporal dalam kegagalan peralatan dari sistem pemantauan, memiliki intuisi bahwa sesuatu salah di fasilitas tertentu, dan memeriksanya dengan kueri spasial yang mengembalikan peta.
Tindakan apa yang diambil untuk mencegah kebocoran metadata saat menggunakan HeavyIQ?
Seperti yang dijelaskan di atas, kami membangun HeavyIQ dengan privasi dan keamanan sebagai inti. Ini termasuk tidak hanya data tetapi juga beberapa jenis metadata. Kami menggunakan metadata kolom dan tabel secara luas dalam menentukan tabel dan kolom mana yang berisi informasi yang diperlukan untuk menjawab kueri. Kami juga menggunakan dokumen internal perusahaan jika disediakan untuk membantu dalam apa yang dikenal sebagai retrieval-augmented generation (RAG). Terakhir, model bahasa itu sendiri menghasilkan metadata lebih lanjut. Semua ini, tetapi terutama yang dua terakhir dapat memiliki sensitivitas bisnis yang tinggi.
Berbeda dengan model pihak ketiga di mana data Anda biasanya dikirim ke server eksternal, HeavyIQ berjalan secara lokal pada infrastruktur GPU yang sama dengan bagian lain dari platform kami. Hal ini memastikan bahwa data dan metadata Anda tetap berada di bawah kendali Anda, tanpa risiko kebocoran. Untuk organisasi yang memerlukan tingkat keamanan tertinggi, HeavyIQ bahkan dapat diimplementasikan dalam lingkungan yang sepenuhnya terputus dari internet, memastikan bahwa informasi sensitif tidak pernah meninggalkan peralatan tertentu.
Bagaimana HEAVY.AI mencapai kinerja dan skalabilitas tinggi dengan dataset besar menggunakan infrastruktur GPU?
Rahasia utamanya pada dasarnya adalah menghindari pergerakan data yang umum dalam sistem lain. Intinya, ini dimulai dengan database yang dibangun khusus dirancang dari awal untuk berjalan di GPU NVIDIA. Kami telah bekerja pada ini selama lebih dari 10 tahun sekarang, dan kami benar-benar percaya kami memiliki solusi terbaik di kelasnya dalam hal analisis yang dipercepat GPU.
Bahkan sistem berbasis CPU terbaik pun kehabisan tenaga jauh sebelum GPU yang biasa saja. Strategi ketika ini terjadi di CPU memerlukan mendistribusikan data ke beberapa inti dan kemudian beberapa sistem (yang disebut ‘skalabilitas horizontal’). Ini berfungsi dengan baik dalam beberapa konteks di mana hal-hal kurang penting secara waktu, tetapi umumnya mulai menghadapi hambatan kinerja jaringan.
Selain menghindari semua pergerakan data ini pada kueri, kami juga menghindarinya pada banyak tugas lain yang umum. Pertama adalah kami dapat merender grafis tanpa memindahkan data. Kemudian jika Anda menginginkan pemodelan inferensi ML, kami lagi-lagi melakukannya tanpa pergerakan data. Dan jika Anda menanyai data dengan model bahasa besar, kami sekali lagi melakukannya tanpa pergerakan data. Bahkan jika Anda seorang ilmuwan data dan ingin menanyai data dari Python, kami sekali lagi menyediakan metode untuk melakukannya di GPU tanpa pergerakan data.
Apa artinya dalam praktik adalah bahwa kami dapat melakukan tidak hanya kueri tetapi juga merender 10 hingga 100 kali lebih cepat daripada database dan server peta berbasis CPU tradisional. Ketika Anda berurusan dengan dataset besar dan bergerak cepat yang dihadapi pelanggan kami—seperti model cuaca, catatan panggilan telekomunikasi, atau citra satelit—lonjakan kinerja semacam itu sangat penting.
Bagaimana HEAVY.AI mempertahankan keunggulan kompetitifnya dalam lanskap evolusi cepat analitik big data dan AI?
Itu adalah pertanyaan yang bagus, dan itu adalah sesuatu yang kami pikirkan terus-menerus. Lanskap analitik big data dan AI berkembang dengan sangat cepat, dengan terobosan dan inovasi baru terjadi setiap saat. Tentu tidak membahayakan bahwa kami memiliki 10 tahun keunggulan teknologi database GPU.
Saya pikir kunci bagi kami adalah tetap fokus pada misi inti kami—demokratisasi akses ke big data geospasial. Itu berarti terus mendorong batas-batas apa yang mungkin dengan analitik yang dipercepat GPU, dan memastikan produk kami memberikan kinerja dan kemampuan tak tertandingi dalam domain ini. Bagian besar dari itu adalah investasi berkelanjutan kami dalam mengembangkan model bahasa yang disesuaikan dan disesuaikan dengan benar sehingga benar-benar memahami nuansa SQL spasial dan analisis geospasial.
Kami telah membangun perpustakaan data pelatihan yang luas, melampaui benchmark generik, untuk memastikan alat analisis percakapan kami dapat berinteraksi dengan pengguna dengan cara yang alami, intuitif. Tetapi kami juga tahu bahwa teknologi saja tidak cukup. Kami harus tetap terhubung secara mendalam dengan pelanggan kami dan kebutuhan mereka yang terus berkembang. Pada akhirnya, keunggulan kompetitif kami datang dari fokus tanpa henti kami pada memberikan nilai transformasional kepada pengguna kami. Kami tidak hanya mengikuti pasar—kami mendorong batas-batas apa yang mungkin dengan big data dan AI. Dan kami akan terus melakukannya, tidak peduli seberapa cepat lanskap berevolusi.
Bagaimana HEAVY.AI mendukung upaya tanggap darurat melalui HeavyEco?
Kami membangun HeavyEco ketika kami melihat beberapa pelanggan utilitas terbesar kami menghadapi tantangan signifikan hanya untuk menyajikan output model cuaca saat ini, serta memvisualisasikannya untuk perbandingan bersama. Dibutuhkan satu pelanggan hingga empat jam hanya untuk memuat data, dan ketika Anda berhadapan dengan kondisi cuaca ekstrem yang bergerak cepat seperti kebakaran…itu tidak cukup bagus.
HeavyEco dirancang untuk memberikan wawasan real-time dalam situasi berdampak tinggi, seperti selama kebakaran hutan atau banjir. Dalam skenario seperti itu, Anda perlu membuat keputusan dengan cepat dan berdasarkan data terbaik yang mungkin. Jadi HeavyEco pertama-tama berfungsi sebagai saluran data yang dikelola secara profesional untuk model otoritatif seperti dari NOAA dan USGS. Di atas itu, HeavyEco memungkinkan Anda menjalankan skenario, memodelkan dampak tingkat bangunan, dan memvisualisasikan data secara real-time. Ini memberi petugas pemadam kebakaran informasi kritis yang mereka butuhkan saat paling dibutuhkan. Ini tentang mengubah dataset yang kompleks dan besar menjadi intelijen yang dapat dijadikan landasan untuk pengambilan keputusan segera.
Pada akhirnya, tujuan kami adalah memberi pengguna kemampuan untuk menjelajahi data mereka dengan kecepatan pikiran. Baik mereka menjal