Perjuangan India Meraih Kemandirian AI

"" ...

Sekolahnews – Tantangan struktural dan banyaknya bahasa di negara ini telah menyulitkan pengembangan model AI yang mendasar. Namun, pemerintah ingin agar tidak ketinggalan.

Di Bengaluru, India, Adithya Kolavi merasakan campuran kegembiraan dan validasi saat ia menyaksikan DeepSeek meluncurkan model bahasa yang mengganggu ke dunia awal tahun ini. Teknologi China tersebut menyaingi yang terbaik dari Barat dalam hal tolok ukur, tetapi teknologi tersebut dibangun dengan modal yang jauh lebih sedikit dalam waktu yang jauh lebih singkat. 

“Saya berpikir: ‘Beginilah cara kita membuat perubahan dengan sedikit sumber daya?,’” kata Kolavi, pendiri perusahaan startup AI India CognitiveLab. “Jika DeepSeek bisa melakukannya, mengapa kami tidak?” 

Namun bagi Abhishek Upperwal, pendiri Soket AI Labs dan arsitek salah satu upaya paling awal India untuk mengembangkan model fondasi, momen itu terasa lebih pahit manis. 

Model Upperwal, yang disebut Pragna-1B, telah berjuang untuk tetap bertahan dengan hibah yang sangat kecil sementara ia menyaksikan rekan-rekan globalnya mengumpulkan dana jutaan dolar. Model multibahasa tersebut memiliki 1,25 miliar parameter yang relatif sederhana dan dirancang untuk mengurangi “pajak bahasa,” biaya tambahan yang timbul karena India—tidak seperti AS atau bahkan Tiongkok—memiliki banyak bahasa untuk didukung. Timnya telah melatihnya, tetapi sumber daya yang terbatas membuatnya tidak dapat ditingkatkan skalanya. Akibatnya, katanya, proyek tersebut menjadi bukti konsep alih-alih sebuah produk. 

“Jika kami mendapat pendanaan dua tahun lalu, ada kemungkinan besar kami akan menjadi pihak yang membangun apa yang baru saja dirilis DeepSeek,” katanya.

Antusiasme Kolavi dan kekecewaan Upperwal mencerminkan spektrum emosi di antara para pengembang AI di India. Meskipun berstatus sebagai pusat teknologi global, negara ini tertinggal jauh di belakang negara-negara seperti AS dan China dalam hal AI buatan dalam negeri. Kesenjangan itu muncul terutama karena India secara kronis kurang berinvestasi dalam R&D, lembaga, dan penemuan. Sementara itu, karena tidak ada satu pun bahasa ibu yang digunakan oleh mayoritas penduduk, pelatihan model bahasa jauh lebih rumit daripada di tempat lain. 

Sistem moderasi konten ditinggalkan dan didanai, membuat banyak negara mencari alternatif.

Secara historis dikenal sebagai kantor pusat global untuk industri perangkat lunak, India memiliki ekosistem teknologi yang berkembang dengan pola pikir yang mengutamakan layanan. Raksasa seperti Infosys dan TCS membangun kesuksesan mereka pada pengiriman perangkat lunak yang efisien, tetapi penemuan tidak diprioritaskan atau diberi penghargaan. Sementara itu, pengeluaran R&D India hanya berkisar pada 0,65% dari PDB ($25,4 miliar) pada tahun 2024, jauh di belakang China yang sebesar 2,68% ($476,2 miliar) dan AS yang sebesar 3,5% ($962,3 miliar). Kekuatan untuk menciptakan dan mengomersialkan teknologi canggih, dari algoritma hingga chip, tidak pernah dibangun.

Kantong-kantong penelitian kelas dunia yang terisolasi memang ada di dalam lembaga-lembaga pemerintah seperti DRDO (Defense Research & Development Organization) dan ISRO (Indian Space Research Organization), tetapi terobosan mereka jarang meluas ke penggunaan sipil atau komersial. India tidak memiliki jembatan untuk menghubungkan penelitian yang mengambil risiko dengan jalur komersial, seperti yang dilakukan DARPA di AS. Sementara itu, banyak talenta terbaik India bermigrasi ke luar negeri, tertarik pada ekosistem yang lebih memahami dan, yang terpenting, mendanai teknologi mendalam.

Jadi ketika model dasar sumber terbuka DeepSeek-R1 tiba-tiba mengungguli banyak rekan global, itu menyentuh hati. Peluncuran oleh perusahaan rintisan Tiongkok ini mendorong para pembuat kebijakan India untuk menghadapi seberapa jauh tertinggalnya negara itu dalam infrastruktur AI, dan seberapa mendesaknya negara itu perlu merespons.

India menanggapi

Pada bulan Januari 2025, 10 hari setelah peluncuran DeepSeek-R1, Kementerian Elektronika dan Teknologi Informasi (MeitY) meminta proposal untuk model dasar India sendiri, yang merupakan model AI besar yang dapat diadaptasi untuk berbagai tugas. Tender publiknya mengundang perusahaan cloud dan pusat data sektor swasta untuk memesan kapasitas komputasi GPU untuk penelitian AI yang dipimpin pemerintah. 

Para penyedia termasuk Jio, Yotta, E2E Networks, Tata, mitra AWS, dan CDAC menanggapi. Melalui pengaturan ini, MeitY tiba-tiba memiliki akses ke hampir 19.000 GPU dengan tarif bersubsidi, yang dialihkan dari infrastruktur pribadi dan dialokasikan khusus untuk proyek-proyek AI dasar. Hal ini memicu lonjakan proposal dari perusahaan-perusahaan yang ingin membangun model mereka sendiri. 

Dalam waktu dua minggu, sudah ada 67 proposal yang diterima . Jumlah itu meningkat tiga kali lipat pada pertengahan Maret. 

Pada bulan April, pemerintah mengumumkan rencana untuk mengembangkan enam model berskala besar pada akhir tahun 2025, ditambah 18 aplikasi AI tambahan yang menargetkan sektor-sektor seperti pertanian, pendidikan, dan aksi iklim. Yang paling menonjol, pemerintah memanfaatkan Sarvam AI untuk membangun model dengan 70 miliar parameter yang dioptimalkan untuk bahasa dan kebutuhan India. 

Bagi sebuah negara yang telah lama dibatasi oleh infrastruktur penelitian yang terbatas, segala sesuatunya bergerak dalam kecepatan yang sangat tinggi, menandai konvergensi yang langka dari ambisi, bakat, dan kemauan politik.

“India dapat meniru Mangalyaan dalam bidang AI,” kata Gautam Shroff dari IIIT-Delhi, merujuk pada misi pengorbit Mars yang hemat biaya dan berhasil di negara tersebut. 

Jaspreet Bindra, salah seorang pendiri AI&Beyond, sebuah organisasi yang berfokus pada pengajaran literasi AI, menangkap urgensi tersebut: “DeepSeek mungkin adalah hal terbaik yang pernah terjadi di India. Itu memberi kami dorongan untuk berhenti bicara dan mulai melakukan sesuatu.”

Masalah bahasa

Salah satu tantangan paling mendasar dalam membangun model AI dasar untuk India adalah keberagaman bahasa yang sangat banyak di negara tersebut. Dengan 22 bahasa resmi, ratusan dialek, dan jutaan orang yang menguasai banyak bahasa, India menimbulkan masalah yang hanya dapat diatasi oleh sedikit LLM yang ada.

Meskipun sejumlah besar data web berkualitas tinggi tersedia dalam bahasa Inggris, bahasa-bahasa India secara kolektif hanya mencakup kurang dari 1% konten daring. Kurangnya data yang didigitalkan, diberi label, dan dibersihkan dalam bahasa-bahasa seperti Bhojpuri dan Kannada membuat sulit untuk melatih LLM yang memahami cara orang India berbicara atau mencari informasi.

Tokenizer global, yang memecah teks menjadi unit-unit yang dapat diproses oleh model, juga berkinerja buruk pada banyak aksara India, salah menafsirkan karakter atau melewatkan beberapa karakter sama sekali. Akibatnya, bahkan ketika bahasa-bahasa India disertakan dalam model multibahasa, bahasa-bahasa tersebut sering kali kurang dipahami dan dihasilkan secara tidak akurat.

Berbeda dengan OpenAI dan DeepSeek, yang mencapai skala menggunakan data terstruktur berbahasa Inggris, tim India sering kali memulai dengan kumpulan data yang terfragmentasi dan berkualitas rendah yang mencakup puluhan bahasa India. Hal ini membuat langkah awal pelatihan model dasar menjadi jauh lebih rumit.

Koleksi Pelayan Pengetahuan di Internet Archive merupakan upaya untuk mengatasi kekurangan sumber daya perpustakaan di India.

Meskipun demikian, sekelompok kecil pembangun India yang bertekad mulai membentuk masa depan AI di negara tersebut.

Misalnya, Sarvam AI telah menciptakan OpenHathi-Hi-v0.1, sebuah model bahasa Hindi sumber terbuka yang menunjukkan kemampuan bidang AI India yang terus berkembang untuk menangani keragaman bahasa yang sangat luas di negara tersebut. Model yang dibangun di atas arsitektur Llama 2 milik Meta ini dilatih pada 40 miliar token bahasa Hindi dan konten bahasa India terkait, menjadikannya salah satu model Hindi sumber terbuka terbesar yang tersedia hingga saat ini.

Pragna-1B, model multibahasa dari Upperwal, adalah bukti lebih lanjut bahwa India dapat memecahkan masalah kompleksitas linguistiknya sendiri. Dilatih pada 300 miliar token hanya dengan $250.000, model ini memperkenalkan teknik yang disebut “tokenisasi seimbang” untuk mengatasi tantangan unik dalam AI India, yang memungkinkan model dengan 1,25 miliar parameter berperilaku seperti model yang jauh lebih besar.

Masalahnya adalah bahasa India menggunakan skrip yang kompleks dan tata bahasa aglutinatif, di mana kata-kata dibentuk dengan merangkai banyak unit makna yang lebih kecil menggunakan awalan dan akhiran. Tidak seperti bahasa Inggris, yang memisahkan kata-kata dengan spasi dan mengikuti struktur yang relatif sederhana, bahasa India seperti Hindi, Tamil, dan Kannada sering kali tidak memiliki batasan kata yang jelas dan mengemas banyak informasi ke dalam kata-kata tunggal. Tokenizer standar kesulitan dengan input seperti itu. Mereka akhirnya memecah kata-kata India menjadi terlalu banyak token, yang menggembungkan input dan mempersulit model untuk memahami maknanya secara efisien atau merespons dengan akurat.

Namun, dengan teknik baru tersebut, “model dengan satu miliar parameter setara dengan model dengan 7 miliar parameter seperti Llama 2,” kata Upperwal. Performa ini khususnya terlihat dalam bahasa Hindi dan Gujarati, di mana model global sering kali berkinerja buruk karena keterbatasan data pelatihan multibahasa. Hal ini menjadi pengingat bahwa dengan rekayasa cerdas, tim kecil masih dapat melampaui batasan.

Upperwal akhirnya menggunakan kembali teknologi intinya untuk membangun API ucapan untuk 22 bahasa India, solusi yang lebih cepat dan lebih cocok untuk pengguna pedesaan yang sering kali tidak mendapatkan pengalaman AI yang mengutamakan bahasa Inggris.

“Jika jalur menuju AGI merupakan proses seratus langkah, pelatihan model bahasa hanyalah langkah pertama,” katanya. 

Di ujung spektrum yang lain, ada perusahaan rintisan dengan tujuan yang lebih berani. Krutrim-2, misalnya, adalah model bahasa multibahasa dengan 12 miliar parameter yang dioptimalkan untuk bahasa Inggris dan 22 bahasa India. 

Krutrim-2 berupaya memecahkan masalah khusus India terkait keragaman bahasa, data berkualitas rendah, dan kendala biaya. Tim tersebut membangun tokenizer Indic khusus, mengoptimalkan infrastruktur pelatihan, dan merancang model untuk kasus penggunaan multimoda dan suara sejak awal, yang sangat penting di negara tempat antarmuka teks dapat menjadi masalah.

Taruhan Krutrim adalah bahwa pendekatannya tidak hanya akan memungkinkan kedaulatan AI India tetapi juga menawarkan model untuk AI yang berfungsi di seluruh Global Selatan.

Selain pendanaan publik dan infrastruktur komputasi, India juga memerlukan dukungan kelembagaan berupa bakat, kedalaman penelitian, dan modal berjangka panjang yang menghasilkan ilmu pengetahuan yang berdaya saing global.

Sementara modal ventura masih ragu untuk bertaruh pada penelitian, eksperimen baru mulai bermunculan. Paras Chopra, seorang wirausahawan yang sebelumnya membangun dan menjual perusahaan perangkat lunak sebagai layanan Wingify, kini secara pribadi mendanai Lossfunk, sebuah program residensi AI bergaya Bell Labs yang dirancang untuk menarik para peneliti independen yang menyukai sains sumber terbuka. 

“Kami tidak memiliki panutan di dunia akademis atau industri,” kata Chopra. “Jadi, kami menciptakan ruang tempat para peneliti papan atas dapat saling belajar dan memiliki peluang ekuitas ala perusahaan rintisan.”

https://buy.tinypass.com/checkout/template/cacheableShow?aid=WUOCNSUgpu&templateId=OTK3MV0EY5CW&templateVariantId=OTVSL3D8ZYF30&offerId=fakeOfferId&experienceId=EX63J2T68LHS&iframeId=offer_a8ca8d891baabec70075-0&displayMode=inline&pianoIdUrl=https%3A%2F%2Fauth.technologyreview.com%2Fid%2F&widget=template&url=https%3A%2F%2Fwww-technologyreview-com.translate.goog%2F2025%2F07%2F04%2F1119705%2Finside-indias-scramble-for-ai-independence%2F

Taruhan yang didukung pemerintah pada AI yang berdaulat

Penanda paling jelas dari ambisi AI India muncul ketika pemerintah memilih Sarvam AI untuk mengembangkan model yang berfokus pada bahasa India dan kefasihan suara.

Idenya adalah bahwa hal ini tidak hanya akan membantu perusahaan-perusahaan India bersaing dalam perlombaan AI global, tetapi juga akan menguntungkan masyarakat luas. “Jika hal ini menjadi bagian dari India, Anda dapat mendidik ratusan juta orang melalui antarmuka percakapan,” kata Bindra. 

Sarvam diberi akses ke 4.096 GPU Nvidia H100 untuk melatih model bahasa India dengan 70 miliar parameter selama enam bulan. (Perusahaan tersebut sebelumnya merilis model dengan 2 miliar parameter yang dilatih dalam 10 bahasa India, yang disebut Sarvam-1.)

Proyek Sarvam dan proyek lainnya merupakan bagian dari strategi yang lebih besar yang disebut Misi IndiaAI, sebuah inisiatif nasional senilai $1,25 miliar yang diluncurkan pada Maret 2024 untuk membangun infrastruktur inti AI di India dan membuat perangkat canggih lebih mudah diakses. Dipimpin oleh MeitY, misi ini difokuskan untuk mendukung perusahaan rintisan AI, khususnya yang mengembangkan model dasar dalam bahasa India dan menerapkan AI ke sektor-sektor utama seperti perawatan kesehatan, pendidikan, dan pertanian.

Di bawah program komputasinya, pemerintah menyebarkan lebih dari 18.000 GPU, termasuk hampir 13.000 chip H100 kelas atas, ke sekelompok perusahaan rintisan India terpilih yang saat ini mencakup Sarvam, Soket Labs Upperwal, Gnani AI , dan Gan AI . 

Misi tersebut juga mencakup rencana untuk meluncurkan repositori kumpulan data multibahasa nasional, mendirikan laboratorium AI di kota-kota kecil, dan mendanai penelitian dan pengembangan teknologi mendalam. Sasaran yang lebih luas adalah untuk membekali pengembang India dengan infrastruktur yang dibutuhkan untuk membangun AI yang kompetitif secara global dan memastikan bahwa hasilnya didasarkan pada realitas linguistik dan budaya India dan negara-negara berkembang.

Menurut Abhishek Singh, CEO IndiaAI dan seorang pejabat di MeitY, dorongan India yang lebih luas ke dalam teknologi mendalam diharapkan dapat meningkatkan sekitar $12 miliar dalam investasi penelitian dan pengembangan selama lima tahun ke depan. 

Ini mencakup sekitar $162 juta melalui Misi IndiaAI, dengan sekitar $32 juta dialokasikan untuk pendanaan langsung bagi perusahaan rintisan. Misi Kuantum Nasional menyumbang $730 juta lagi untuk mendukung ambisi India dalam penelitian kuantum. Selain itu, dokumen anggaran nasional untuk tahun 2025-26 mengumumkan Dana Deep Tech senilai $1,2 miliar yang ditujukan untuk mengkatalisasi inovasi tahap awal di sektor swasta.

Sisanya, hampir $9,9 miliar, diharapkan berasal dari sumber-sumber swasta dan internasional termasuk R&D perusahaan, perusahaan modal ventura, individu dengan kekayaan bersih tinggi, filantropis, dan pemimpin teknologi global seperti Microsoft. 

IndiaAI kini telah menerima lebih dari 500 aplikasi dari perusahaan rintisan yang mengusulkan kasus penggunaan di sektor seperti kesehatan, tata kelola, dan pertanian. 

“Kami telah mengumumkan dukungan untuk Sarvam, dan 10 hingga 12 perusahaan rintisan lainnya akan didanai hanya untuk model dasar,” kata Singh. Kriteria pemilihan meliputi akses ke data pelatihan, kedalaman bakat, kesesuaian sektor, dan skalabilitas.

Terbuka atau tertutup?

Namun, program IndiaAI bukannya tanpa kontroversi. Sarvam dibangun sebagai model tertutup, bukan sumber terbuka, meskipun akarnya adalah teknologi publik. Hal itu telah memicu perdebatan tentang keseimbangan yang tepat antara perusahaan swasta dan kepentingan publik. 

“Kedaulatan sejati harus berakar pada keterbukaan dan transparansi,” kata Amlan Mohanty, seorang spesialis kebijakan AI. Ia menunjuk DeepSeek-R1, yang meskipun memiliki ukuran parameter 236 miliar, tersedia secara bebas untuk penggunaan komersial. 

Cerita Terkait

Mengapa perusahaan-perusahaan Tiongkok bertaruh pada AI sumber terbuka

Bagi Alibaba dan beberapa perusahaan rintisan AI Cina, AI sumber terbuka menghadirkan peluang untuk komersialisasi yang lebih cepat dan pengakuan global.

Peluncurannya memungkinkan pengembang di seluruh dunia untuk menyempurnakannya pada GPU berbiaya rendah, menciptakan varian yang lebih cepat dan memperluas kemampuannya ke aplikasi non-Inggris.

“Merilis model open-weight dengan inferensi yang efisien dapat mendemokratisasi AI,” kata Hancheng Cao, asisten profesor sistem informasi dan manajemen operasi di Emory University. “Model ini dapat digunakan oleh pengembang yang tidak memiliki infrastruktur besar.”

Namun, IndiaAI telah mengambil sikap netral mengenai apakah model yang didanai publik harus bersifat sumber terbuka. 

“Kami tidak ingin mendikte model bisnis,” kata Singh. “India selalu mendukung standar terbuka dan sumber terbuka, tetapi itu tergantung pada tim. Sasarannya adalah model India yang kuat, apa pun jalannya.”

Ada pula tantangan lain. Pada akhir Mei, Sarvam AI meluncurkan Sarvam‑M, LLM multibahasa dengan 24 miliar parameter yang disempurnakan untuk 10 bahasa India dan dibangun di atas Mistral Small, model efisien yang dikembangkan oleh perusahaan Prancis Mistral AI. Salah satu pendiri Sarvam, Vivek Raghavan, menyebut model tersebut sebagai “batu loncatan penting dalam perjalanan kami membangun AI yang berdaulat untuk India.” Namun, jumlah unduhannya kurang memuaskan, hanya 300 dalam dua hari pertama. Kapitalis ventura Deedy Das menyebut peluncuran itu “memalukan.”

Dan masalahnya lebih dari sekadar penerimaan awal yang biasa-biasa saja. Banyak pengembang di India masih kekurangan akses mudah ke GPU dan ekosistem yang lebih luas untuk aplikasi AI berbahasa India masih baru. 

Pertanyaan komputasi

Kelangkaan komputasi muncul sebagai salah satu hambatan paling signifikan dalam AI generatif, tidak hanya di India tetapi juga di seluruh dunia. Bagi negara-negara yang masih sangat bergantung pada GPU impor dan kekurangan kapasitas fabrikasi dalam negeri, biaya membangun dan menjalankan model besar sering kali menjadi penghalang. 

India masih mengimpor sebagian besar chipnya daripada memproduksinya di dalam negeri, dan pelatihan model besar tetap mahal. Itulah sebabnya perusahaan rintisan dan peneliti sama-sama berfokus pada efisiensi tingkat perangkat lunak yang melibatkan model yang lebih kecil, inferensi yang lebih baik, dan kerangka kerja penyempurnaan yang mengoptimalkan kinerja pada GPU yang lebih sedikit.

“Tidak adanya infrastruktur tidak berarti tidak adanya inovasi,” kata Cao. “Mendukung ilmu optimasi adalah cara cerdas untuk bekerja dalam keterbatasan.” 

Namun Singh dari IndiaAI berpendapat bahwa tantangan infrastruktur mulai berubah berkat program pemerintah baru dan kemitraan swasta-publik. “Saya yakin bahwa dalam tiga bulan ke depan, kita tidak akan lagi menghadapi hambatan komputasi seperti yang kita lihat tahun lalu,” katanya.

India juga memiliki keunggulan biaya.

Menurut Gupta, membangun pusat data skala besar di India menghabiskan biaya sekitar $5 juta, kira-kira setengah dari biaya yang diperlukan di pasar seperti AS, Eropa, atau Singapura. Itu berkat harga tanah yang terjangkau, biaya konstruksi dan tenaga kerja yang lebih rendah, dan banyaknya teknisi terampil. 

Untuk saat ini, ambisi AI India tampaknya bukan tentang melampaui OpenAI atau DeepSeek, tetapi lebih tentang penentuan nasib sendiri yang strategis. Apakah pendekatannya mengambil bentuk model kedaulatan yang lebih kecil, ekosistem terbuka, atau hibrida publik-swasta, negara tersebut bertaruh bahwa mereka dapat menentukan jalannya sendiri. 

Sementara beberapa ahli berpendapat bahwa tindakan atau reaksi pemerintah (terhadap DeepSeek) bersifat performatif dan sejalan dengan agenda nasionalisnya, banyak pendiri perusahaan rintisan yang bersemangat. Mereka melihat kolaborasi yang berkembang antara negara dan sektor swasta sebagai peluang nyata untuk mengatasi tantangan struktural yang sudah lama ada di India dalam inovasi teknologi.

Pada pertemuan puncak Meta yang diadakan di Bengaluru tahun lalu, Nandan Nilekani, ketua Infosys, mendesak India untuk menolak mengejar mimpi AI yang meniru-niru. 

“Biarkan para ahli di Valley yang melakukannya,” katanya tentang membangun LLM. “Kami akan menggunakannya untuk membuat data sintetis, membangun model bahasa kecil dengan cepat, dan melatihnya menggunakan data yang sesuai.” 

Pandangannya bahwa India harus mengutamakan kekuatan daripada tontonan mendapat tanggapan yang beragam. Namun, pandangan ini mencerminkan konsensus yang lebih luas tentang apakah India harus memainkan permainan yang sama sekali berbeda.

“Mencoba mendominasi setiap lapisan tumpukan tidaklah realistis, bahkan untuk China,” kata Shobhankita Reddy, seorang peneliti di Takshashila Institution, sebuah lembaga nirlaba kebijakan publik India. “Kuasai satu lapisan, seperti aplikasi, layanan, atau bakat, agar Anda tetap tak tergantikan.” 

Ilustrasi