Dua jalur AI: persaingan pintu masuk cloud, atau aplikasi native di sisi pengguna?
Baru-baru ini saya melihat Alibaba merilis aplikasi Tongyi Qianwen, resmi terjun ke dalam perang aplikasi C-end. Sam Altman sebelumnya juga sering mengekspresikan obsesinya terhadap "super aplikasi", terus-menerus menambahkan berbagai fungsi sosial ke dalam ChatGPT.
Dalam narasi perusahaan besar, aplikasi AI masa depan tampaknya ditakdirkan untuk menjadi salinan dari aplikasi super internet saat ini — menjadi satu-satunya pintu masuk, menggabungkan berbagai fungsi dalam satu.
Tetapi, apakah masa depan aplikasi AI benar-benar akan terfokus pada satu jalur ini? Apakah ada kemungkinan jalur lain?
Jika kita mengalihkan perhatian dari aplikasi AI Chat yang umum, dan melihat alat pemrograman seperti Cursor dan Windsurf, mengintegrasikan berbagai alat MCP, mungkin kita dapat melihat sekilas dan merasakan denyut nadi aplikasi asli AI (AI Native App) yang sama sekali berbeda.
Parit yang menghilang dan rasa tidak aman di antara semua anggota
Ekosistem aplikasi AI saat ini, jika diibaratkan dengan sebuah organisme, dapat dipecah menjadi tiga peran:
* Otak (Penyedia model LLM): Menyediakan penalaran, pengambilan keputusan dan pengetahuan dasar. * Tubuh (Penyedia Klien): Menyediakan antarmuka pengguna (UI/GUI) dan lingkungan konteks (Context) serta memori. * Tangan dan kaki (penyedia layanan alat): Menyediakan kemampuan spesifik, seperti pencarian, kalender, pemesanan, pembayaran, dan alat MCP.
Dalam keadaan ideal, klien (tubuh) menghubungkan otak dan tangan serta kaki, membantu pengguna memecahkan masalah.
Di era internet, hambatan aplikasi berasal dari dua hal: antarmuka (UI) dan antarmuka pemrograman aplikasi (API). Pengguna hanya dapat menyelesaikan layanan tertentu melalui antarmuka tertentu. Namun, ketika permintaan dapat diekspresikan melalui bahasa alami, Prompt menjadi antarmuka baru dan hambatan API mulai melonggar. "Batas" antara aplikasi mulai menjadi tidak stabil.
Ini menyebabkan setiap peran dalam ekosistem sangat kekurangan rasa aman:
* Vendor LLM takut menjadi "pipa": Jika hanya membuat API, bagi pengguna itu tidak terasa. Pengguna hari ini menggunakan Claude 4.5, besok beralih ke GPT 5.1 atau GLM-4.6, vendor model bisa saja digantikan oleh kekuatan komputasi yang lebih murah kapan saja. Agar tidak menjadi "pipa", mereka harus terjun membuat klien (tubuh), mengunci pengguna di dalam aplikasi mereka. * Klien takut "terjepit": yaitu kecemasan yang disebut "shelling". Jika otak inti berada di tangan orang lain, pasokan dapat dihentikan atau harga dapat meningkat kapan saja. Oleh karena itu, pengembang aplikasi juga mulai melatih model sendiri, berusaha memiliki otak. * Pihak alat khawatir tentang "penghilangan" : Misalnya, jika platform rekomendasi kehidupan lokal berubah menjadi alat MCP, pengguna akan langsung berbicara dengan AI untuk melakukan pencarian, platform ini akan sepenuhnya menjadi penyedia layanan API dasar, dan nilai antarmuka serta pendapatan iklan yang dimilikinya akan langsung runtuh. Oleh karena itu, mereka juga tidak rela dan mencoba untuk memaksakan fungsi AI ke dalam aplikasi mereka, berusaha untuk mempertahankan pengguna.
Hasil dari "kecemasan semua orang" ini adalah kekacauan saat ini: semua orang melakukan full stack, semua orang berusaha menguasai sepenuhnya otak, tubuh, dan anggota tubuh.
Jalur Satu: Leviathan Cloud (Pintu Masuk Super)
Untuk mengatasi kecemasan ini, solusi yang diberikan oleh perusahaan besar sangat sesuai dengan pola pikir mereka: meniru cerita aplikasi super internet.
Menurut produsen model, perakitan otak dan tangan sebaiknya tidak terjadi di sisi klien, karena itu membuat kontrol berada di tangan pengguna. Mereka berharap klien kembali ke mode "klien ramping" (Thin Client) - hanya mempertahankan kemampuan untuk menerima perintah suara atau teks.
Dalam arsitektur ini:
Otak di cloud: Keputusan dan penalaran sepenuhnya dikendalikan oleh vendor. Tangan dan kaki di awan: Menghubungkan backend perusahaan besar melalui Function Calling atau Plugin. Memori di cloud: Semua data, preferensi, dan riwayat pengguna diunggah.
Dengan cara ini, logika aplikasi super dapat direplikasi dengan sempurna, dan bahkan lebih menakutkan daripada aplikasi super di internet. Karena di era internet, meskipun aplikasi super memonopoli lalu lintas, data antara layanan masih terpisah. Namun, dalam "Aplikasi Super AI", penyedia tidak hanya menguasai pintu masuk, tetapi juga menguasai semua logika keputusan di tengah melalui model.
Ini adalah "Leviathan Cloud" yang sempurna, sangat efisien, tetapi pengguna dalam sistem ini tidak memiliki privasi atau hak untuk memilih, mereka hanya menjadi objek pakan algoritma.
Jalur Dua: Aplikasi Asli AI — Integrasi di Sisi Pengguna
Namun ada kemungkinan lain, tanda-tanda ini sudah sangat jelas di bidang pemrograman.
Lihat editor AI (IDE) saat ini: subjek di sisi pengguna, kode sumber (Codebase) di lokal, semua logika bisnis dan konteks ada di lokal.
Otak dapat dipasang dan dicopot: Anda dapat mengonfigurasi model yang berbeda di IDE, bahkan jika IDE tidak mendukung konfigurasi, menambahkan lapisan proxy antarmuka juga dapat menyelesaikannya. Tangan dan kaki distandarisasi: Munculnya protokol seperti MCP menjadikan alat-alat seperti database, Git, dan terminal sebagai blok Lego standar.
Dalam arsitektur ini, aplikasi bukanlah tembok yang mengurung pengguna yang dibesarkan oleh perusahaan besar, melainkan "exoskeleton" yang dikenakan oleh pengguna.
Dalam mode ini, integrasi terjadi di sisi klien. Aplikasi mengatur data lokal pengguna (Konteks) dengan baik, memanggil "otak" di cloud atau lokal sesuai kebutuhan untuk berpikir, kemudian mengarahkan "tangan dan kaki" yang distandarisasi untuk melaksanakan.
Data dan logika inti tetap berada di sisi pengguna. Setidaknya, data Anda tidak akan berada di tangan satu vendor; setidaknya, ketika suatu model menjadi bodoh, Anda dapat menggantinya dengan otak yang lebih cerdas.
Tentu saja, jalan ini tidaklah mudah, tantangan terbesar terletak pada kurangnya infrastruktur: jika tidak ada aplikasi dari perusahaan besar yang menyelesaikan otentikasi identitas (Auth) secara terpusat di cloud, maka mengintegrasikan berbagai layanan alat identitas, pembayaran, dan membangun model bisnis yang berkelanjutan di sisi klien adalah tantangan yang sangat besar, dan saat ini belum terlihat jalur yang jelas.
Tapi saya percaya, ID terdesentralisasi di bidang Crypto (DID) dan jaringan pembayaran, justru dapat memainkan peran penting di sini, memberikan dasar kepercayaan dan penyelesaian untuk kolaborasi AI terdesentralisasi ini. Topik ini akan kita bahas lebih lanjut di artikel berikutnya.
Perjudian Masa Depan
Evolusi teknologi saat ini berada di persimpangan jalan: Di satu sisi, perusahaan besar berusaha untuk "mengonsolidasikan" semua kemampuan di balik API mereka sendiri, membangun ekosistem tertutup; Di sisi lain, para pengembang menggunakan teknologi MCP, Local LLM, dan lain-lain, berusaha untuk membangun ekosistem terbuka yang "terdecoupled".
Masa depan tergantung pada permainan antara pengguna, produsen, dan pengembang saat ini. Setiap pilihan individu sebenarnya memberikan suara untuk kedua masa depan ini.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Dua jalur AI: persaingan pintu masuk cloud, atau aplikasi native di sisi pengguna?
Baru-baru ini saya melihat Alibaba merilis aplikasi Tongyi Qianwen, resmi terjun ke dalam perang aplikasi C-end. Sam Altman sebelumnya juga sering mengekspresikan obsesinya terhadap "super aplikasi", terus-menerus menambahkan berbagai fungsi sosial ke dalam ChatGPT.
Dalam narasi perusahaan besar, aplikasi AI masa depan tampaknya ditakdirkan untuk menjadi salinan dari aplikasi super internet saat ini — menjadi satu-satunya pintu masuk, menggabungkan berbagai fungsi dalam satu.
Tetapi, apakah masa depan aplikasi AI benar-benar akan terfokus pada satu jalur ini? Apakah ada kemungkinan jalur lain?
Jika kita mengalihkan perhatian dari aplikasi AI Chat yang umum, dan melihat alat pemrograman seperti Cursor dan Windsurf, mengintegrasikan berbagai alat MCP, mungkin kita dapat melihat sekilas dan merasakan denyut nadi aplikasi asli AI (AI Native App) yang sama sekali berbeda.
Parit yang menghilang dan rasa tidak aman di antara semua anggota
Ekosistem aplikasi AI saat ini, jika diibaratkan dengan sebuah organisme, dapat dipecah menjadi tiga peran:
* Otak (Penyedia model LLM): Menyediakan penalaran, pengambilan keputusan dan pengetahuan dasar.
* Tubuh (Penyedia Klien): Menyediakan antarmuka pengguna (UI/GUI) dan lingkungan konteks (Context) serta memori.
* Tangan dan kaki (penyedia layanan alat): Menyediakan kemampuan spesifik, seperti pencarian, kalender, pemesanan, pembayaran, dan alat MCP.
Dalam keadaan ideal, klien (tubuh) menghubungkan otak dan tangan serta kaki, membantu pengguna memecahkan masalah.
Di era internet, hambatan aplikasi berasal dari dua hal: antarmuka (UI) dan antarmuka pemrograman aplikasi (API). Pengguna hanya dapat menyelesaikan layanan tertentu melalui antarmuka tertentu. Namun, ketika permintaan dapat diekspresikan melalui bahasa alami, Prompt menjadi antarmuka baru dan hambatan API mulai melonggar. "Batas" antara aplikasi mulai menjadi tidak stabil.
Ini menyebabkan setiap peran dalam ekosistem sangat kekurangan rasa aman:
* Vendor LLM takut menjadi "pipa": Jika hanya membuat API, bagi pengguna itu tidak terasa. Pengguna hari ini menggunakan Claude 4.5, besok beralih ke GPT 5.1 atau GLM-4.6, vendor model bisa saja digantikan oleh kekuatan komputasi yang lebih murah kapan saja. Agar tidak menjadi "pipa", mereka harus terjun membuat klien (tubuh), mengunci pengguna di dalam aplikasi mereka.
* Klien takut "terjepit": yaitu kecemasan yang disebut "shelling". Jika otak inti berada di tangan orang lain, pasokan dapat dihentikan atau harga dapat meningkat kapan saja. Oleh karena itu, pengembang aplikasi juga mulai melatih model sendiri, berusaha memiliki otak.
* Pihak alat khawatir tentang "penghilangan" : Misalnya, jika platform rekomendasi kehidupan lokal berubah menjadi alat MCP, pengguna akan langsung berbicara dengan AI untuk melakukan pencarian, platform ini akan sepenuhnya menjadi penyedia layanan API dasar, dan nilai antarmuka serta pendapatan iklan yang dimilikinya akan langsung runtuh. Oleh karena itu, mereka juga tidak rela dan mencoba untuk memaksakan fungsi AI ke dalam aplikasi mereka, berusaha untuk mempertahankan pengguna.
Hasil dari "kecemasan semua orang" ini adalah kekacauan saat ini: semua orang melakukan full stack, semua orang berusaha menguasai sepenuhnya otak, tubuh, dan anggota tubuh.
Jalur Satu: Leviathan Cloud (Pintu Masuk Super)
Untuk mengatasi kecemasan ini, solusi yang diberikan oleh perusahaan besar sangat sesuai dengan pola pikir mereka: meniru cerita aplikasi super internet.
Menurut produsen model, perakitan otak dan tangan sebaiknya tidak terjadi di sisi klien, karena itu membuat kontrol berada di tangan pengguna. Mereka berharap klien kembali ke mode "klien ramping" (Thin Client) - hanya mempertahankan kemampuan untuk menerima perintah suara atau teks.
Dalam arsitektur ini:
Otak di cloud: Keputusan dan penalaran sepenuhnya dikendalikan oleh vendor.
Tangan dan kaki di awan: Menghubungkan backend perusahaan besar melalui Function Calling atau Plugin.
Memori di cloud: Semua data, preferensi, dan riwayat pengguna diunggah.
Dengan cara ini, logika aplikasi super dapat direplikasi dengan sempurna, dan bahkan lebih menakutkan daripada aplikasi super di internet. Karena di era internet, meskipun aplikasi super memonopoli lalu lintas, data antara layanan masih terpisah. Namun, dalam "Aplikasi Super AI", penyedia tidak hanya menguasai pintu masuk, tetapi juga menguasai semua logika keputusan di tengah melalui model.
Ini adalah "Leviathan Cloud" yang sempurna, sangat efisien, tetapi pengguna dalam sistem ini tidak memiliki privasi atau hak untuk memilih, mereka hanya menjadi objek pakan algoritma.
Jalur Dua: Aplikasi Asli AI — Integrasi di Sisi Pengguna
Namun ada kemungkinan lain, tanda-tanda ini sudah sangat jelas di bidang pemrograman.
Lihat editor AI (IDE) saat ini: subjek di sisi pengguna, kode sumber (Codebase) di lokal, semua logika bisnis dan konteks ada di lokal.
Otak dapat dipasang dan dicopot: Anda dapat mengonfigurasi model yang berbeda di IDE, bahkan jika IDE tidak mendukung konfigurasi, menambahkan lapisan proxy antarmuka juga dapat menyelesaikannya.
Tangan dan kaki distandarisasi: Munculnya protokol seperti MCP menjadikan alat-alat seperti database, Git, dan terminal sebagai blok Lego standar.
Dalam arsitektur ini, aplikasi bukanlah tembok yang mengurung pengguna yang dibesarkan oleh perusahaan besar, melainkan "exoskeleton" yang dikenakan oleh pengguna.
Dalam mode ini, integrasi terjadi di sisi klien. Aplikasi mengatur data lokal pengguna (Konteks) dengan baik, memanggil "otak" di cloud atau lokal sesuai kebutuhan untuk berpikir, kemudian mengarahkan "tangan dan kaki" yang distandarisasi untuk melaksanakan.
Data dan logika inti tetap berada di sisi pengguna. Setidaknya, data Anda tidak akan berada di tangan satu vendor; setidaknya, ketika suatu model menjadi bodoh, Anda dapat menggantinya dengan otak yang lebih cerdas.
Tentu saja, jalan ini tidaklah mudah, tantangan terbesar terletak pada kurangnya infrastruktur: jika tidak ada aplikasi dari perusahaan besar yang menyelesaikan otentikasi identitas (Auth) secara terpusat di cloud, maka mengintegrasikan berbagai layanan alat identitas, pembayaran, dan membangun model bisnis yang berkelanjutan di sisi klien adalah tantangan yang sangat besar, dan saat ini belum terlihat jalur yang jelas.
Tapi saya percaya, ID terdesentralisasi di bidang Crypto (DID) dan jaringan pembayaran, justru dapat memainkan peran penting di sini, memberikan dasar kepercayaan dan penyelesaian untuk kolaborasi AI terdesentralisasi ini. Topik ini akan kita bahas lebih lanjut di artikel berikutnya.
Perjudian Masa Depan
Evolusi teknologi saat ini berada di persimpangan jalan: Di satu sisi, perusahaan besar berusaha untuk "mengonsolidasikan" semua kemampuan di balik API mereka sendiri, membangun ekosistem tertutup; Di sisi lain, para pengembang menggunakan teknologi MCP, Local LLM, dan lain-lain, berusaha untuk membangun ekosistem terbuka yang "terdecoupled".
Masa depan tergantung pada permainan antara pengguna, produsen, dan pengembang saat ini. Setiap pilihan individu sebenarnya memberikan suara untuk kedua masa depan ini.