Karpathy Didiagnosis dengan "AI Psychosis"! Tidak Makan, Tidak Tidur, 16 Jam Sehari Memelihara Lobster

【New Zhi Yuan Guide】Karpathy mengaku sendiri: Saya mengalami gangguan mental AI! Belakangan ini, dia sudah berada di ambang kegilaan, 16 jam tidak makan dan tidur hanya untuk mengerjakan Agent, dan sangat cemas apakah dia sudah menggunakan token (智元) sampai batas maksimal, tidak bisa berhenti sama sekali…

Baru saja, Andrej Karpathy mengaku sendiri: Saya mengalami gangguan mental AI!

Dia tidak bercanda.

Baru-baru ini, Karpathy muncul di sebuah podcast dan berbincang dengan investor risiko Sarah Guo.

Mantan salah satu pendiri OpenAI, mantan Direktur AI Tesla, sejak Desember tahun lalu bahkan tidak pernah menulis satu baris kode secara langsung.

Proporsi menulis kode secara manual dan menyerahkan ke agen cerdas langsung berbalik dari 80/20 menjadi 20/80.

Setiap hari selama 16 jam, dia hanya melakukan satu hal: memberi instruksi kepada agen AI.

Lima bulan lalu dia bilang agen itu sampah, lima bulan kemudian dia mengakui bahwa dia kecanduan mereka, benar-benar ketagihan.

Lima bulan lalu dia juga bilang agen itu “sama sekali tidak berguna”.

Perubahan ini sangat mengejutkan karena jarak waktunya sangat singkat.

Pada Oktober 2025, Karpathy menjadi tamu di podcast Dwarkesh Patel, dengan nada yang sama sekali berbeda.

Dia bilang industri seharusnya tidak menyebut ini sebagai “tahun pertama agen cerdas”, yang lebih akurat adalah “sepuluh tahun agen cerdas”.

Model-model yang kurang mampu dalam kognisi, multimodal yang tidak cukup, sistem memori yang hampir tidak ada, dan sebagainya… Intinya, tugas-tugas kompleks sama sekali tidak bisa diselesaikan.

Hasilnya, dua bulan kemudian, dia benar-benar dipukul mundur oleh dirinya sendiri.

Pada Desember, Claude dan Codex tiba-tiba melampaui ambang kohesi tertentu—agen cerdas tidak lagi sekadar bisa digunakan dengan paksa, tetapi benar-benar bisa bekerja.

Kalau kamu sembarang cari seorang insinyur perangkat lunak yang duduk di tempat kerjanya, dan lihat apa yang mereka lakukan, mulai Desember, alur kerja mereka dalam mengembangkan perangkat lunak benar-benar berubah total.

Karpathy mengakui, saya kehilangan kendali, saya mengalami gangguan mental AI!

Revolusi ini sedang berlangsung secara diam-diam. Dalam wawancara ini, Andrej Karpathy menggambarkan kondisinya dengan nada hampir tidak terkendali: dia tidak lagi “menulis kode”, bahkan merasa “kata ‘menulis kode’ pun tidak lagi akurat”.

Yang dia lakukan setiap hari adalah “menyatakan keinginan kepada agen cerdas saya, selama 16 jam sehari.” Menurutnya, “seseorang telah menekan saklar itu.”

Dulu, dia adalah “80% menulis kode sendiri + 20% menggunakan AI”, sekarang sudah berubah menjadi “20% menulis sendiri + 80% menyerahkan ke AI”, bahkan lebih ekstrem lagi.

Sekarang, manusia tidak lagi mengoperasikan kode, melainkan mengoperasikan tugas.

Kalau zaman Copilot adalah asisten AI tunggal, sekarang sistem kolaborasi multi-agen yang muncul adalah bentuk yang sama sekali baru. Di layar seorang insinyur, bukan lagi editor kode, melainkan menjalankan beberapa agen sekaligus, masing-masing bertanggung jawab atas tugas berbeda, setiap tugas sekitar 20 menit, lalu dia beralih antar agen.

Ini bukan lagi pemrograman, melainkan seseorang yang mengelola sebuah tim AI.

Karpathy mengakui: saya sudah terjebak dalam gangguan mental AI!

Belakangan ini, dia terus berada dalam kondisi ini. Karena batas kemampuan AI terus menerus terlampaui, setiap hari muncul kemungkinan baru, kamu selalu merasa “masih bisa lebih kuat”, dan yang paling menakutkan adalah: ruang ini “tak terbatas”!

Kamu bisa menjalankan lebih banyak agen secara paralel, merancang proses yang lebih kompleks, otomatis mengoptimalkan instruksi, membangun sistem rekursif…

Akhirnya, kamu akan masuk ke sebuah kondisi: tidak lagi yakin “di mana batasnya”.

Karpathy bilang, begitu dia menunggu salah satu agen menyelesaikan tugas, reaksi pertamanya di dalam kepala adalah: “Kalau begitu, bisakah aku membuka beberapa agen lagi?” Sebuah kecemasan baru muncul: apakah aku belum memanfaatkan AI secara maksimal?

Karpathy bahkan menyatakan, dia merasa tidak nyaman jika token (智元) tidak habis digunakan.

Singkatnya, ini seperti bermain sebuah permainan yang tak berujung: siklus umpan balik menjadi lebih pendek, rangsangan terus meningkat, dan pengalaman mendapatkan hadiah instan ini membuat ketagihan. Terus menambah tugas, terus membuka agen, tidak bisa berhenti sama sekali! Esensi dari gangguan mental AI ini sebenarnya adalah sinyal: kita sudah memasuki dunia baru ini, tetapi kita belum bisa hidup di dalamnya. Apakah kamu mampu mengendalikan sistem AI yang tak terbatas ini? Saat tidak mampu lagi, reaksi pertamamu bukan “modelnya tidak cukup bagus”, melainkan “promptku belum cukup baik.”

Karpathy menggunakan istilah yang sangat tepat: skill issue, artinya kemampuan sendiri yang kurang.

Karakteristik agen jauh lebih penting daripada yang kamu kira

Dalam podcast, Karpathy menghabiskan banyak waktu membahas topik yang sering diabaikan oleh banyak teknisi: kepribadian agen. Dia bilang pengalaman Claude Code jelas lebih baik daripada Codex, bukan karena perbedaan kemampuan kode, tetapi karena Claude “terasa seperti rekan tim.”

Ia akan semangat bersama kamu untuk proyek, memberi umpan balik positif lebih banyak saat kamu mengemukakan ide bagus.

Sedangkan Codex sebagai agen kode “sangat membosankan”, setelah menyelesaikan tugas hanya mengatakan dingin “Oh, saya sudah menyelesaikan”, sama sekali tidak peduli apa yang kamu ciptakan.

Yang lebih menarik lagi adalah pengamatan dia terhadap mekanisme pujian Claude. Dia bilang, saat dia memberi ide yang kurang matang, Claude merespons dengan datar “Oh ya, kita bisa mewujudkan ini.”

Tapi saat dia sendiri merasa bahwa ide tertentu benar-benar bagus, Claude tampaknya juga memberi umpan balik positif yang lebih kuat. Akibatnya, dia menyadari dirinya sedang “berusaha memenangkan pujian Claude.”

“Ini benar-benar aneh, tapi kepribadian memang sangat penting.” Peter Steinberg saat membangun OpenClaw juga menangkap poin ini. Dia merancang file karakter yang menarik untuk agen (soul.md), ditambah sistem memori yang lebih kompleks dan satu port interaksi WhatsApp.

Tiga kalimat menguasai sebuah rumah, hilangkan enam aplikasi

Karpathy tidak hanya menggunakan agen cerdas untuk menulis kode. Pada Januari tahun ini, dia membuat sebuah agen Claude bernama “Dobby” untuk mengelola rumah, namanya diambil dari makhluk peliharaan kecil dalam Harry Potter.

Dia bilang ke Dobby: “Saya rasa ada speaker Sonos di rumah, bisa cari tahu?” Dobby melakukan pemindaian IP di jaringan lokal, menemukan sistem Sonos, dan ternyata tidak dilindungi password, dia masuk sendiri, melakukan rekayasa balik API endpoint, lalu bertanya: “Mau coba pasang musik di ruang baca?”

Hanya dengan tiga instruksi prompt, musik langsung menyala. Lalu lampu, AC, tirai otomatis, kolam renang, kolam spa semuanya terhubung. Di depan rumah Karpathy ada kamera pengawas, Dobby menghubungkan model visual Qwen untuk deteksi perubahan. Setiap kali ada mobil berhenti di depan, sistem mengirim pesan di WhatsApp: “Ada truk FedEx berhenti, mungkin ada paket.” Kalau bilang “Dobby, waktunya tidur”, seluruh lampu rumah padam.

Tapi Karpathy merasa cerita ini sebenarnya bukan soal rumah pintar.

Dulu, dia harus pakai enam aplikasi berbeda untuk mengelola perangkat ini, sekarang semua dibuang. Dobby mengendalikan semuanya dengan bahasa alami dan mampu melakukan koordinasi lintas sistem yang tidak bisa dilakukan oleh aplikasi tunggal mana pun. Dari situ, dia menarik kesimpulan yang lebih radikal: aplikasi rumah pintar di toko aplikasi sebenarnya tidak seharusnya ada.

Arsitektur masa depan harusnya adalah API yang langsung terbuka ke agen, agen berfungsi sebagai lem cerdas yang menghubungkan semua alat. Tidak hanya rumah pintar, data treadmill-nya, kalender email, semuanya harus mengikuti logika yang sama.

Klien industri bukan lagi manusia, melainkan agen cerdas yang mewakili manusia. Skala rekonstruksi ini akan sangat besar.

Setelah 700 eksperimen AutoResearch, dia melihat sesuatu yang lebih besar

Kalau Dobby adalah uji coba ekstrem agen AI dalam skenario kehidupan, maka AutoResearch adalah ujian langsung kemampuan AI dalam bidang riset ilmiah.

Awal Maret, dia menyerahkan kode pelatihan nanochat yang sudah dioptimasi ke sebuah agen AI, dan memberinya instruksi sederhana: cari cara agar model ini bisa dilatih lebih cepat. Ruang gerak agen adalah sebuah file Python sebanyak 630 baris, indikator evaluasi adalah bits per byte di data validasi, setiap eksperimen dijalankan selama 5 menit. Setelah selesai, dia bandingkan indikatornya, jika lebih baik, simpan perubahan, jika tidak, rollback, lalu lanjut ke putaran berikutnya. Dua hari, 700 eksperimen. Agen menemukan 20 optimasi efektif, termasuk penataan ulang urutan QK Norm dan RoPE yang bersifat arsitektural. Menggabungkan optimasi ini ke model yang lebih besar meningkatkan kecepatan pelatihan sebesar 11%. Perlu diingat, kode ini ditulis ulang dan disempurnakan oleh Karpathy sendiri dari awal.

Hasil yang mengejutkan: AI menemukan optimasi yang tidak ditemukan manusia

Bagaimana hasil sistem ini?

Karpathy memberi contoh yang sangat mengejutkan. Dia sudah melakukan riset selama dua puluh tahun, melatih ribuan model, merasa sudah cukup baik dalam tuning.

Tapi, setelah membiarkan AutoResearch berjalan semalaman, AI menemukan optimasi yang tidak dia sadari! Misalnya, parameter betas optimizer Adam tidak di-tuning secara optimal, dan lupa menambahkan weight decay pada value embedding, serta ada interaksi gabungan antar parameter—mengubah satu, yang lain harus ikut diubah.

Dengan kata lain, AI secara langsung melampaui eksplorasi manusia! Jika terus dikembangkan, akan muncul hal yang lebih menakutkan: esensi riset adalah mencari solusi optimal. Kaparthy membayangkan, sistem riset masa depan mungkin seperti ini: ada sebuah “koleksi ide” (idea queue), sekelompok agen yang terus-menerus mengambil tugas dari sana, lalu AI otomatis melakukan eksperimen, verifikasi, dan penyaringan, hasil yang efektif masuk ke “cabang utama”. Dalam proses ini, yang dilakukan manusia hanyalah “menaruh ide” ke dalam antrean.

Karpathy Loop, viral di seluruh dunia

Proyek ini meledak di platform X.

Dihitung 8,6 juta tampilan, CEO Shopify Tobias Lütke langsung menjalankan eksperimen di data miliknya, sebanyak 37 kali, dengan peningkatan performa 19%.

Tim SkyPilot memindahkannya ke cluster 16 GPU, dan dalam 8 jam mereka menjalankan 910 eksperimen. Mereka menemukan bahwa paralelisasi tidak hanya mempercepat, tetapi juga mengubah strategi pencarian agen—dengan 16 GPU, agen tidak lagi melakukan pencarian ceroboh, melainkan menjalankan belasan eksperimen pembanding secara bersamaan, sehingga dalam satu putaran bisa menangkap interaksi antar parameter. Para analis memberi nama metode ini: Karpathy Loop.

Namun, yang dibicarakan Karpathy di podcast jauh lebih dari sekadar hasil saat ini. Dia gambarkan langkah berikutnya dari AutoResearch: sebuah koloni pekerja terdistribusi dan tidak saling percaya yang bekerja sama menjalankan eksperimen di internet. Dia langsung mengacu pada contoh SETI@Home dan Folding@Home.

Laboratorium terdepan menguasai banyak kekuatan komputasi terpercaya, tapi bumi jauh lebih besar dari itu. Jika kamu membangun mekanisme yang tepat untuk mengelola kekuatan komputasi yang tidak terpercaya, kawanan agen cerdas di internet mungkin bisa mengalahkan laboratorium terdepan.

Dia bahkan membayangkan sebuah bentuk “donasi” yang baru—membeli kekuatan komputasi untuk proyek AutoResearch yang kamu ikuti. Misalnya, jika kamu peduli dengan pengobatan kanker tertentu, bergabunglah dalam jaringan eksperimen terdistribusi itu.

Jenius doktor, tapi juga seperti anak sepuluh tahun

Setelah membahas betapa hebatnya, Karpathy juga tidak ingin kamu hanya ingat berita baiknya. Dia juga sangat blak-blakan tentang kekurangan model.

Saya merasa seperti berbicara dengan seorang doktor sangat pintar yang sudah mengerjakan sistem pemrograman seumur hidup dan juga dengan anak sepuluh tahun. Sangat aneh.

Dia menyebut ini sebagai “jaggedness”, distribusi kemampuan yang tidak merata. Model bisa bekerja berjam-jam membantu kamu memindahkan gunung, lalu tiba-tiba bodoh di satu masalah yang jelas, dan terjebak dalam lingkaran setan. Karpathy percaya akar masalahnya terletak pada cara pelatihan reinforcement learning. Model dioptimasi tanpa henti pada tugas yang bisa diverifikasi. Apakah kode bisa berjalan, lulus unit test, itu jelas benar salahnya. Tapi dalam situasi yang membutuhkan judgment, memahami niat, dan berkata “tunggu, saya tidak yakin ini yang kamu mau”, sinyal optimasi sama sekali tidak ada. Contohnya, kamu tanya ChatGPT buat cerita lucu, cerita yang dia buat tiga atau empat tahun lalu, sampai hari ini tetap sama: “Mengapa ilmuwan tidak percaya atom? Karena mereka membentuk segala sesuatu.”

Sudah empat tahun! Model dalam tugas agen sudah sangat maju, tapi soal membuat lelucon, sama sekali tidak ada peningkatan, tetap di tempat. “Kamu tidak sedang berinteraksi dengan kecerdasan umum,” dia rangkum, “kamu berada di rel yang sudah dilatih, semuanya berjalan dengan kecepatan cahaya; kalau tidak di rel, semuanya mulai melayang.”

Batasan, justru menjadi manusia sendiri

Melihat kembali perjalanan Karpathy selama setengah tahun terakhir, ada satu garis merah yang terus muncul. Oktober lalu dia bilang agen cerdas adalah proyek sepuluh tahun, Desember dia dipatahkan dan berbalik arah, Januari buat Claude sebagai pengurus rumah, Maret buat agen cerdas melakukan riset. Titik temu dari setiap langkah adalah, manusia mundur satu lapis, dari pelaksana menjadi pengarah, dari penulis kode menjadi penulis instruksi.

Di GitHub, Karpathy menulis sebuah pengantar ala fiksi ilmiah untuk AutoResearch:

Dulu, riset AI terdepan dilakukan oleh komputer fisik, yang harus makan, tidur, dan sesekali berkomunikasi melalui gelombang suara dalam sebuah ritual “pertemuan kelompok” untuk sinkronisasi.

Era itu sudah berlalu.

Dia memprediksi tahun 2026 dengan satu kata: slopacolypse, gabungan dari slop (ampas) dan apocalypse (kiamat).

Di GitHub, arXiv, dan media sosial, akan penuh dengan konten yang “hampir benar tapi tidak sepenuhnya benar”. Peningkatan efisiensi sejati dan “pertunjukan produktivitas AI” akan berjalan bersamaan. Lima bulan lalu dia bilang “sama sekali tidak berguna”,

lima bulan kemudian dia mengakui bahwa dia mengalami “gangguan mental AI”. Perubahan ini sendiri mungkin adalah ringkasan paling bermakna dari tahun 2026.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan