Dasar
Spot
Perdagangkan kripto dengan bebas
Perdagangan Margin
Perbesar keuntungan Anda dengan leverage
Konversi & Investasi Otomatis
0 Fees
Perdagangkan dalam ukuran berapa pun tanpa biaya dan tanpa slippage
ETF
Dapatkan eksposur ke posisi leverage dengan mudah
Perdagangan Pre-Market
Perdagangkan token baru sebelum listing
Futures
Akses ribuan kontrak perpetual
TradFi
Emas
Satu platform aset tradisional global
Opsi
Hot
Perdagangkan Opsi Vanilla ala Eropa
Akun Terpadu
Memaksimalkan efisiensi modal Anda
Perdagangan Demo
Pengantar tentang Perdagangan Futures
Bersiap untuk perdagangan futures Anda
Acara Futures
Gabung acara & dapatkan hadiah
Perdagangan Demo
Gunakan dana virtual untuk merasakan perdagangan bebas risiko
Peluncuran
CandyDrop
Koleksi permen untuk mendapatkan airdrop
Launchpool
Staking cepat, dapatkan token baru yang potensial
HODLer Airdrop
Pegang GT dan dapatkan airdrop besar secara gratis
Launchpad
Jadi yang pertama untuk proyek token besar berikutnya
Poin Alpha
Perdagangkan aset on-chain, raih airdrop
Poin Futures
Dapatkan poin futures dan klaim hadiah airdrop
Investasi
Simple Earn
Dapatkan bunga dengan token yang menganggur
Investasi Otomatis
Investasi otomatis secara teratur
Investasi Ganda
Keuntungan dari volatilitas pasar
Soft Staking
Dapatkan hadiah dengan staking fleksibel
Pinjaman Kripto
0 Fees
Menjaminkan satu kripto untuk meminjam kripto lainnya
Pusat Peminjaman
Hub Peminjaman Terpadu
Bulan September lalu, OpenAI menerbitkan sebuah makalah.
Penulis makalah tersebut adalah Adam Tauman Kalai, Edwin Zhang, dan Ofir Nachum dari OpenAI, ditambah Santosh Vempala dari Georgia Tech.
Mereka membangun sebuah kerangka kerja matematika, dan penemuan inti adalah pertidaksamaan ini:
Tingkat kesalahan generasi ≥ 2 × Tingkat kesalahan penilaian
Asumsikan AI memiliki probabilitas 1% untuk salah dalam menilai "1+1 sama dengan berapa". Maka saat menghasilkan jawaban, probabilitas kesalahannya setidaknya 2%.
Mengapa terjadi pembesaran? Karena satu kesalahan penilaian dapat menghasilkan multiple kesalahan generasi. Misalnya, AI menilai 1+1=3, maka AI secara bersamaan melakukan dua kesalahan: mengatakan 1+1=3 adalah benar, mengatakan 1+1=2 adalah salah. Satu kesalahan penilaian, setidaknya dua kesalahan generasi.
Jika Anda menjawab "Saya tidak tahu", nilai 0. Jika Anda menebak sembarangan, bahkan dengan hanya 10% probabilitas benar, nilai yang diharapkan adalah 0,1. Pilihan rasional? Menebak. Jadi AI bukan "telah belajar berbohong". AI dipaksa oleh sistem pelatihan untuk menebak.
Saya telah mengerjakan otomasi AI selama setengah tahun lebih. Seluruh sistem konten saya——mulai dari scraping data hingga penulisan hingga pemilihan gambar——semuanya dijalankan oleh AI.
Apakah makalah ini mengubah pemahaman inti saya? Jujur saja, pemahaman inti saya tidak berubah.
Saya selalu tahu AI akan membuat kesalahan, dan sistem desain saya memiliki verifikasi manual di setiap tahap. Tetapi ada satu hal yang menjadi lebih jelas: halusinasi bukan bug, melainkan feature.
Jadi pendekatan yang benar bukanlah menunggu AI menjadi sempurna, tetapi merancang mekanisme penanggulanagan dengan mengasumsikan AI pasti akan membuat kesalahan dalam alur kerja.
Pendekatan saya:
1. Semua data yang dihasilkan AI harus memiliki tautan sumber asli untuk verifikasi silang
2. Angka spesifik dalam konten tulisan harus dikonfirmasi secara manual sebelum publikasi
3. Jangan biarkan AI melakukan "penilaian", hanya biarkan AI melakukan "pengorganisasian"——penilaian adalah tugas saya