Hasil pencarian untuk "MPT"
2026-02-13
09:46

XRP Ledger membuka era baru dalam pengelolaan token yang dikunci, setelah peluncuran XLS-85, aset seperti RLUSD dapat dikunci di blockchain

Tanggal 13 Februari, XRP Ledger secara resmi mengaktifkan amendemen penyimpanan token XLS-85, yang memungkinkan pengguna membuat akun penitipan untuk token yang dapat dipertukarkan yang telah diterbitkan. Ini berarti, selain XRP itu sendiri, token Trust Line dan token multi-fungsi (MPT) juga dapat dikunci di atas rantai sesuai kondisi, memberikan cara pengelolaan aset yang lebih fleksibel untuk keuangan terdesentralisasi dan aplikasi tingkat perusahaan. Amendemen ini mendapatkan kembali dukungan dari 30 validator pada 30 Januari 2026, mencapai ambang aktivasi, dan akan diluncurkan dua minggu kemudian. Sebelumnya, XLS-85 hampir disetujui pada September 2025, tetapi terjadi perbedaan pendapat karena ketidakcocokan dengan standar MPT, sehingga tingkat dukungannya sempat turun menjadi 16 suara. Validator XRPL dUNL Vet menunjukkan kekurangan dalam akuntansi penitipan terkait biaya transfer dan pelacakan pasokan, kemudian komunitas meluncurkan fixTokenEscrowV1 dan memasukkannya ke dalam Rippled v3.0.0, sehingga kepercayaan pulih dan mendorong aktivasi akhir.
Lainnya
XRP0,21%
MPT-2,65%
02:48

🚀Kontes Trading Miracle Play (MPT) Dimulai dengan Hadiah Senilai $10.000! ⏳ Periode Event: 04.22-04.29 11:00AM [UTC+8] ✅ Perdagangkan $MPT$ untuk memenangkan bagian $8.000 ✅ Manfaat eksklusif bagi pengguna baru untuk berbagi pool hadiah $1.000 ✅ Undang pengguna baru dan nikmati hadiah $1.000 💸 Terlibat: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
Lainnya
MPT-2,65%
04:57

TinyLlama, model Open Source untuk mini AI, dirilis dan hanya menempati 637 MB

Menurut sebuah laporan oleh Webmaster's Home pada tanggal 6 Januari, tim TinyLlama merilis model Open Source AI berkinerja tinggi yang hanya menempati 637 MB, TinyLlama. TinyLlama adalah versi ringkas dari model bahasa open source Meta Llama2, yang memiliki 1 miliar parameter dan kinerja superior untuk penelitian model bahasa multi-domain, dan versi finalnya mengungguli model bahasa open source yang ada dengan ukuran yang sebanding, termasuk Pythia-1.4B, OPT-1.3B, dan MPT-1.3B. Dilaporkan bahwa TinyLlama dapat digunakan pada perangkat edge dan juga dapat digunakan untuk membantu dalam decoding spekulatif model besar.
Lainnya
07:39

Upgrade Baidu Smart Cloud "Platform Model Besar Qianfan": akses ke 33 model termasuk LLaMA2

Menurut laporan "Kechuangban Daily" pada 2 Agustus, platform model skala besar Baidu Smart Cloud Qianfan telah menyelesaikan babak baru peningkatan, mengakses sepenuhnya 33 model skala besar termasuk seri lengkap LLaMA2, ChatGLM2, RWKV, MPT, Dolly , OpenLLaMA, dan Falcon , telah menjadi platform dengan jumlah model besar terbesar di China, dan model yang terhubung telah mengalami peningkatan kinerja sekunder dari platform Qianfan, dan biaya penalaran model dapat dikurangi hingga 50%. Pada saat yang sama, platform Qianfan telah meluncurkan pustaka preset_template dengan 103 templat, mencakup lebih dari sepuluh skenario dialog, permainan, pemrograman, dan penulisan. Selain itu, pemutakhiran ini kembali merilis sejumlah plug-in baru.
Lainnya
06:55

Perusahaan AI MosaicML meluncurkan model parameter 30 miliar MPT-30B, mengatakan bahwa biaya pelatihan hanya sebagian kecil dari produk pesaing

Menurut laporan IT House pada 25 Juni, startup AI MosaicML baru-baru ini merilis model bahasa MPT-30B. Model ini memiliki 30 miliar parameter, dan biaya pelatihan "hanya sebagian kecil dari model pesaing serupa lainnya." memperluas penerapan model AI di bidang yang lebih luas. Naveen Rao, CEO dan salah satu pendiri MosaicML, mengatakan bahwa biaya pelatihan MPT-30B adalah 700.000 dolar AS (sekitar 5,0244 juta yuan), yang jauh lebih rendah daripada puluhan juta dolar yang dibutuhkan untuk produk serupa seperti GPT- 3. . Selain itu, karena biaya yang lebih rendah dan ukuran MPT-30B yang lebih kecil, MPT-30B juga dapat dilatih lebih cepat dan lebih cocok untuk diterapkan pada perangkat keras lokal. Dilaporkan bahwa MosaicML menggunakan teknologi Alibi dan FlashAttention untuk mengoptimalkan model, yang dapat mencapai panjang teks yang lebih panjang dan penggunaan komputasi GPU yang lebih tinggi. MosaicML juga merupakan salah satu dari sedikit laboratorium yang dapat menggunakan GPU Nvidia H100. Dibandingkan dengan pencapaian sebelumnya, throughput setiap GPU saat ini telah meningkat lebih dari 2,4 kali lipat, sehingga waktu penyelesaian menjadi lebih cepat.
Lainnya