Результати пошуку для "MPT"
2026-02-13
09:46

XRP Ledger відкриває нову еру управління токенами, після запуску XLS-85 активи, такі як RLUSD, можна блокувати на ланцюгу

13 лютого повідомляється, що XRP Ledger офіційно активував поправку щодо управління токенами XLS-85, яка дозволяє користувачам створювати управлінські рахунки для випущених взаємозамінних токенів. Це означає, що окрім XRP, Trust Line токени та багатофункціональні токени (MPT) також можуть бути заблоковані на ланцюгу за умовами, забезпечуючи більш гнучкі способи управління активами для децентралізованих фінансів та корпоративних застосунків. Ця поправка була повторно підтримана 30 валідаторами 30 січня 2026 року, досягнувши порогу активації, і через два тижні була запущена. Раніше XLS-85 майже було прийнято у вересні 2025 року, але через проблему несумісності з стандартом MPT виникли розбіжності, і рівень підтримки знизився до 16 голосів. Валідатор XRPL dUNL Vet зазначив недоліки управління обліковими записами при переказах та відстеженні пропозиції, після чого спільнота запустила fixTokenEscrowV1 і включила його у Rippled v3.0.0, що відновило довіру та сприяло остаточній активації.
Більше
XRP-1,85%
MPT-13,11%
02:48

🚀Торговий конкурс Miracle Play (MPT) стартує з призів на суму $10 000! ⏳ Період події: 04.22-04.29 11:00 [UTC+8] ✅ Торгуйте $MPT$, щоб виграти частку від $8 000 ✅ Ексклюзивні переваги для нових користувачів, які розділять призовий фонд у розмірі $1 000 ✅ Запрошуйте нових користувачів і отримуйте винагороди в розмірі $1,000 💸 Долучитися: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
Більше
MPT-13,11%
04:57

TinyLlama, модель з відкритим вихідним кодом для міні-ШІ, була випущена і займає всього 637 МБ

Згідно зі звітом Webmaster's Home від 6 січня, команда TinyLlama випустила високопродуктивну модель ШІ з відкритим вихідним кодом, яка займає всього 637 МБ, TinyLlama. TinyLlama — це компактна версія мовної моделі Llama2 від Meta з відкритим вихідним кодом, яка має 1 мільярд параметрів і чудову продуктивність для дослідження багатодоменних мовних моделей, а її остаточна версія перевершує існуючі мовні моделі з відкритим вихідним кодом порівнянного розміру, включаючи Pythia-1.4B, OPT-1.3B і MPT-1.3B. Повідомляється, що TinyLlama може бути розгорнута на периферійних пристроях, а також може використовуватися для допомоги в спекулятивному декодуванні великих моделей.
Більше
07:39

Оновлення Baidu Smart Cloud "Qianfan Large Model Platform": доступ до 33 моделей, включаючи LLaMA2

Згідно зі звітом "Kechuangban Daily" від 2 серпня, платформа великомасштабних моделей Baidu Smart Cloud Qianfan завершила новий раунд оновлень, отримавши повний доступ до 33 великомасштабних моделей, включаючи повну серію LLaMA2, ChatGLM2, RWKV, MPT, Dolly. , OpenLLaMA та Falcon стала платформою з найбільшою кількістю великих моделей у Китаї, а підключені моделі зазнали вторинного підвищення продуктивності платформи Qianfan, а вартість обґрунтування моделі можна зменшити на 50%. У той же час платформа Qianfan запустила бібліотеку preset_template зі 103 шаблонами, що охоплюють більше десяти сценаріїв діалогу, ігор, програмування та написання. Крім того, це оновлення знову випустило низку нових плагінів.
Більше
06:55

Компанія зі штучного інтелекту MosaicML випустила модель MPT-30B із 30 мільярдами параметрів, заявивши, що вартість навчання становить лише незначну частину вартості конкуруючих продуктів

Згідно зі звітом IT House від 25 червня, AI-стартап MosaicML нещодавно випустив свою мовну модель MPT-30B. Модель має 30 мільярдів параметрів, а вартість навчання становить «лише незначну частину інших подібних конкуруючих моделей». Вартість навчання таких моделей розширює застосування моделей ШІ в більш широкому діапазоні сфер. Навін Рао, генеральний директор і співзасновник MosaicML, сказав, що вартість навчання MPT-30B становить 700 000 доларів США (приблизно 5,0244 мільйона юанів), що набагато менше, ніж десятки мільйонів доларів, необхідні для аналогічних продуктів, таких як GPT- 3. . Крім того, завдяки нижчій вартості та меншому розміру MPT-30B його також можна швидше навчити і він більше підходить для розгортання на локальному обладнанні. Повідомляється, що MosaicML використовує технологію Alibi і FlashAttention для оптимізації моделі, яка може досягти більшої довжини тексту та більшого використання обчислень GPU. MosaicML також є однією з небагатьох лабораторій, які можуть використовувати графічний процесор Nvidia H100. Порівняно з попередніми досягненнями, поточна пропускна здатність кожного графічного процесора зросла більш ніж у 2,4 рази, що може пришвидшити час завершення.
Більше