نتائج البحث عن "MPT"
2026-02-13
09:46

نظام XRP Ledger يفتح عصر جديد لإدارة رموز التوكن، بعد إطلاق XLS-85 يمكن قفل أصول مثل RLUSD على السلسلة

في 13 فبراير، تم رسميًا تفعيل تعديل حماية الرموز في سجل XRP Ledger، والذي يُعرف بـ XLS-85، مما يسمح للمستخدمين بإنشاء حسابات حماية للرموز القابلة للتحويل المُصدرة. هذا يعني أنه بالإضافة إلى XRP نفسه، يمكن أيضًا أن يتم قفل رموز Trust Line والرموز متعددة الاستخدامات (MPT) على السلسلة وفقًا لشروط معينة، مما يوفر طرق إدارة أصول أكثر مرونة للتمويل اللامركزي والتطبيقات المؤسسية. تم إعادة دعم هذا التعديل من قبل 30 مُحققًا في 30 يناير 2026، مما وصل إلى حد التفعيل، وتم إطلاقه بعد أسبوعين. سابقًا، كان XLS-85 على وشك الاعتماد في سبتمبر 2025، لكنه واجه خلافات بسبب عدم توافقه مع معيار MPT، حيث انخفضت نسبة الدعم إلى 16 صوتًا. أشار مُحقق XRPL dUNL Vet إلى وجود عيوب في محاسبة الحماية فيما يتعلق برسوم التحويل وتتبع العرض، ثم أطلقت المجتمع fixTokenEscrowV1 ودمجته في Rippled v3.0.0، مما أعاد الثقة ودفع نحو التفعيل النهائي.
المزيد
XRP3.93%
MPT11.69%
02:48

🚀تنطلق مسابقة التداول Miracle Play (MPT) بجوائز بقيمة 10,000 دولار! ⏳ فترة الحدث: 04.22-04.29 11:00AM [UTC + 8] ✅ تداول $MPT$ لتربح حصة قدرها 8,000 دولار ✅ مزايا حصرية للمستخدمين الجدد لمشاركة مجمع جوائز بقيمة 1000 دولار ✅ قم بدعوة مستخدمين جدد واستمتع بمكافآت بقيمة 1000 دولار 💸 شارك: https://www.gate.io/zh/article/36075 #Gateio #MPT #Trade
المزيد
MPT11.69%
04:57

TinyLlama ، نموذج مفتوح المصدر ل mini الذكاء الاصطناعي ، تم إصداره ويحتل 637 ميغابايت فقط

وفقا لتقرير صادر عن Webmaster's Home في 6 يناير ، أصدر فريق TinyLlama نموذجا عالي الأداء الذكاء الاصطناعي مفتوح المصدر يشغل 637 ميغابايت فقط ، TinyLlama. TinyLlama هي نسخة مدمجة من نموذج اللغة مفتوح المصدر Llama2 من Meta ، والذي يحتوي على مليار معلمة وأداء فائق لأبحاث نماذج اللغة متعددة المجالات ، وتتفوق نسخته النهائية على نماذج اللغة مفتوحة المصدر الحالية ذات الحجم المماثل ، بما في ذلك Pythia-1.4B و OPT-1.3B و MPT-1.3B. يذكر أنه يمكن نشر TinyLlama على أجهزة الحافة ويمكن استخدامه أيضا للمساعدة في فك تشفير المضاربة للنماذج الكبيرة.
المزيد
07:39

ترقية Baidu Smart Cloud "Qianfan Large Model Platform": الوصول إلى 33 طرازًا بما في ذلك LLaMA2

وفقًا لتقرير "Kechuangban Daily" في 2 أغسطس ، أكملت منصة النماذج واسعة النطاق Baidu Smart Cloud Qianfan جولة جديدة من الترقيات ، ووصلت بالكامل إلى 33 نموذجًا واسع النطاق بما في ذلك السلسلة الكاملة من LLaMA2 ، ChatGLM2 ، RWKV ، MPT ، Dolly أصبحت ، OpenLaMA و Falcon ، المنصة التي تضم أكبر عدد من الطرز الكبيرة في الصين ، وخضعت النماذج المتصلة لتحسين أداء ثانوي لمنصة Qianfan ، ويمكن تخفيض تكلفة استدلال النموذج بنسبة 50٪. في الوقت نفسه ، أطلقت منصة Qianfan مكتبة معدة مسبقًا تحتوي على 103 نموذجًا ، تغطي أكثر من عشرة سيناريوهات للحوار والألعاب والبرمجة والكتابة. بالإضافة إلى ذلك ، أصدرت هذه الترقية عددًا من المكونات الإضافية الجديدة مرة أخرى.
المزيد
06:55

أطلقت شركة MosaicML التي تعمل بالذكاء الاصطناعي نموذج MPT-30B الذي يبلغ 30 مليار معلمة ، قائلة إن تكلفة التدريب ليست سوى جزء بسيط من المنتجات المنافسة

وفقًا لتقرير IT House الصادر في 25 يونيو ، أطلقت شركة MosaicML الناشئة لمنظمة العفو الدولية مؤخرًا نموذج لغتها MPT-30B. يحتوي النموذج على 30 مليار معلمة ، وتكلفة التدريب "ليست سوى جزء بسيط من النماذج المنافسة الأخرى المماثلة". تكلفة التدريب لمثل هذه النماذج يوسع تطبيق نماذج الذكاء الاصطناعي في مجموعة واسعة من المجالات. قال نافين راو ، الرئيس التنفيذي والمؤسس المشارك لشركة MosaicML ، إن تكلفة تدريب MPT-30B تبلغ 700000 دولار أمريكي (حوالي 5.0244 مليون يوان) ، وهو أقل بكثير من عشرات الملايين من الدولارات المطلوبة لمنتجات مماثلة مثل GPT- 3.. بالإضافة إلى ذلك ، نظرًا لانخفاض تكلفة MPT-30B وحجمه الأصغر ، يمكن أيضًا تدريبه بسرعة أكبر وهو أكثر ملاءمة للنشر على الأجهزة المحلية. يُذكر أن MosaicML يستخدم تقنية Alibi و FlashAttention لتحسين النموذج ، والذي يمكن أن يحقق طولًا أطول للنص واستخدامًا أعلى لحوسبة GPU. يعد MosaicML أيضًا أحد المختبرات القليلة التي يمكنها استخدام وحدة معالجة الرسومات Nvidia H100. وبالمقارنة مع الإنجازات السابقة ، فقد زادت الإنتاجية الحالية لكل وحدة معالجة رسومات بما يزيد عن 2.4 مرة ، مما يمكن أن يؤدي إلى وقت إنجاز أسرع.
المزيد