RL

Ralph Lauren Corp سعر

RL
﷼0
+﷼0(0.00%)
لا توجد بيانات

*آخر تحديث للبيانات: 2026-04-27 18:12 (UTC+8)

اعتبارًا من 2026-04-27 18:12، يبلغ سعر Ralph Lauren Corp (RL) ﷼0، مع إجمالي قيمة سوقية قدرها --، ومعدل السعر إلى الأرباح 0.00، وعائد توزيعات أرباح 0.00%. اليوم، تذبذب سعر السهم بين ﷼0 و﷼0. السعر الحالي أعلى من أدنى مستوى لليوم بمقدار 0.00% وأقل من أعلى مستوى لليوم بمقدار 0.00%، مع حجم تداول قدره --. خلال الأسابيع الـ52 الماضية، تم تداول RL بين ﷼0 و﷼0، والسعر الحالي يبتعد بنسبة 0.00% عن أعلى سعر خلال 52 أسبوعًا.

الإحصائيات الرئيسية لسهم RL

معدل السعر إلى الأرباح0.00
عائد توزيعات الأرباح (آخر 12 شهراً)0.00%
الأسهم القائمة0.00

الأسئلة الشائعة حول Ralph Lauren Corp (RL)

ما هو سعر سهم Ralph Lauren Corp (RL) اليوم؟

x
يتم تداول Ralph Lauren Corp (RL) حالياً بسعر ﷼0، مع تغير خلال 24 ساعة بنسبة 0.00%. يتراوح نطاق التداول خلال 52 أسبوعاً بين ﷼0–﷼0.

ما هو أعلى وأدنى سعر خلال 52 أسبوعاً لسهم Ralph Lauren Corp (RL)؟

x

ما هو معدل السعر إلى الأرباح (P/E) لسهم Ralph Lauren Corp (RL)؟ ما الذي تشير إليه؟

x

ما هي القيمة السوقية لسهم Ralph Lauren Corp (RL)؟

x

ما هو أحدث ربحية السهم (EPS) الفصلية لشركة Ralph Lauren Corp (RL)؟

x

هل يجب عليك شراء أو بيع Ralph Lauren Corp (RL) الآن؟

x

ما هي العوامل التي يمكن أن تؤثر على سعر سهم Ralph Lauren Corp (RL)؟

x

كيف تشتري سهم Ralph Lauren Corp (RL)؟

x

التحذير من المخاطر

ينطوي سوق الأسهم على مستوى عالٍ من المخاطر وتقلبات الأسعار. قد تزيد قيمة استثمارك أو تنقص، وقد لا تسترد كامل المبلغ المستثمر. الأداء السابق ليس مؤشراً موثوقاً للنتائج المستقبلية. قبل اتخاذ أي قرارات استثمارية، يجب عليك تقييم خبرتك الاستثمارية، ووضعك المالي، وأهدافك الاستثمارية، ومدى تحملك للمخاطر بعناية، وإجراء أبحاثك الخاصة. وعند الاقتضاء، استشر مستشاراً مالياً مستقلاً.

إخلاء المسؤولية

يتم تقديم المحتوى الموجود في هذه الصفحة لأغراض إعلامية فقط، ولا يشكل نصيحة استثمارية أو نصيحة مالية أو توصيات تداول. لا تتحمل Gate المسؤولية عن أي خسارة أو ضرر ناتج عن مثل هذه القرارات المالية. علاوة على ذلك، يرجى ملاحظة أن Gate قد لا تكون قادرة على تقديم الخدمة الكاملة في أسواق وولايات قضائية معينة، بما في ذلك على سبيل المثال لا الحصر الولايات المتحدة الأمريكية، وكندا، وإيران، وكوبا. لمزيد من المعلومات حول المواقع المحظورة، يرجى الرجوع إلى اتفاقية المستخدم.

أسواق تداول أخرى

أحدث الأخبار حول Ralph Lauren Corp (RL)

2026-04-23 04:54

Perplexity 揭示网页搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本方面优于 GPT-5.4

发布新闻消息,4 月 23 日——Perplexity 的研究团队发表了一篇技术文章,详细介绍其面向网页搜索代理的后训练方法。该方法使用两个开源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 和 Qwen3.5-397B-A17B),并采用两阶段流水线:先进行监督微调 (SFT) 以建立指令遵循与语言一致性,然后通过在线强化学习 (RL) 来优化搜索准确性与工具使用效率。 RL 阶段使用 GRPO 算法并结合两种数据源:一种专有的多跳可验证问答数据集,由内部种子查询构建而成,这些查询需要 2–4 跳推理,并通过多解算器验证;以及基于评分细则的通用对话数据,它将部署需求转换为客观可核查的原子条件,从而防止 SFT 行为退化。 奖励设计采用门控聚合——只有在达到基线正确性时,偏好分数才会计入,即 (question-answer match 或所有评分细则条件都满足),从而避免高偏好信号掩盖事实错误。效率惩罚使用组内锚定:对工具调用以及生成长度超过同组中正确答案基线的部分施加平滑惩罚。 评估表明,Qwen3.5-397B-SFT-RL 在各项搜索基准上实现同类最佳表现。在 FRAMES 上,它在单次工具调用时达到 57.3% 的准确率,较 GPT-5.4 提高 5.7 个百分点,较 Claude Sonnet 4.6 提高 4.7 个百分点。在中等预算 (four tool calls) 下,它以每次查询 $0.02 的成本实现 73.9% 的准确率;相比之下,GPT-5.4 在每次查询 $0.085 下准确率为 67.8%,Sonnet 4.6 在每次查询 $0.153 下准确率为 62.4%。成本数据基于各提供方的公开 API 定价,并排除缓存优化。

2026-03-21 00:19

تأكيد رسمي من Cursor أن Kimi K2.5 هو القاعدة، والجانب المظلم للقمر: تعاون تجاري مرخص

Gate News أخبار، في 21 مارس، وفقًا لمراقبة 1M AI News، نشر الحساب الرسمي لظل القمر @Kimi_Moonshot منشورًا يهنئ Cursor على إصدار Composer 2، ويوضح أن Cursor من خلال منصة Fireworks AI المستضافة على RL ومنصة الاستدلال تصل إلى Kimi K2.5، وهو تعاون تجاري مرخص. ثم أكد مؤسس Cursor المشارك أمان سانجر ونائب رئيس التعليم للمطورين لي روبنسون علنًا مصدر القاعدة وكشفا عن التفاصيل التقنية. قال سانجر إن الفريق قام بتقييم عدة قواعد من خلال قياس التشويش، وذكر أن Kimi K2.5 "يثبت أنه الأقوى"، ثم استمروا في التدريب المسبق بزيادة أربعة أضعاف في الحجم وتعزيز التعلم المعزز، ونشروا ذلك عبر استدلال Fireworks AI وSampling RL. وأضاف روبنسون أن القوة الحاسوبية من القاعدة تمثل حوالي ربع النموذج النهائي، والباقي ثلاثة أرباع يأتي من تدريب Cursor نفسه. واعترف المؤسسان أن عدم ذكر مصدر القاعدة عند إصدار المدونة كان "خطأ"، ووعدا بأنه عند إصدار النموذج التالي سيتم ذكر مصدر القاعدة على الفور. سابقًا، رد إيلون ماسك على منشور مناقشة ذات صلة قائلاً "نعم، إنه Kimi 2.5"، مما زاد من حدة النقاش.

2026-03-20 09:47

Cursor Composer 2 يُتهم باستخدام نموذج Kimi K2.5، وتوجه Moonshot AI اتهامات بعدم الالتزام بالترخيص

أخبار Gate، في 20 مارس، وفقًا لمراقبة 1M AI News، اكتشف المطور @fynnso أثناء اختبار طلبات Cursor API أن معرف النموذج الفعلي لـ Composer 2 هو kimi-k2p5-rl-0317-s515-fast، وهو ما يعني "Kimi K2.5 + RL". ثم غرد دا يو لين، مسؤول التدريب المسبق لـ Moonshot AI، قائلاً إن فريقه بعد اختبار Tokenizer الخاص بـ Composer 2 وجد أنه "تمامًا مطابق لـ Kimi tokenizer لدينا"، و"يمكن التأكد تقريبًا أن هذا هو نتيجة إعادة تدريب نموذجنا بشكل إضافي"، ووجه مباشرةً سؤالًا إلى @ Cursor، المؤسس المشارك مايكل ترويل، قائلًا: "لماذا لا تحترمون ترخيصنا، ولم تدفعوا أي رسوم". عند إصدار Composer 2 في 19 مارس، زعم Cursor أن التحسين في الأداء جاء من "إعادة تدريب مستمر على النموذج الأساسي، ثم الجمع بين التعلم المعزز"، لكنه لم يذكر أبدًا Kimi K2.5. يستخدم Kimi K2.5 نسخة معدلة من بروتوكول MIT، ويُحدد صراحة أنه يجب على المنتجات التجارية التي تتجاوز نشاطها الشهري 100 مليون أو إيراداتها الشهرية تتجاوز 20 مليون دولار أن تضع بشكل واضح على واجهة المستخدم عبارة "Kimi K2.5". مع تقييم Cursor البالغ 29.3 مليار دولار وعدد المستخدمين المدفوعين، فإن عتبة الإيرادات الشهرية من المحتمل أن تثير انتباههم. حتى وقت النشر، لم يرد Cursor علنًا.

2026-02-12 14:21

جريدينت تطلق إطار التعلم المعزز الموزع Echo-2، وتخطط لإطلاق منصة RLaaS باسم Logits

أخبار فورسايت نيوز، أطلقت مختبر الذكاء الاصطناعي الموزع Gradient إطار عمل Echo-2 للتعلم المعزز الموزع، بهدف كسر حواجز كفاءة تدريب أبحاث الذكاء الاصطناعي. يحقق هذا الإطار من خلال فصل Learner و Actor على مستوى الهيكلية، بهدف تقليل تكاليف ما بعد التدريب للنماذج الكبيرة. وفقًا للبيانات الرسمية، يمكن لهذا الإطار تقليل تكلفة ما بعد تدريب نموذج 30 مليار من 4500 دولار إلى 425 دولارًا. يستخدم Echo-2 تقنية فصل الحساب والتخزين لإجراء التدريب غير المتزامن (Async RL)، ويدعم تفريغ قوة المعالجة المأخوذة من العينات إلى مثيلات بطاقات رسومات غير مستقرة وبطاقات رسومات غير متجانسة تعتمد على تقنية Parallax. يدمج الإطار تقنيات مثل التحديث المحدود، وجدولة التحمل للأخطاء، وبروتوكول الاتصال Lattica الذي تم تطويره داخليًا، مما يعزز كفاءة التدريب مع الحفاظ على دقة النموذج. بالإضافة إلى ذلك، يخطط Gradient لإطلاق منصة RLaaS (خدمة التعلم المعزز) المسماة Logits، والتي أصبحت متاحة للحجز للطلاب والباحثين.

2026-01-02 09:15

شريك Mechanism Capital: حجم بيانات الذكاء الاصطناعي الحقيقي سيتوسع بمقدار 100 مرة بحلول عام 2026

ذكرت PANews في 2 يناير أن أندرو كانغ، شريك في Mechanism Capital، نشر على منصة X أنه في عام 2025، سيحل مجال الروبوتات تحديات طويلة الأمد في هندسة النماذج وتدريبها، ويحرز تقدما كبيرا في تكنولوجيا جمع البيانات، وفهم جودة البيانات، وصياغة البيانات، مما يمنح شركات الذكاء الاصطناعي الثقة بأنها ستبدأ في النهاية الاستثمار في جمع البيانات على نطاق واسع، وستستخدم شركات مثل Figure وDyna وPI التعلم المعزز (RL) حققت التكنولوجيا المبتكرة معدل نجاح يزيد عن 99٪ في سيناريوهات التطبيق العملية المختلفة. بالإضافة إلى ذلك، أدت التطورات في تكنولوجيا الذاكرة إلى كسر "جدار الذاكرة"، حيث يستخدم ReMEmber من NVIDIA الملاحة القائمة على الذاكرة، وتحقق Titans وMIRAS ذاكرة اختبار زمنية، ونماذج تحديد المواقع الافتراضية الأفضل (VLMs) تعني أن مصفوفات تحديد المواقع الافتراضية (VLAs) لديها قدرات فهم مكاني أفضل، بالإضافة إلى عمليات توضيح البيانات ومعالجتها التي يمكن أن تحسن بشكل كبير معدل الإنتاجية. في عام 2025، سيقدر السوق في البداية رسم خرائط القدرات الصفرية، وحساسية القوة البصرية، والمنطق الفيزيائي العام الناتج عن مقياس البيانات، وسيتوسع حجم بيانات الذكاء الاصطناعي الفيزيائي بمقدار 100 مرة في عام 2026.

منشورات شائعة حول Ralph Lauren Corp (RL)

ChainNewsAbmedia

ChainNewsAbmedia

منذ 2 ساعة
根据 Cooley 律师事务所 4 月 27 日代发新闻稿,伦敦 AI 研究公司 Ineffable Intelligence 完成 11 亿美元($1.1B)种子轮融资、投后估值 51 亿美元($5.1B),由 Sequoia Capital 与 Lightspeed Venture Partners 共同领投,Google、Nvidia、Index Ventures 等跟投。这是欧洲历年规模最大的种子轮,也代表 AI 资本市场“不仅押注 LLM”的新一波投资潮形成。 11 亿美元种子轮:欧洲史上最大、估值 51 亿美元 Ineffable Intelligence 此次融资直接超越过往欧洲 AI 公司在“种子阶段”的所有纪录。根据 CNBC 同日报道,公司投后估值达 51 亿美元($5.1 billion post-money)。投资人结构: 共同领投:Sequoia Capital、Lightspeed Venture Partners 策略型跟投:Google、Nvidia 欧洲基金跟投:Index Ventures 对欧洲 AI 创投生态而言,这笔交易的意义远超出单一公司——它验证了“美系一线 VC + 美系科技巨头 + 欧洲基金”的混合资金结构,可在伦敦完成本应在硅谷才有的种子估值。 创始人 David Silver:AlphaGo 与 AlphaZero 主要架构师 创始人 David Silver 是 Google DeepMind 前主任研究员,也是 AlphaGo(2016 年击败世界围棋冠军李世乭)与 AlphaZero(2017 年自学西洋棋与将棋达到超人类水准)的核心架构师。Silver 同时是强化学习(Reinforcement Learning, RL)领域的主要学术代表人物。 2025 年下半年起,他逐步从 DeepMind 抽离,2026 年第一季正式成立 Ineffable Intelligence。 不走 LLM 路线:用强化学习打造“永续学习超智能” Ineffable Intelligence 的研究路线与当前主流的大型语言模型(LLM)—包括 OpenAI GPT、Anthropic Claude、Google Gemini—不同。Silver 公开立场是:LLM 依赖“静态数据集 + 预训练”的模式,本质上难以突破训练数据的天花板;真正的超智能(superintelligence)必须能“从自身经验持续学习”(continually learning from its own experience)。 公司的官方任务描述为“make first contact with superintelligence”(与超智能进行首次接触),核心方法是 superlearner——一个能通过互动环境发现所有知识的学习代理。技术细节未公开,但从 Silver 过往研究脉络推估,方法应结合大规模强化学习、自我对弈(self-play)与环境模拟。 为什么选择伦敦:DeepMind 校友圈与英国 AI 政策 选择伦敦而非硅谷有三个原因:(1)DeepMind 过去 14 年累积的英国 AI 人才圈,许多高级研究员不愿移居美国;(2)英国政府 2024-2026 年积极推动“AI Safety Institute”与算力补助,对前沿 AI 公司提供税务与基础建设诱因;(3)数据治理与隐私法规相对 EU 主体稍宽松,比德国/法国更容易训练大型模型。 此次融资的时机也耐人寻味——同期 Anthropic 在二级市场估值冲上 1 兆美元(同步主推 Claude Mythos),而 Ineffable Intelligence 用“对立路线”(非 LLM)拿到 51 亿美元估值,显示顶级 VC 开始把“AI 路线多元化”视为风险对冲的必要配置。 影响观察:欧洲 AI 竞争力、Nvidia 双押注、Google 战略 这笔交易对三方有具体含义: 对欧洲 AI 生态而言,11 亿美元种子轮是过去十年最具象征意义的单笔——欧洲不再只是输出人才到美国,可以在本地组成等级对等的研究团队。Ineffable Intelligence 若 2-3 年内能交出代表性成果,会带动更多英国/德国/法国 AI 创业潮。 对 Nvidia 而言,这是其 AI 投资组合中相对少见的“非 LLM 路线”配置——过去 Nvidia 押注的多为 OpenAI、Mistral、CoreWeave 等 LLM/算力相关。投资 Ineffable 等于把鸡蛋放到不同篮子里,避免如果 LLM 碰壁时整体布局被一并绑死。 对 Google 而言,跟投自家前员工的新公司在硅谷不算罕见,但金额这么大、且是公开公告(多数类似投资都低调),显示 Google 对 Silver 路线仍有战略兴趣——可能未来会以收购、技术授权或 Google Cloud 算力合作的方式重新整合。 下一个观察点:Ineffable Intelligence 的首篇技术 paper 或产品 demo 公开时间。Silver 过去发 paper 的节奏是 12-18 个月一篇大作,预计 2026 年底或 2027 年初会看到第一个对外可验证的里程碑。 这篇文章 AlphaGo 之父 11 亿美元种子轮:欧洲史上最大、估值 51 亿美元 最早出现在 链新闻 ABMedia。
0
0
0
0
MarketWhisper

MarketWhisper

منذ 12 ساعة
![AI自進化](https://img-cdn.gateio.im/social/moments-87a9b3933a-9bbb7108c3-8b7abd-badf29) يتولى مسؤول فريق نماذج Xiaomi الكبيرة، لوو فولي، إجراء مقابلة متعمقة على منصة Bilibili في 24 أبريل (رقم الفيديو: BV1iVoVBgERD)، وتبلغ مدة المقابلة 3.5 ساعات، وهي أول مرة تقدم رؤيتها التقنية بشكل منهجي علنًا بصفة مسؤولة تقنية. وتقول لوو فولي إن سباق المسارات التنافسية للنماذج الكبيرة قد انتقل من عصر الدردشة إلى عصر الوكلاء (Agent)، وأشارت إلى أن “التطور الذاتي” سيكون الحدث الحاسم للـ AGI خلال العام المقبل. ### **من عصر الدردشة إلى عصر الوكلاء (Agent): الحكم التقني الأساسي** ![小米大模型團隊負責人羅福莉訪談](https://img-cdn.gateio.im/social/moments-87a9b3933a-8bb3456888-8b7abd-badf29) (المصدر: Bilibili) وفقًا لما ذكرته لوو فولي في مقابلة Bilibili، أشارت إلى أن تركيز منافسة النماذج الكبيرة في عام 2026 سينتقل من جودة الحوار العامة إلى القدرة على التنفيذ الذاتي المستمر في المهام المعقدة. وفي المقابلة، قالت إن النماذج الرائدة حاليًا يمكنها تحسين نفسها تلقائيًا ضمن مهام محددة، وتستمر في تنفيذ ذلك بثبات لمدة تتراوح بين يومين إلى ثلاثة أيام، دون الحاجة إلى تدخل البشر لإجراء تعديلات. كما أكدت في المقابلة أن اختراق قدرة “التطور الذاتي” يعني بدء امتلاك أنظمة الذكاء الاصطناعي لقدرة على التصحيح الذاتي، وحددت أيضًا مسار تقنيات Anthropic والمتغيرات التقنية مثل Claude Opus 4.6 وتأثيرها على النظام البيئي الشامل للذكاء الاصطناعي. ### **تعديل توزيع الحوسبة في Xiaomi وتقييم فجوة الفترة Pre-train** وفقًا لما كشفته لوو فولي في المقابلة، أجرت Xiaomi بالفعل تعديلات كبيرة على استراتيجية توزيع موارد الحوسبة. وشرحت أن نسبة الحوسبة المستخدمة عادةً في الصناعة هي Pre-train:Post-train:Inference = 3:5:1، بينما قامت استراتيجية Xiaomi الحالية بتعديلها إلى 3:1:1، مما يقلص بشكل كبير نسبة التدريب بعد ذلك (post-training)، مع رفع متزامن للاستثمار في موارد مرحلة الاستدلال. وفي المقابلة، أوضحت أن هذا التحول نابع من نضج استراتيجية Agent RL Scaling، مما يعني أنه لم يعد التدريب بعد ذلك يحتاج إلى تراكم كبير للحوسبة، وأن زيادة الموارد في جانب الاستدلال تعكس احتياج سيناريوهات تطبيق Agent إلى قدرة الاستجابة الفورية. وبخصوص مشكلة فجوة “عصر” (代差) Pre-train لدى النماذج الكبيرة داخل الصين، قالت لوو فولي في المقابلة إن هذه الفجوة تقلصت من 3 سنوات في الماضي إلى عدة أشهر فقط، وأن محور الاستراتيجية الحالي يتحرك باتجاه Agent RL Scaling. وتشمل مسيرتها المهنية العمل في معهد DAMO التابع لـ Alibaba، وHuanfang Quant (幻方量化)، وDeepSeek (المطور الأساسي لـ DeepSeek-V2)، حيث انضمت إلى Xiaomi في نوفمبر 2025. ### **المواصفات التقنية لسلسلة MiMo-V2 والتصنيف ضمن المصادر المفتوحة** وفقًا لإعلان سلسلة MiMo-V2 الذي نشرته Xiaomi رسميًا في 19 مارس 2026، فقد تم إصدار ثلاث موديلات مرة واحدة ضمن هذه الدفعة: **MiMo-V2-Pro**: إجمالي عدد المعلمات بالـ 兆 (تريليون)، تمكين المعلمات 42B، بنية الانتباه المختلطة (Hybrid Attention)، دعم سياق يصل إلى المليون، ومعدل إكمال المهام 81% **MiMo-V2-Omni**: سيناريوهات Agent متعددة الأنماط (Agent) **MiMo-V2-TTS**: سيناريوهات توليد الصوت (TTS) وفقًا للإعلان، احتلت MiMo-V2-Flash المفتوحة المصدر المرتبة الثانية في قائمة النماذج مفتوحة المصدر عالميًا، وتبلغ سرعة الاستدلال 3 أضعاف DeepSeek-V3.2. ### **الأسئلة الشائعة** #### **كيف تعرف لوو فولي “التطور الذاتي”، ولماذا ترى أنه الحدث الأهم للـ AGI؟** وفقًا لما ذكرته لوو فولي في مقابلة Bilibili في 24 أبريل 2026 (BV1iVoVBgERD)، أشارت في المقابلة إلى أن النماذج الرائدة حاليًا أصبحت قادرة على تحسين نفسها تلقائيًا ضمن مهام محددة والتنفيذ بثبات لمدة تتراوح بين يومين إلى ثلاثة أيام دون الحاجة إلى تدخل بشري، كما صنفت “التطور الذاتي” باعتباره الحدث الأكثر أهمية لتطور AGI خلال العام المقبل. #### **ما التعديلات المحددة التي أجرتها Xiaomi على توزيع الحوسبة، وما منطق ذلك؟** وفقًا لما كشفت عنه لوو فولي في المقابلة، تم تعديل نسبة توزيع الحوسبة في Xiaomi من Pre-train:Post-train:Inference = 3:5:1 المستخدمة عادةً في الصناعة إلى 3:1:1، مع تقليص كبير لنسبة التدريب بعد ذلك؛ وشرحت أن هذا التعديل نابع من تحسن كفاءة التدريب اللاحق بعد نضج استراتيجية Agent RL Scaling، ومن احتياج سيناريوهات تطبيق Agent إلى قدرة الاستجابة الفورية على جانب الاستدلال. #### **كيف يأتي ترتيب MiMo-V2-Flash ضمن المصادر المفتوحة وأداء سرعته؟** وفقًا للإعلان الرسمي الذي نشرته Xiaomi في 19 مارس 2026، فإن MiMo-V2-Flash المفتوحة المصدر احتلت المرتبة الثانية في قائمة النماذج مفتوحة المصدر عالميًا، وتبلغ سرعة الاستدلال 3 أضعاف DeepSeek-V3.2، بينما يبلغ معدل إكمال المهام لنسخة flagship MiMo-V2-Pro 81%.
0
0
0
0