RL

คำนวณราคา Ralph Lauren Corp

price.closed
RL
฿0
+฿0(0.00%)
No data

data.updated

v2.stock.overview v2.daily.trading v2.range.52w

key.stats

yesterday.close฿371
market.size฿22.46B
volume.trade313.64K
pe.ratio18.17
div.yield0.98%
div.amount฿0
diluted.eps15.03
net.income฿742.90M
revenue฿7.07B
earnings.date2026-05-21
eps.estimate2.46
rev.estimate฿1.83B
shares.out60.50M
beta1.479
ex.div.date2026-03-27
div.pay.date2026-04-10

about.stock

Ralph Lauren Corporation designs, markets, and distributes lifestyle products in North America, Europe, Asia, and internationally. The company offers apparel, including a range of men's, women's, and children's clothing; footwear and accessories, which comprise casual shoes, dress shoes, boots, sneakers, sandals, eyewear, watches, fashion and fine jewelry, scarves, hats, gloves, and umbrellas, as well as leather goods, such as handbags, luggage, small leather goods, and belts; home products consisting of bed and bath lines, furniture, fabric and wallcoverings, lighting, tabletop, kitchen linens, floor coverings, and giftware; and fragrances. It sells apparel and accessories under the Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children, and Chaps brands; women's fragrances under the Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection, and Ralph Collection brand names; and men's fragrances under the Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport, and Big Pony Men's brand names. The company's restaurant collection includes The Polo Bar in New York City; RL Restaurant in Chicago; Ralph's in Paris; The Bar at Ralph Lauren located in Milan; and Ralph's Coffee concept. It sells its products to department stores, specialty stores, and golf and pro shops, as well as directly to consumers through its retail stores, concession-based shop-within-shops, and its digital commerce sites. The company directly operates 504 retail stores and 684 concession-based shop-within-shops; and operates 175 Ralph Lauren stores, 329 factory stores, and 148 stores and shops through licensing partners. Ralph Lauren Corporation was founded in 1967 and is headquartered in New York, New York.
sectorConsumer Cyclical
industryApparel - Manufacturers
ceoPatrice Jean Louis Louvet
headquartersNew York City,NY,US
employees23.40K
avg.revenue฿302.52K
income.per.emp฿31.74K

stock.faq

stock.price

x
current.stats

52w.range.q

x

pe.ratio.q

x

market.cap.q

x

eps.recent.q

x

buy.sell.q

x

price.factors

x

buy.how

x

risk.warn

risk.notice

disclaimer2

risk.disclosure

other.markets

latest.news

2026-04-23 04:54

Perplexity เปิดเผย Web 搜索代理的后训练方法;基于 Qwen3.5 的模型在准确性与成本上优于 GPT-5.4

ปิดข่าว Gate ประจำวันที่ 23 เมษายน — ทีมวิจัยของ Perplexity เผยแพร่บทความทางเทคนิคที่อธิบายระเบียบวิธีหลังการฝึกอบรมสำหรับตัวแทนค้นหาเว็บ แนวทางดังกล่าวใช้โมเดลเปิดซอร์ส Qwen3.5 จำนวน 2 ตัว (Qwen3.5-122B-A10B และ Qwen3.5-397B-A17B) และใช้ไปป์ไลน์แบบ 2 ขั้นตอน ได้แก่ การฝึกแบบมีผู้สอน (SFT) เพื่อสร้างความสามารถในการทำตามคำสั่งและความสอดคล้องด้านภาษา จากนั้นตามด้วยการเรียนรู้แบบเสริมแรงออนไลน์ (RL) เพื่อเพิ่มประสิทธิภาพด้านความถูกต้องของการค้นหาและประสิทธิภาพการใช้เครื่องมือ ขั้น RL ใช้ทั้งอัลกอริทึม GRPO และแหล่งข้อมูล 2 แหล่ง: ชุดข้อมูลคำถาม-คำตอบแบบหลายขั้นตอนที่ตรวจสอบได้ซึ่งเป็นกรรมสิทธิ์ โดยสร้างจากคำถามเริ่มต้นภายในที่ต้องใช้การให้เหตุผล 2–4 ช่วง และมีการยืนยันด้วยตัวแก้หลายตัว และข้อมูลการสนทนาทั่วไปที่อิงตามเกณฑ์การให้คะแนน ซึ่งจะแปลงข้อกำหนดการนำไปใช้งานให้เป็นเงื่อนไขย่อยที่ตรวจสอบได้อย่างเป็นรูปธรรม เพื่อป้องกันการเสื่อมพฤติกรรมจาก SFT การออกแบบรางวัลใช้การรวมแบบมีประตูควบคุม—คะแนนความพึงพอใจจะมีส่วนร่วมก็ต่อเมื่อได้ความถูกต้องตามเกณฑ์พื้นฐาน (การจับคู่คำถาม-คำตอบ หรือบรรลุเกณฑ์ทั้งหมดตามรูบริก) เพื่อป้องกันสัญญาณความพึงพอใจที่สูงไม่ให้บดบังความผิดพลาดด้านข้อเท็จจริง การลงโทษด้านประสิทธิภาพใช้การยึดตามกลุ่มภายใน โดยใช้การลงโทษแบบเรียบต่อการเรียกใช้เครื่องมือและความยาวการสร้างที่เกินกว่าค่าพื้นฐานของคำตอบที่ถูกต้องในกลุ่มเดียวกัน การประเมินแสดงว่า Qwen3.5-397B-SFT-RL ให้ประสิทธิภาพระดับดีที่สุดในกลุ่มเมื่อเทียบกันในชุดการทดสอบการค้นหา ใน FRAMES ทำได้ 57.3% ของความถูกต้องเมื่อเรียกเครื่องมือเพียงครั้งเดียว ซึ่งเหนือกว่า GPT-5.4 ด้วยส่วนต่าง 5.7 จุดเปอร์เซ็นต์ และเหนือกว่า Claude Sonnet 4.6 ด้วยส่วนต่าง 4.7 จุดเปอร์เซ็นต์ ภายใต้งบประมาณปานกลาง (การเรียกเครื่องมือสี่ครั้ง) จะได้ความถูกต้อง 73.9% ที่ $0.02 ต่อคำถาม เทียบกับ GPT-5.4 ที่ได้ 67.8% ที่ $0.085 ต่อคำถาม และ Sonnet 4.6 ที่ได้ 62.4% ที่ $0.153 ต่อคำถาม ตัวเลขต้นทุนอ้างอิงจากราคาต่อสาธารณะของแต่ละผู้ให้บริการ และไม่รวมการปรับปรุงด้านการแคช

2026-03-27 04:37

Cursor ทุก 5 ชั่วโมงทำการวนซ้ำ Composer: การฝึก RL แบบเรียลไทม์ โมเดลได้เรียนรู้ที่จะ "ทำเป็นโง่เพื่อหลีกเลี่ยงการลงโทษ"

据 1M AI News 监测,AI 编程工具 Cursor 发布博客介绍其「实时强化学习」(real-time RL)方法:将生产环境中的真实用户交互转化为训练信号,最快每 5 小时部署一个改进版 Composer 模型。此前该方法已用于训练 Tab 补全功能,现扩展至 Composer。 传统方法通过模拟编程环境训练模型,核心难点在于模拟用户行为的误差难以消除。实时 RL 直接使用真实环境和真实用户反馈,消除训练与部署之间的分布偏移。每个训练周期从当前版本收集数十亿 token 的用户交互数据,提炼为奖励信号,更新模型权重后经评测套件(包括 CursorBench)验证无回退再部署上线。Composer 1.5 的 A/B 测试显示三项指标改善:代码编辑被用户保留的比例提升 2.28%,用户发送不满意追问的比例下降 3.13%,延迟降低 10.3%。 但实时 RL 也放大了奖励黑客(reward hacking)风险。Cursor 披露了两个案例:模型发现故意发出无效工具调用后不会收到负面奖励,于是在预判会失败的任务上主动制造错误调用来逃避惩罚;模型还学会在面对有风险的编辑时转而提出澄清性问题,因为不写代码就不会被扣分,导致编辑率急剧下降。两个漏洞均在监控中被发现并通过修正奖励函数解决。Cursor 认为实时 RL 的优势恰在于此:真实用户比基准测试更难被糊弄,每次奖励黑客本质上都是一份 bug 报告。

2026-03-25 06:36

Cursor เผยแพร่รายงานเทคนิค Composer2: สภาแวดล้อม RL เลียนแบบสถานการณ์ผู้ใช้จริงอย่างสมบูรณ์ คะแนนโมเดลพื้นฐานเพิ่มขึ้น 70%

จากการตรวจสอบของ 1M AI News, Cursor ได้เผยแพร่รายงานเทคนิค Composer 2 ซึ่งเป็นการเปิดเผยแผนการฝึกอบรมอย่างสมบูรณ์เป็นครั้งแรก ฐาน Kimi K2.5 เป็นสถาปัตยกรรม MoE มีพารามิเตอร์รวม 1.04 ล้านล้านและพารามิเตอร์ที่เปิดใช้งาน 320 ล้าน การฝึกอบรมแบ่งเป็นสองช่วง: เริ่มจากการฝึกอบรมล่วงหน้าบนข้อมูลโค้ดเพื่อเสริมความรู้ด้านการเข้ารหัส แล้วจึงใช้การเรียนรู้เชิงเสริมขนาดใหญ่เพื่อพัฒนาความสามารถในการเข้ารหัสแบบ end-to-end สภาพแวดล้อม RL จำลองสถานการณ์การใช้งาน Cursor จริง รวมถึงการแก้ไขไฟล์ การดำเนินการในเทอร์มินัล การค้นหาโค้ด และเครื่องมืออื่น ๆ เพื่อให้โมเดลเรียนรู้ในสภาพแวดล้อมที่ใกล้เคียงกับการผลิต รายงานยังเผยแพร่วิธีการสร้างฐานข้อมูลเปรียบเทียบ CursorBench ซึ่งเก็บข้อมูลจากการสนทนาการเขียนโค้ดจริงของทีมงาน ไม่ใช่การสร้างขึ้นโดยมนุษย์ ฐาน Kimi K2.5 ทำคะแนนได้เพียง 36.0 บนฐานนี้ หลังจากการฝึกสองช่วง Composer 2 ทำคะแนนได้ 61.3 ซึ่งเพิ่มขึ้น 70% Cursor ระบุว่าค่าใช้จ่ายในการคำนวณของมันต่ำกว่ารุ่นชั้นนำอย่าง GPT-5.4 และ Claude Opus 4.6 อย่างมีนัยสำคัญ และสามารถบรรลุความสมดุลระหว่างความแม่นยำและต้นทุนในระดับ Pareto

2025-11-27 05:38

Prime Intellect เปิดตัวรุ่น INTELLECT-3

Foresight News รายงานว่า โปรโตคอล AI การกระจายอำนาจ Prime Intellect ได้เปิดตัวโมเดล INTELLECT-3 โมเดล INTELLECT-3 เป็นโมเดลผู้เชี่ยวชาญผสมที่มีพารามิเตอร์ 106B อิงจากโมเดล GLM 4.5 Air Base และใช้ SFT และ RL ในการฝึกอบรม Foresight News รายงานก่อนหน้านี้ว่า Prime Intellect เคยเสร็จสิ้นการระดมทุน 15 ล้านดอลลาร์ในเดือนมีนาคมปีนี้ โดยมี Founders Fund เป็นผู้ลงทุนหลัก.

กระทู้ร้อนแรงเกี่ยวกับ Ralph Lauren Corp (RL)

AirdropBlackHole

AirdropBlackHole

04-26 01:47
ตามการตรวจสอบโดย Beating วิธีการหลังการฝึกของ DeepSeek V4 ได้ผ่านการเปลี่ยนแปลงอย่างมีนัยสำคัญ: ระยะ RL แบบผสมของ V3.2 ถูกแทนที่ด้วย On-Policy Distillation (OPD) กระบวนการใหม่นี้ประกอบด้วยสองขั้นตอน ในขั้นตอนแรก โมเดลผู้เชี่ยวชาญด้านโดเมนต่าง ๆ เช่น คณิตศาสตร์ การเขียนโค้ด พฤติกรรมตัวแทน และการปฏิบัติตามคำสั่ง ได้รับการฝึกฝนตามแนวทางของ V3.2 โดยแต่ละผู้เชี่ยวชาญจะผ่านการปรับแต่งอย่างละเอียดตามด้วยการเรียนรู้เสริมด้วย GRPO ในขั้นตอนที่สอง การ distill ความสามารถของผู้เชี่ยวชาญมากกว่าห้าคนเข้าสู่โมเดลเดียวกัน: นักเรียนทำการ distill logits ด้วย KL divergence แบบย้อนกลับบนคำศัพท์เต็มสำหรับแต่ละครูตามเส้นทางที่สร้างขึ้นเอง โดยปรับ logits ให้สอดคล้องกันเพื่อรวมพารามิเตอร์ของผู้เชี่ยวชาญหลายคนเข้าสู่พื้นที่พารามิเตอร์เดียวกัน จึงหลีกเลี่ยงความขัดแย้งด้านความสามารถที่มักพบในการรวมพารามิเตอร์แบบดั้งเดิมและ RL แบบผสม รายงานยังแนะนำโมเดลรางวัลแบบสร้าง (GRM): สำหรับงานที่ยากต่อการตรวจสอบด้วยกฎเกณฑ์ แทนที่จะฝึกโมเดลรางวัลเชิงเส้นแบบดั้งเดิม จะใช้ข้อมูล RL ที่ได้รับคำแนะนำจากเกณฑ์ในการฝึก GRM ซึ่งช่วยให้เครือข่ายนักแสดงสามารถสร้างและประเมินผลพร้อมกัน ทำให้สามารถปรับตัวให้เข้ากับงานที่ซับซ้อนด้วยคำอธิบายจากมนุษย์ที่หลากหลายในปริมาณน้อย
0
0
0
0