RL

Tính giá Ralph Lauren Corp

RL
₫0
+₫0(0,00%)
Không có dữ liệu

*Dữ liệu cập nhật lần cuối: 2026-04-27 19:58 (UTC+8)

Tính đến 2026-04-27 19:58, Ralph Lauren Corp (RL) đang giao dịch ở ₫0, với tổng vốn hóa thị trường là --, tỷ lệ P/E là 0,00 và tỷ suất cổ tức là 0,00%. Giá cổ phiếu hôm nay biến động trong khoảng ₫0 và ₫0. Giá hiện tại cao hơn 0,00% so với mức thấp nhất trong ngày và thấp hơn 0,00% so với mức cao nhất trong ngày, với khối lượng giao dịch là --. Trong 52 tuần qua, RL đã giao dịch trong khoảng từ ₫0 đến ₫0 và giá hiện tại cách mức cao nhất trong 52 tuần 0,00%.

Các chỉ số chính của RL

Tỷ lệ P/E0,00
Lợi suất cổ tức (TTM)0,00%
Số cổ phiếu đang lưu hành0,00

Câu hỏi thường gặp về Ralph Lauren Corp (RL)

Giá cổ phiếu Ralph Lauren Corp (RL) hôm nay là bao nhiêu?

x
Ralph Lauren Corp (RL) hiện đang giao dịch ở mức ₫0, với biến động 24h qua là 0,00%. Phạm vi giao dịch 52 tuần là từ ₫0 đến ₫0.

Mức giá cao nhất và thấp nhất trong 52 tuần của Ralph Lauren Corp (RL) là bao nhiêu?

x

Tỷ lệ giá trên thu nhập (P/E) của Ralph Lauren Corp (RL) là bao nhiêu? Nó chỉ ra điều gì?

x

Vốn hóa thị trường của Ralph Lauren Corp (RL) là bao nhiêu?

x

Lợi nhuận trên mỗi cổ phiếu (EPS) hàng quý gần đây nhất của Ralph Lauren Corp (RL) là bao nhiêu?

x

Bạn nên mua hay bán Ralph Lauren Corp (RL) vào thời điểm này?

x

Những yếu tố nào có thể ảnh hưởng đến giá cổ phiếu Ralph Lauren Corp (RL)?

x

Làm thế nào để mua cổ phiếu Ralph Lauren Corp (RL)?

x

Cảnh báo rủi ro

Thị trường chứng khoán tiềm ẩn rủi ro cao và biến động giá mạnh. Giá trị khoản đầu tư của bạn có thể tăng hoặc giảm, và bạn có thể không thu hồi được toàn bộ số tiền đã đầu tư. Hiệu suất hoạt động trong quá khứ không phải là chỉ báo đáng tin cậy cho kết quả tương lai. Trước khi đưa ra bất kỳ quyết định đầu tư nào, bạn nên đánh giá cẩn thận kinh nghiệm đầu tư, tình hình tài chính, mục tiêu đầu tư và khả năng chấp nhận rủi ro của mình, đồng thời tự mình nghiên cứu. Nếu cần thiết, hãy tham khảo ý kiến của một cố vấn tài chính độc lập.

Tuyên bố từ chối trách nhiệm

Nội dung trên trang này chỉ được cung cấp cho mục đích thông tin và không cấu thành tư vấn đầu tư, tư vấn tài chính hoặc khuyến nghị giao dịch. Gate sẽ không chịu trách nhiệm đối với bất kỳ tổn thất hoặc thiệt hại nào phát sinh từ các quyết định tài chính đó. Hơn nữa, xin lưu ý rằng Gate có thể không cung cấp đầy đủ dịch vụ tại một số thị trường và khu vực pháp lý nhất định, bao gồm nhưng không giới hạn ở Hoa Kỳ, Canada, Iran và Cuba. Để biết thêm thông tin về các Khu vực bị hạn chế, vui lòng tham khảo Thỏa thuận người dùng.

Thị trường giao dịch khác

Tin tức mới nhất về Ralph Lauren Corp (RL)

2026-04-23 04:54

Perplexity 公布网页搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本上优于 GPT-5.4

Gate News 消息,4 月 23 日——Perplexity 的研究团队发布了一篇技术文章,详细说明其针对网页搜索代理的后训练方法。该方法使用两个开源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 和 Qwen3.5-397B-A17B),并采用两阶段流水线:先进行监督微调 (SFT),以建立指令遵循与语言一致性;随后进行在线强化学习 (RL),以优化搜索准确率与工具使用效率。 强化学习阶段使用 GRPO 算法,并结合两种数据源:一种专有的多跳可验证问答数据集,由内部种子查询构建而成,要求推理 2–4 跳,并通过多求解器验证;以及基于评分标准的通用对话数据,将部署需求转换为客观可检验的原子条件,从而防止 SFT 行为退化。 奖励设计采用门控聚合——只有在达到基线正确性时,偏好分数才会计入 (question-answer 匹配或满足所有评分标准),从而避免高偏好信号掩盖事实错误。效率惩罚使用组内锚定:对工具调用以及生成长度施加平滑惩罚,且该基线以同一组中正确答案的长度为准。 评估结果表明,Qwen3.5-397B-SFT-RL 在各项搜索基准上实现同级最佳表现。在 FRAMES 上,它在单次工具调用时达到 57.3% 准确率,较 GPT-5.4 高 5.7 个百分点;较 Claude Sonnet 4.6 高 4.7 个百分点。在中等预算 (四次工具调用) 条件下,它以每次查询 $0.02 实现 73.9% 准确率;相比之下,GPT-5.4 为每次查询 $0.085 且准确率 67.8%,Sonnet 4.6 为每次查询 $0.153 且准确率 62.4%。成本数据基于各提供方公开的 API 定价,并不包含缓存优化。

2026-03-21 00:19

Cursor chính thức xác nhận Kimi K2.5 là nền tảng, Mặt tối của mặt trăng: thuộc về hợp tác thương mại được cấp phép

Gate News tin tức, ngày 21 tháng 3, theo dõi của 1M AI News, tài khoản chính thức của 月之暗面 @Kimi_Moonshot đã đăng bài chúc mừng Cursor phát hành Composer 2, và giải thích rằng Cursor thông qua nền tảng RL và suy luận được lưu trữ bởi Fireworks AI để truy cập Kimi K2.5, thuộc về hợp tác thương mại có phép. Đồng sáng lập Cursor Aman Sanger và Phó Chủ tịch giáo dục nhà phát triển Lee Robinson sau đó đã công khai xác nhận nguồn gốc của nền tảng và tiết lộ chi tiết kỹ thuật. Sanger cho biết nhóm đã thực hiện đánh giá độ phức tạp của nhiều nền tảng, Kimi K2.5 "chứng minh là mạnh nhất", sau đó tiếp tục huấn luyện lại và mở rộng quy mô gấp 4 lần với sức mạnh tính toán cao, và triển khai qua bộ suy luận và bộ lấy mẫu RL của Fireworks AI. Robinson bổ sung rằng, trong mô hình cuối cùng, sức mạnh tính toán từ nền tảng chiếm khoảng 1/4, phần còn lại 3/4 đến từ chính quá trình huấn luyện của Cursor. Cả hai nhà sáng lập đều thừa nhận việc không đề cập đến nguồn gốc nền tảng Kimi trong bài đăng blog là "một sai sót", và cam kết trong lần phát hành mô hình tiếp theo sẽ ghi rõ nguồn gốc nền tảng ngay lập tức. Trước đó, Elon Musk đã trả lời trong bài thảo luận liên quan rằng "Yeah, it's Kimi 2.5", làm tăng thêm độ nóng của chủ đề.

2026-03-20 09:47

Cursor Composer 2 bị cáo buộc sử dụng mô hình Kimi K2.5, Moonshot AI tố cáo nó không tuân thủ giấy phép

Tin tức Gate, ngày 20 tháng 3, theo theo dõi của 1M AI News, nhà phát triển @fynnso khi thử nghiệm yêu cầu API Cursor đã phát hiện rằng ID mô hình thực tế của Composer 2 là kimi-k2p5-rl-0317-s515-fast, nghĩa là "Kimi K2.5 + RL". Người phụ trách tiền huấn luyện của Moonshot AI, Đỗ Vũ Luân, đã đăng tweet ngay sau đó, nói rằng nhóm của ông khi thử tokenizer của Composer 2 đã phát hiện ra "hoàn toàn giống với tokenizer Kimi của chúng tôi", "gần như có thể xác nhận đây là kết quả của việc mô hình của chúng tôi bị huấn luyện lại thêm", và trực tiếp @ đồng sáng lập Cursor, Michael Truell, chất vấn "tại sao không tôn trọng giấy phép của chúng tôi, cũng không thanh toán bất kỳ khoản phí nào". Khi phát hành Composer 2 vào ngày 19 tháng 3, Cursor cho biết hiệu suất cải thiện đến từ "tiếp tục huấn luyện mô hình nền lần đầu tiên, sau đó kết hợp học tăng cường", nhưng toàn bộ quá trình không đề cập đến Kimi K2.5. Kimi K2.5 sử dụng phiên bản sửa đổi của giấy phép MIT, quy định rõ ràng: các sản phẩm thương mại có hoạt động hàng tháng vượt quá 100 triệu hoặc doanh thu hàng tháng vượt quá 20 triệu USD phải rõ ràng ghi chú "Kimi K2.5" trên giao diện người dùng. Với định giá Cursor là 29.3 tỷ USD và quy mô người dùng trả phí, ngưỡng doanh thu hàng tháng gần như chắc chắn sẽ bị kích hoạt. Đến thời điểm đăng bài, Cursor chưa phản hồi công khai.

2026-02-12 14:21

Gradient giới thiệu khung học tăng cường phân tán Echo-2 và dự kiến ra mắt nền tảng RLaaS Logits

Foresight News đưa tin, phòng thí nghiệm AI phân tán Gradient đã phát hành khung công tác học tăng cường phân tán Echo-2, nhằm phá vỡ rào cản hiệu quả đào tạo nghiên cứu AI. Khung công tác này thực hiện tách rời Learner và Actor ở cấp kiến trúc, nhằm giảm chi phí hậu huấn luyện cho các mô hình lớn. Theo dữ liệu chính thức, khung công tác này có thể giảm chi phí hậu huấn luyện của mô hình 30B từ 4500 USD xuống còn 425 USD. Echo-2 sử dụng công nghệ phân tách lưu trữ và tính toán để thực hiện huấn luyện bất đồng bộ (Async RL), hỗ trợ chuyển tải sức mạnh lấy mẫu đến các phiên bản card đồ họa không ổn định và card đồ họa đa dạng dựa trên Parallax. Khung công tác này kết hợp các công nghệ như độ cũ giới hạn, lập lịch chịu lỗi theo từng phiên bản và giao thức truyền thông Lattica tự phát triển, giúp nâng cao hiệu quả huấn luyện trong khi duy trì độ chính xác của mô hình. Ngoài ra, Gradient dự kiến ra mắt nền tảng RLaaS (Học tăng cường dưới dạng dịch vụ) Logits, hiện đã mở đăng ký cho sinh viên và nhà nghiên cứu.

2026-01-02 09:15

Mechanism Capital đối tác: Quy mô dữ liệu AI thực thể sẽ mở rộng gấp 100 lần vào năm 2026

PANews đã báo cáo vào ngày 2 tháng 1 rằng Andrew Kang, một đối tác tại Mechanism Capital, đã đăng trên nền tảng X rằng vào năm 2025, lĩnh vực robot sẽ giải quyết các thách thức về kiến trúc mô hình và đào tạo lâu dài, đồng thời đạt được tiến bộ đáng kể trong công nghệ thu thập dữ liệu, hiểu chất lượng dữ liệu và xây dựng dữ liệu, giúp các công ty trí tuệ nhân tạo tự tin rằng cuối cùng họ sẽ bắt đầu đầu tư vào thu thập dữ liệu quy mô lớn và các công ty như Figure, Dyna và PI sẽ sử dụng học tăng cường (RL) Công nghệ tiên tiến đã đạt được tỷ lệ thành công hơn 99% trong các tình huống ứng dụng thực tế khác nhau. Ngoài ra, những tiến bộ trong công nghệ bộ nhớ đã phá vỡ "bức tường bộ nhớ", ReMEmber của NVIDIA sử dụng điều hướng dựa trên bộ nhớ, Titans và MIRAS đạt được bộ nhớ thời gian thử nghiệm và các mô hình định vị ảo (VLM) tốt hơn có nghĩa là mảng định vị ảo (VLA) có khả năng hiểu không gian tốt hơn, cũng như các quy trình xử lý và chú thích dữ liệu có thể cải thiện đáng kể thông lượng. Vào năm 2025, thị trường ban đầu sẽ đánh giá cao khả năng lập bản đồ khả năng không bắn, độ nhạy của cường độ thị giác và suy luận vật lý chung do quy mô dữ liệu mang lại, và quy mô dữ liệu AI vật lý sẽ mở rộng gấp 100 lần vào năm 2026.

Bài viết hot về Ralph Lauren Corp (RL)

ChainNewsAbmedia

ChainNewsAbmedia

4 tiếng trước
根據 Cooley 律師事務所 4 月 27 日代發新聞稿,倫敦 AI 研究公司 Ineffable Intelligence 完成 11 億美元($1.1B)種子輪融資、投後估值 51 億美元($5.1B),由 Sequoia Capital 與 Lightspeed Venture Partners 共同領投,Google、Nvidia、Index Ventures 等跟投。這是歐洲歷年規模最大的種子輪,也代表 AI 資本市場「不只押 LLM」的新一波投資潮形成。 11 億美元種子輪:歐洲史上最大、估值 51 億美元 Ineffable Intelligence 此次融資直接超越過往歐洲 AI 公司在「種子階段」的所有紀錄。根據 CNBC 同日報導,公司投後估值達 51 億美元($5.1 billion post-money)。投資人結構: 共同領投:Sequoia Capital、Lightspeed Venture Partners 策略型跟投:Google、Nvidia 歐洲基金跟投:Index Ventures 對歐洲 AI 創投生態而言,這筆交易的意義遠超過單一公司—它驗證了「美系一線 VC + 美系科技巨頭 + 歐洲基金」的混合資金結構,可在倫敦完成本應在矽谷才有的種子估值。 創辦人 David Silver:AlphaGo 與 AlphaZero 主要架構師 創辦人 David Silver 是 Google DeepMind 前主任研究員,也是 AlphaGo(2016 年擊敗世界圍棋冠軍李世乭)與 AlphaZero(2017 年自學西洋棋與將棋達到超人類水準)的核心架構師。Silver 同時是強化學習(Reinforcement Learning, RL)領域的主要學術代表人物。 2025 年下半年起,他逐步從 DeepMind 抽離,2026 年第一季正式成立 Ineffable Intelligence。 不走 LLM 路線:用強化學習打造「永續學習超智能」 Ineffable Intelligence 的研究路線與當前主流的大型語言模型(LLM)—包含 OpenAI GPT、Anthropic Claude、Google Gemini—不同。Silver 公開立場是:LLM 倚賴「靜態資料集 + 預訓練」的模式,本質上難以突破訓練資料的天花板;真正的超智能(superintelligence)必須能「從自身經驗持續學習」(continually learning from its own experience)。 公司官方任務描述為「make first contact with superintelligence」(與超智能進行首次接觸),核心方法是 superlearner—一個能透過互動環境發現所有知識的學習代理。技術細節未公開,但從 Silver 過往研究脈絡推估,方法應結合大規模強化學習、自我對弈(self-play)與環境模擬。 為什麼選倫敦:DeepMind 校友圈與英國 AI 政策 選擇倫敦而非矽谷有三個原因:(1)DeepMind 過去 14 年累積的英國 AI 人才圈,許多高階研究員不願移居美國;(2)英國政府 2024-2026 年積極推動「AI Safety Institute」與算力補助,對前沿 AI 公司提供稅務與基礎建設誘因;(3)資料治理與隱私法規相對 EU 主體稍鬆,比德國/法國容易訓練大型模型。 此次融資的時機也耐人尋味—同期 Anthropic 在二級市場估值衝上 1 兆美元(同步主推 Claude Mythos),而 Ineffable Intelligence 用「對立路線」(非 LLM)拿到 51 億美元估值,顯示頂級 VC 開始把「AI 路線多元化」視為風險對沖的必要配置。 影響觀察:歐洲 AI 競爭力、Nvidia 雙押注、Google 戰略 這筆交易對三方有具體含義: 對歐洲 AI 生態而言,11 億美元種子輪是過去十年最具象徵意義的單筆—歐洲不再只是輸出人才到美國,可以在本地組成等級對等的研究團隊。Ineffable Intelligence 若 2-3 年內能交出代表性成果,會帶動更多英國/德國/法國 AI 創業潮。 對 Nvidia 而言,這是其 AI 投資組合中相對少見的「非 LLM 路線」配置—過去 Nvidia 押注的多為 OpenAI、Mistral、CoreWeave 等 LLM/算力相關。投資 Ineffable 等於把雞蛋放到不同籃子裡,避免如果 LLM 撞牆時整體布局被綁死。 對 Google 而言,跟投自家前員工的新公司在矽谷不算罕見,但金額這麼大、且是公開公告(多數類似投資都低調),顯示 Google 對 Silver 路線仍有戰略興趣—可能未來會以收購、技術授權或 Google Cloud 算力合作的方式重新整合。 下一個觀察點:Ineffable Intelligence 的首篇技術 paper 或產品 demo 公開時程。Silver 過去發 paper 的節奏是 12-18 個月一篇大作,預期 2026 年底或 2027 年初會看到第一個對外可驗證的 milestone。 這篇文章 AlphaGo 之父 11 億美元種子輪:歐洲史上最大、估值 51 億美元 最早出現於 鏈新聞 ABMedia。
0
0
0
0
MarketWhisper

MarketWhisper

14 tiếng trước
![AI自進化](https://img-cdn.gateio.im/social/moments-87a9b3933a-9bbb7108c3-8b7abd-badf29) Trưởng nhóm của đội ngũ mô hình lớn Xiaomi, La Fu-li, vào ngày 24 tháng 4 đã có một cuộc phỏng vấn chuyên sâu trên nền tảng Bilibili (mã video: BV1iVoVBgERD); thời lượng phỏng vấn là 3,5 giờ. Đây là lần đầu tiên bà công khai trình bày một cách có hệ thống các quan điểm kỹ thuật của mình với tư cách là người phụ trách kỹ thuật. La Fu-li cho biết, cuộc đua trong lĩnh vực mô hình lớn đã chuyển từ thời đại Chat sang thời đại Agent, đồng thời chỉ ra rằng “tự tiến hoá” sẽ là sự kiện then chốt đối với AGI trong năm tới. ### **Từ thời đại Chat sang thời đại Agent: phán đoán công nghệ cốt lõi** ![小米大模型團隊負責人羅福莉訪談](https://img-cdn.gateio.im/social/moments-87a9b3933a-8bb3456888-8b7abd-badf29) (Nguồn: Bilibili) Theo những gì La Fu-li đã nêu trong cuộc phỏng vấn Bilibili, bà cho biết trọng tâm cuộc cạnh tranh mô hình lớn năm 2026 đã chuyển từ chất lượng hội thoại đối thoại chung sang năng lực thực thi tự chủ liên tục trong các nhiệm vụ phức tạp. Trong cuộc phỏng vấn, bà nói rằng hiện nay các mô hình hàng đầu đã có thể tự tối ưu hoá trong các nhiệm vụ cụ thể, đồng thời tiếp tục thực thi ổn định trong 2 đến 3 ngày mà không cần con người can thiệp điều chỉnh. Bà nhấn mạnh trong cuộc phỏng vấn rằng, bước đột phá về năng lực “tự tiến hoá” đồng nghĩa với việc hệ thống AI bắt đầu có khả năng tự sửa lỗi, và đồng thời chỉ rõ các yếu tố kỹ thuật như lộ trình công nghệ của Anthropic cũng như các biến số công nghệ như Claude Opus 4.6 sẽ tác động đến toàn bộ hệ sinh thái AI. ### **Điều chỉnh phân bổ sức mạnh tính toán của Xiaomi và đánh giá chênh lệch thế hệ Pre-train** Theo những gì La Fu-li tiết lộ trong cuộc phỏng vấn, Xiaomi đã thực hiện những điều chỉnh lớn đối với chiến lược phân bổ sức mạnh tính toán. Bà giải thích rằng tỷ lệ sức mạnh tính toán thường dùng trong ngành là Pre-train:Post-train:Inference = 3:5:1, còn chiến lược hiện tại của Xiaomi đã được điều chỉnh thành 3:1:1, nén mạnh tỷ lệ huấn luyện sau, đồng thời tăng đầu tư tài nguyên cho giai đoạn suy luận. Trong cuộc phỏng vấn, bà giải thích rằng sự thay đổi này bắt nguồn từ việc chiến lược Agent RL Scaling đã trở nên trưởng thành, nên huấn luyện sau không còn cần phải “xếp chồng” nhiều sức mạnh tính toán, và việc tăng tài nguyên ở phía suy luận phản ánh nhu cầu về năng lực phản hồi tức thời của các kịch bản triển khai của Agent. Đối với vấn đề chênh lệch thế hệ Pre-train của các mô hình lớn trong nước, La Fu-li nói trong cuộc phỏng vấn rằng khoảng chênh lệch này đã được rút ngắn từ 3 năm trong quá khứ xuống còn vài tháng; trọng tâm chiến lược hiện tại đang chuyển sang Agent RL Scaling. Hành trình nghề nghiệp của La Fu-li bao gồm Viện Đa Mô Hình (Alibaba DAMO), Huan Fang Quant (Hanfang Quant) và DeepSeek (nhà phát triển cốt lõi DeepSeek-V2), và bà gia nhập Xiaomi vào tháng 11 năm 2025. ### **Thông số kỹ thuật loạt MiMo-V2 và xếp hạng mã nguồn mở** Theo thông báo loạt MiMo-V2 do Xiaomi chính thức công bố vào ngày 19 tháng 3 năm 2026, lần này ra mắt đồng thời ba mẫu: **MiMo-V2-Pro**:tổng số tham số là…, bật tham số 42B, kiến trúc chú ý hỗn hợp (mix attention), hỗ trợ ngữ cảnh lên đến hàng triệu, tỷ lệ hoàn thành nhiệm vụ 81% **MiMo-V2-Omni**:kịch bản Agent đa phương thức **MiMo-V2-TTS**:kịch bản tổng hợp giọng nói Theo thông báo, MiMo-V2-Flash đã được mã nguồn mở hiện đang đứng thứ hai trên bảng xếp hạng mô hình mã nguồn mở toàn cầu, tốc độ suy luận đạt gấp 3 lần DeepSeek-V3.2. ### **Câu hỏi thường gặp** #### **La Fu-li định nghĩa “tự tiến hoá” như thế nào, và vì sao cho rằng đó là sự kiện quan trọng nhất của AGI?** Theo nội dung La Fu-li đã nêu trong cuộc phỏng vấn trên Bilibili vào ngày 24 tháng 4 năm 2026 (BV1iVoVBgERD), bà cho biết hiện nay các mô hình hàng đầu đã có thể tự tối ưu hoá trong các nhiệm vụ cụ thể và thực thi ổn định trong 2 đến 3 ngày mà không cần con người can thiệp, đồng thời bà định tính “tự tiến hoá” là sự kiện then chốt nhất đối với sự phát triển của AGI trong năm tới. #### **Xiaomi đã điều chỉnh những gì cụ thể trong tỷ lệ sức mạnh tính toán, và logic đằng sau là gì?** Theo những gì La Fu-li tiết lộ trong cuộc phỏng vấn, tỷ lệ sức mạnh tính toán của Xiaomi đã được điều chỉnh từ Pre-train:Post-train:Inference = 3:5:1 (tỷ lệ quen thuộc trong ngành) thành 3:1:1, nén mạnh tỷ lệ huấn luyện sau; bà giải thích rằng điều chỉnh này xuất phát từ việc hiệu quả của huấn luyện sau được nâng cao sau khi chiến lược Agent RL Scaling trưởng thành, và nhu cầu về năng lực phản hồi tức thời ở phía suy luận do các kịch bản triển khai của Agent. #### **Xếp hạng mã nguồn mở và hiệu suất tốc độ của MiMo-V2-Flash như thế nào?** Theo thông báo chính thức do Xiaomi công bố vào ngày 19 tháng 3 năm 2026, MiMo-V2-Flash đã được mã nguồn mở đang đứng thứ hai trên bảng xếp hạng mô hình mã nguồn mở toàn cầu, tốc độ suy luận đạt gấp 3 lần DeepSeek-V3.2; tỷ lệ hoàn thành nhiệm vụ của phiên bản flagship MiMo-V2-Pro là 81%.
0
0
0
0