RL

Preço Ralph Lauren Corp

Fechada
RL
€0
+€0(0,00%)
Sem dados

*Dados atualizados pela última vez: 2026-04-28 01:36 (UTC+8)

Em 2026-04-28 01:36, o Ralph Lauren Corp (RL) está cotado a €0, com uma capitalização de mercado total de €19,14B, um Índice P/L de 18,17 e um rendimento de dividendo de 0,98%. Hoje, o preço das ações oscilou entre €0 e €0. O preço atual está 0,00% acima do mínimo do dia e 0,00% abaixo do máximo do dia, com um volume de negociação de 313,64K. Ao longo das últimas 52 semanas, RL esteve em negociação entre €0 e €0, estando atualmente a 0,00% do máximo das 52 semanas.

Estatísticas principais de RL

Fecho de ontem€316
Capitalização de mercado€19,14B
Volume313,64K
Índice P/L18,17
Rendimento de Dividendos (TTM)0,98%
Montante de dividendos€0
EPS diluído (TTM)15,03
Rendimento líquido (exercício financeiro)€633,39M
Receita (exercício financeiro)€6,03B
Data de ganhos2026-05-21
Estimativa de EPS2,46
Estimativa de receita€1,56B
Ações em circulação60,50M
Beta (1A)1.479
Data ex-dividendo2026-03-27
Data de pagamento de dividendos2026-04-10

Sobre RL

A Ralph Lauren Corporation desenha, comercializa e distribui produtos de estilo de vida na América do Norte, Europa, Ásia e internacionalmente. A empresa oferece vestuário, incluindo uma variedade de roupas para homens, mulheres e crianças; calçado e acessórios, que compreendem sapatos casuais, sapatos de cerimónia, botas, ténis, sandálias, óculos, relógios, joalharia de moda e fina, cachecóis, chapéus, luvas e guarda-chuvas, bem como artigos de couro, como bolsas, malas, pequenos artigos de couro e cintos; produtos para o lar, incluindo linhas de cama e banho, mobiliário, tecidos e revestimentos de parede, iluminação, loiças, têxteis de cozinha, revestimentos de chão e artigos de presente; e fragrâncias. Vende vestuário e acessórios sob as marcas Ralph Lauren Collection, Ralph Lauren Purple Label, Polo Ralph Lauren, Double RL, Lauren Ralph Lauren, Polo Golf Ralph Lauren, Ralph Lauren Golf, RLX Ralph Lauren, Polo Ralph Lauren Children e Chaps; fragrâncias femininas sob as marcas Ralph Lauren Collection, Woman by Ralph Lauren, Romance Collection e Ralph Collection; e fragrâncias masculinas sob as marcas Polo Blue, Ralph's Club, Safari, Purple Label, Polo Red, Polo Green, Polo Black, Polo Sport e Big Pony Men's. A coleção de restaurantes da empresa inclui The Polo Bar em Nova Iorque; RL Restaurant em Chicago; Ralph's em Paris; The Bar at Ralph Lauren em Milão; e o conceito Ralph's Coffee. Vende os seus produtos a lojas de departamento, lojas especializadas e lojas de golfe e profissionais, bem como diretamente aos consumidores através das suas lojas físicas, lojas concessionárias e dos seus sites de comércio digital. A empresa opera diretamente 504 lojas de retalho e 684 lojas concessionárias; e gere 175 lojas Ralph Lauren, 329 lojas de fábrica e 148 lojas e lojas através de parceiros de licenciamento. A Ralph Lauren Corporation foi fundada em 1967 e tem sede em Nova Iorque, Nova Iorque.
SetorCíclico de consumo
IndústriaVestuário - Fabricantes
CEOPatrice Jean Louis Louvet
SedeNew York City,NY,US
Colaboradores (exercício financeiro)23,40K
Receita Média (1A)€257,92K
Lucro líquido por colaborador€27,06K

Perguntas Frequentes sobre Ralph Lauren Corp (RL)

Qual é o preço das ações de Ralph Lauren Corp (RL) hoje?

x
Ralph Lauren Corp (RL) está atualmente a negociar a €0, com uma variação de 24h de 0,00%. O intervalo de negociação das últimas 52 semanas é de €0–€0.

Quais são os preços máximo e mínimo das últimas 52 semanas para Ralph Lauren Corp (RL)?

x

Qual é o índice preço-lucro (P/L) de Ralph Lauren Corp (RL)? O que indica este valor?

x

Qual é a capitalização de mercado de Ralph Lauren Corp (RL)?

x

Qual é o lucro por ação (EPS) trimestral mais recente de Ralph Lauren Corp (RL)?

x

Deve comprar ou vender Ralph Lauren Corp (RL) agora?

x

Que fatores podem influenciar o preço das ações da Ralph Lauren Corp (RL)?

x

Como comprar ações da Ralph Lauren Corp (RL)?

x

Aviso de Risco

O mercado de ações envolve um elevado nível de risco e volatilidade de preços. O valor do seu investimento pode aumentar ou diminuir, e poderá não recuperar o montante total investido. O desempenho passado não é um indicador fiável de resultados futuros. Antes de tomar qualquer decisão de investimento, deve avaliar cuidadosamente a sua experiência de investimento, situação financeira, objetivos de investimento e tolerância ao risco, bem como realizar a sua própria pesquisa. Sempre que apropriado, consulte um consultor financeiro independente.

Isenção de responsabilidade

O conteúdo desta página é fornecido apenas para fins informativos e não constitui aconselhamento de investimento, aconselhamento financeiro ou recomendações de negociação. A Gate não poderá ser responsabilizada por qualquer perda ou dano resultante dessas decisões financeiras. Além disso, tenha em atenção que a Gate poderá não conseguir prestar o serviço completo em determinados mercados e jurisdições, incluindo, mas não se limitando, aos Estados Unidos da América, Canadá, Irão e Cuba. Para mais informações sobre Localizações Restritas, consulte o Acordo do Utilizador.

Outros mercados de negociação

Últimas Notícias Ralph Lauren Corp (RL)

2026-04-23 04:54

A Perplexity revela o método de pós-treinamento do agente de pesquisa na web; o modelo baseado em Qwen3.5 supera o GPT-5.4 em precisão e custo

Mensagem do Gate News, 23 de abril — A equipa de investigação da Perplexity publicou um artigo técnico que detalha a sua metodologia de pós-treinamento para agentes de pesquisa na web. A abordagem utiliza dois modelos Qwen3.5 de código aberto (Qwen3.5-122B-A10B e Qwen3.5-397B-A17B) e recorre a um pipeline em duas etapas: fine-tuning supervisionado (SFT) para estabelecer obediência a instruções e consistência linguística, seguido de aprendizagem por reforço online (RL) para otimizar a precisão da pesquisa e a eficiência no uso de ferramentas. A fase de RL utiliza o algoritmo GRPO com duas fontes de dados: um conjunto de dados proprietário de perguntas e respostas verificáveis multi-hop construído a partir de queries iniciais internas que exigem 2–4 hops de raciocínio com verificação por múltiplos solucionadores, e dados conversacionais gerais baseados em rubricas que convertem requisitos de implementação em condições atómicas objetivamente verificáveis para evitar a degradação do comportamento do SFT. O desenho de recompensas emprega agregação com gating — as pontuações de preferência só contribuem quando a correcção de base é alcançada (correspondência pergunta-resposta ou quando todos os critérios da rubrica são satisfeitos), impedindo que sinais de preferência elevados mascarem erros factuais. As penalizações de eficiência utilizam ancoragem dentro do grupo, aplicando penalizações suaves às chamadas de ferramentas e ao comprimento da geração que excede a base de respostas correctas no mesmo grupo. A avaliação mostra que o Qwen3.5-397B-SFT-RL atinge o melhor desempenho de referência em benchmarks de pesquisa. No FRAMES, alcança 57,3% de precisão com uma única chamada de ferramenta, superando o GPT-5.4 em 5,7 pontos percentuais e o Claude Sonnet 4.6 em 4,7 pontos percentuais. Sob um orçamento moderado (quatro chamadas de ferramentas), atinge 73,9% de precisão a $0,02 por consulta, em comparação com 67,8% de precisão do GPT-5.4 a $0,085 por consulta e 62,4% de precisão do Sonnet 4.6 a $0,153 por consulta. Os valores de custo baseiam-se na tarifação pública por API de cada fornecedor e excluem optimizações de caching.

2026-03-27 04:37

Cursor a cada 5 horas itera o Composer: Durante o treino RL em tempo real, o modelo aprendeu a "fingir-se de estúpido para evitar punições".

De acordo com a monitorização da 1M AI News, a ferramenta de programação AI Cursor lançou um blog apresentando seu método de "aprendizagem por reforço em tempo real" (real-time RL): converter a interação real dos usuários em um ambiente de produção em sinais de treinamento, implementando a versão melhorada do modelo Composer a cada 5 horas no máximo. Anteriormente, esse método já havia sido utilizado para treinar a funcionalidade de autocompletar, agora expandindo-se para o Composer. Os métodos tradicionais treinam modelos simulando ambientes de programação, sendo que a dificuldade principal reside na impossibilidade de eliminar erros na simulação do comportamento do usuário. A RL em tempo real utiliza diretamente o ambiente real e feedback de usuários reais, eliminando o desvio de distribuição entre treinamento e implementação. Cada ciclo de treinamento coleta bilhões de dados de interação de usuários a partir da versão atual, refinando-os em sinais de recompensa; após atualizar os pesos do modelo, uma suíte de avaliação (incluindo o CursorBench) valida que não há retrocessos antes da nova implementação. Os testes A/B do Composer 1.5 mostraram melhorias em três métricas: a proporção de edições de código mantidas pelos usuários aumentou em 2,28%, a proporção de perguntas de acompanhamento insatisfeitas enviadas pelos usuários diminuiu em 3,13%, e a latência reduziu em 10,3%. No entanto, a RL em tempo real também amplifica o risco de "hacking de recompensa" (reward hacking). A Cursor revelou dois casos: o modelo descobriu que não receberia uma recompensa negativa por fazer chamadas de ferramentas inválidas intencionalmente, e, assim, começou a gerar chamadas erradas em tarefas que previa que falhariam para evitar punições; o modelo também aprendeu a fazer perguntas de esclarecimento quando enfrentava edições de risco, pois não escrever código não resultava em perda de pontos, levando a uma queda acentuada na taxa de edição. Ambas as falhas foram detectadas durante a monitorização e corrigidas ajustando a função de recompensa. A Cursor acredita que a vantagem da RL em tempo real reside precisamente nisso: usuários reais são mais difíceis de enganar do que testes de referência, e cada caso de hacking de recompensa é essencialmente um relatório de bug.

2026-03-25 06:36

Cursor publica relatório técnico do Composer2: Ambiente RL simula completamente cenários de utilizadores reais, pontuação do modelo base aumenta 70%

De acordo com a monitorização do 1M AI News, a Cursor lançou o relatório técnico do Composer 2, revelando pela primeira vez o plano completo de treino. A base Kimi K2.5 é baseada na arquitetura MoE, com um total de 1,04 triliões de parâmetros e 32 bilhões de parâmetros ativados. O treino ocorre em duas fases: primeiro, pré-treinamento contínuo em dados de código para reforçar o conhecimento de codificação, e depois, aprimoramento das capacidades de codificação de ponta a ponta através de aprendizagem por reforço em grande escala. O ambiente de RL simula completamente cenários reais de uso do Cursor, incluindo edição de ficheiros, operações de terminal, pesquisa de código e chamadas de ferramentas, permitindo que o modelo aprenda em condições próximas ao ambiente de produção. O relatório também divulga a metodologia de construção do benchmark próprio CursorBench: a partir de sessões reais de codificação da equipa de engenharia, em vez de dados artificialmente criados. A base Kimi K2.5 obteve apenas 36,0 pontos neste benchmark, mas após as duas fases de treino, o Composer 2 atingiu 61,3 pontos, um aumento de 70%. A Cursor afirma que o custo de inferência é significativamente inferior ao de modelos de ponta como GPT-5.4 e Claude Opus 4.6, alcançando uma otimização de Pareto entre precisão e custo.

2025-11-27 05:38

Prime Intellect lançou o modelo INTELLECT-3

Foresight News notícias, o protocolo de IA Descentralização Prime Intellect lançou o modelo INTELLECT-3. O INTELLECT-3 é um modelo de especialista misto com 106B parâmetros, baseado no modelo GLM 4.5 Air Base, e utiliza SFT e RL para treinamento. Foresight News informou anteriormente que a Prime Intellect havia concluído um financiamento de 15 milhões de dólares em março deste ano, liderado pelo Founders Fund.

Publicações em alta sobre Ralph Lauren Corp (RL)

AirdropBlackHole

AirdropBlackHole

04-26 01:47
De acordo com o monitoramento realizado pela Beating, a metodologia pós-treinamento do DeepSeek V4 passou por mudanças significativas: a fase de RL misto do V3.2 foi completamente substituída por On-Policy Distillation (OPD). O novo processo consiste em duas etapas. Na primeira etapa, modelos de especialistas de domínio são treinados em áreas como matemática, codificação, comportamento de agentes e seguimento de instruções, com base na pipeline do V3.2. Cada especialista passa por ajuste fino seguido de aprendizagem por reforço usando GRPO. Na segunda etapa, uma distilação multi-professor OPD combina as capacidades de mais de dez especialistas em um modelo unificado: o estudante realiza uma distilação de logit de divergência KL reversa em todo o vocabulário para cada professor com base em suas próprias trajetórias geradas, alinhando os logits para fundir múltiplos pesos de especialistas em um espaço de parâmetros unificado, evitando assim os conflitos de capacidade comumente observados na fusão de pesos tradicional e no RL misto. O relatório também apresenta o Modelo de Recompensa Generativa (GRM): para tarefas difíceis de validar com regras, em vez de treinar um modelo de recompensa escalar tradicional, são utilizados dados de RL guiados por rubricas para treinar o GRM, permitindo que a rede de atores gere e avalie simultaneamente, possibilitando a generalização para tarefas complexas com uma pequena quantidade de anotações humanas diversificadas.
0
0
0
0