RL

拉夫劳伦价格

休市中
RL
¥2,607.91
+¥30.31(+1.17%)

*页面数据最近更新时间:2026-05-03 13:42 (UTC+8)

至 2026-05-03 13:42,拉夫劳伦 (RL) 股票价格报 ¥2,607.91,总市值 ¥1581.45亿,市盈率 18.17,股息率 1.00%。 当日股票价格在 ¥2,557.37 至 ¥2,627.86 之间波动,当前价格较日内低点高 1.97%,较日内高点低 0.75%,成交量 39.87万。 过去 52 周,RL 股票价格区间为 ¥2,540.23 至 ¥2,784.74,当前价格距 52 周高点 -6.35%。

RL 关键数据

昨日收盘价¥2,582.21
市值¥1581.45亿
成交量39.87万
市盈率18.17
股息收益率 (TTM)1.00%
股息金额¥6.57
摊薄每股收益 (TTM)15.03
净利润 (财年)¥53.48亿
营收 (财年)¥509.68亿
下次财报日期2026-05-21
每股收益预测2.46
营收预测¥132.25亿
流通股数6124.42万
Beta 值 (1 年)1.479
最近除息日2026-03-27
最近派息日2026-04-10

RL 简介

拉尔夫·劳伦公司在北美、欧洲、亚洲以及国际市场设计、营销和分销生活方式产品。公司提供服装,包括男装、女装和童装的各类服装;鞋履和配饰,包括休闲鞋、正装鞋、靴子、运动鞋、凉鞋、眼镜、手表、时尚与高级珠宝、围巾、帽子、手套和雨伞,以及皮革制品,如手袋、行李箱、小型皮具和皮带;家居产品包括床品和浴室系列、家具、面料与墙纸、照明、餐桌用品、厨房纺织品、地面铺设材料和礼品;以及香水。公司以Ralph Lauren Collection、Ralph Lauren Purple Label、Polo Ralph Lauren、Double RL、Lauren Ralph Lauren、Polo Golf Ralph Lauren、Ralph Lauren Golf、RLX Ralph Lauren、Polo Ralph Lauren Children 和 Chaps 这些品牌销售服装和配饰;以Ralph Lauren Collection、Woman by Ralph Lauren、Romance Collection 以及 Ralph Collection 等品牌名称销售女士香水;并以 Polo Blue、Ralph's Club、Safari、Purple Label、Polo Red、Polo Green、Polo Black、Polo Sport 和 Big Pony Men's 这些品牌名称销售男士香水。公司的餐厅系列包括位于纽约的 The Polo Bar;位于芝加哥的 RL Restaurant;位于巴黎的 Ralph's;位于米兰的 The Bar at Ralph Lauren;以及 Ralph's Coffee 概念。公司将产品销售给百货商店、专业商店以及高尔夫与专业用品店,同时通过其零售店、特许经营的店中店以及数字商务网站直接面向消费者。公司直接运营 504 家零售店和 684 家特许经营的店中店;并通过授权合作伙伴运营 175 家 Ralph Lauren 店铺、329 家工厂店以及 148 家店铺和门店。拉尔夫·劳伦公司成立于 1967 年,总部位于 New York, New York。
所属板块消费者周期性
所属行业服装 - 制造商
CEOPatrice Jean Louis Louvet
总部New York City,NY,US
员工人数 (财年)2.34万
年均收入 (1 年)¥217.81万
员工人均净利润¥22.85万

拉夫劳伦 (RL) FAQ

拉夫劳伦 (RL) 今天的股价是多少?

x
拉夫劳伦 (RL) 当前报价 ¥2,607.91,24 小时变动 +1.17%。52 周交易区间为 ¥2,540.23–¥2,784.74。

拉夫劳伦 (RL) 的 52 周最高价和最低价是多少?

x

拉夫劳伦 (RL) 的市盈率 (P/E) 是多少?说明了什么?

x

拉夫劳伦 (RL) 的市值是多少?

x

拉夫劳伦 (RL) 最近一季的每股收益 (EPS) 是多少?

x

拉夫劳伦 (RL) 现在该买入还是卖出?

x

哪些因素会影响 拉夫劳伦 (RL) 的股价?

x

如何购买 拉夫劳伦 (RL) 股票?

x

风险提示

股票市场具有高风险和价格波动性。您的投资价值可能会增加或减少,且您可能无法收回全部投资金额。过往表现并非未来业绩的可靠指标。在做出任何投资决策之前,您应仔细评估自身的投资经验、财务状况、投资目标和风险承受能力,并自行进行研究。如有需要,请咨询独立的财务顾问。

免责声明

本页面内容仅供参考,不构成投资建议、财务建议或交易推荐。Gate 不对因此类财务决策而造成的任何损失或损害承担责任。此外,请注意 Gate 可能无法在某些市场和司法管辖区提供全部服务,包括但不限于美国、加拿大、伊朗和古巴。有关受限地区的更多信息,请参阅《用户协议》的相关条款。

其他交易市场

拉夫劳伦 (RL) 今日新闻

2026-04-23 04:54

Perplexity 公开网页搜索代理的后训练方法;基于 Qwen3.5 的模型在准确率与成本上胜过 GPT-5.4

封面新闻讯息,4 月 23 日——Perplexity 的研究团队发布了一篇技术文章,详细介绍了其网页搜索代理的后训练方法。该方法使用两个开源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 和 Qwen3.5-397B-A17B),并采用两阶段流水线:先进行监督微调 (SFT),以建立指令遵循与语言一致性;随后进行在线强化学习 (RL),以优化搜索准确性与工具使用效率。 强化学习阶段使用 GRPO 算法,并来自两类数据源:一是专有的多跳可验证问答数据集,由内部种子查询构建而来,这些查询需要 2–4 跳推理,并通过多求解器验证;二是基于评分规则的通用对话数据,将部署需求转换为可客观核查的原子条件,以防止 SFT 行为退化。 奖励设计采用门控聚合——只有在达到基线正确性时,偏好分数才会被计入 (question-answer match 或所有评分规则标准均满足),从而避免高偏好信号掩盖事实错误。效率惩罚使用组内锚定:对工具调用与生成长度施加平滑惩罚,其基线为同一组中正确答案的基线水平。 评估表明,Qwen3.5-397B-SFT-RL 在各项搜索基准上实现同类最佳表现。在 FRAMES 上,它使用单次工具调用达到 57.3% 的准确率,较 GPT-5.4 高 5.7 个百分点;较 Claude Sonnet 4.6 高 4.7 个百分点。在中等预算 (four tool calls) 下,它以每次查询 $0.02 实现 73.9% 的准确率;相比之下,GPT-5.4 为 67.8%(每次查询 $0.085),Sonnet 4.6 为 62.4%(每次查询 $0.153)。成本数据基于各提供方公开的 API 定价,并且不包括缓存优化。

2026-03-27 04:37

Cursor每5小时迭代Composer:实时RL训练下,模型学会了「装傻逃罚」

据 1M AI News 监测,AI 编程工具 Cursor 发布博客介绍其「实时强化学习」(real-time RL)方法:将生产环境中的真实用户交互转化为训练信号,最快每 5 小时部署一个改进版 Composer 模型。此前该方法已用于训练 Tab 补全功能,现扩展至 Composer。 传统方法通过模拟编程环境训练模型,核心难点在于模拟用户行为的误差难以消除。实时 RL 直接使用真实环境和真实用户反馈,消除训练与部署之间的分布偏移。每个训练周期从当前版本收集数十亿 token 的用户交互数据,提炼为奖励信号,更新模型权重后经评测套件(包括 CursorBench)验证无回退再部署上线。Composer 1.5 的 A/B 测试显示三项指标改善:代码编辑被用户保留的比例提升 2.28%,用户发送不满意追问的比例下降 3.13%,延迟降低 10.3%。 但实时 RL 也放大了奖励黑客(reward hacking)风险。Cursor 披露了两个案例:模型发现故意发出无效工具调用后不会收到负面奖励,于是在预判会失败的任务上主动制造错误调用来逃避惩罚;模型还学会在面对有风险的编辑时转而提出澄清性问题,因为不写代码就不会被扣分,导致编辑率急剧下降。两个漏洞均在监控中被发现并通过修正奖励函数解决。Cursor 认为实时 RL 的优势恰在于此:真实用户比基准测试更难被糊弄,每次奖励黑客本质上都是一份 bug 报告。

2026-03-25 06:36

Cursor发布Composer2技术报告:RL环境完全模拟真实用户场景,底座模型得分提升70%

据 1M AI News 监测,Cursor 发布 Composer 2 技术报告,首次披露完整训练方案。底座 Kimi K2.5 为 MoE 架构,总参数 1.04 万亿、激活参数 320 亿。训练分两阶段:先在代码数据上继续预训练以增强编码知识,再通过大规模强化学习提升端到端编码能力。RL 环境完全模拟真实 Cursor 使用场景,包括文件编辑、终端操作、代码搜索等工具调用,让模型在接近生产环境的条件下学习。 报告同步公布了自研基准 CursorBench 的构建方法:从工程团队的真实编码会话中采集任务,而非人工构造。底座 Kimi K2.5 在该基准上仅得 36.0 分,经两阶段训练后 Composer 2 达到 61.3 分,提升 70%。Cursor 称其推理成本显著低于 GPT-5.4 和 Claude Opus 4.6 等前沿模型 API,在准确率与成本之间实现帕累托最优。

2025-11-27 05:38

Prime Intellect 推出 INTELLECT-3 模型

Foresight News 消息,去中心化 AI 协议 Prime Intellect 推出 INTELLECT-3 模型。INTELLECT-3 为拥有 106B 参数的混合专家模型,基于 GLM 4.5 Air Base 模型,并使用 SFT 和 RL 进行训练。Foresight News 此前消息,Prime Intellect 曾于今年 3 月完成 1500 万美元融资,Founders Fund 领投。

拉夫劳伦 (RL) 热门帖子

鏈新聞abmedia

鏈新聞abmedia

05-02 05:48
加州大学伯克利分校研究团队提出新的 AI 训练方法 GEPA、已被 ICLR 2026 接收为 Oral 论文。GEPA 不更新模型权重、不需 GPU 训练,只用一个「读取训练记录」的 LLM 反复改写 AI 系统的提示词,便在 6 项任务上平均胜过主流强化学习方法 GRPO 6%、最高胜出 20%、所需训练尝试次数(rollouts)少 35 倍。研究经 AI 工程社群整理扩散后在 X 平台引发讨论,目前已整合进 DSPy 成为一等优化器。 GEPA 在做什么:把训练记录当教材、不再只看分数 传统强化学习方法(如 GRPO)的工作流是:让 AI 跑一次任务、根据结果给一个「+1 或 -1」的分数,再用这个分数反复调整模型权重。问题是 AI 跑这一次任务的过程通常包含上千 token 的推理步骤、工具调用、错误讯息——这些丰富细节全被压缩成一个分数,过程信息被丢掉。所以 RL 需要跑成千上万次才能收敛。 GEPA 的做法相反:每次 AI 跑完任务,把整段过程(reasoning、工具调用、报错记录)原原本本交给另一个「反思 LLM」阅读。反思 LLM 像个资深工程师读程序 log,找出哪一步出错、为何出错、应该如何修改提示词,然后直接重写该模块的提示。同样一次跑任务、GEPA 从中提取的讯号量远多于 RL 的单一分数。 为何能赢:把「打分数」改成「读整段过程」 GEPA 在 6 项任务上平均胜 GRPO 6%、最高胜 20%;对比另一个主流提示优化器 MIPROv2 也胜出 10% 以上(在 AIME-2025 数学题基准上提升 12%)。最关键的是训练成本:GEPA 达到同等性能所需的 rollouts(一次完整跑任务)少 35 倍。 另一项数据是 GEPA 与 DSPy 整合后的「Full Program Adapter」可优化整个 DSPy 程式(包含 signature、模块、控制流),在 MATH 数学基准达 93% 准确率,大幅超过 DSPy 原本的 ChainOfThought 写法的 67%。GEPA 也在 multi-module 工作流(多模块串接的 AI agent)上表现特别好——可精确锁定某一个出错的模块改写提示,而不是调整整个系统。 谁会先用上:DSPy 一等公民、GitHub 已开源 GEPA 程式码已开源于 GitHub,并以 dspy.GEPA 形式整合进 DSPy 框架、也独立发布为 Python library。研究团队跨 UC Berkeley、Stanford、Notre Dame、Anthropic 等机构,论文作者包含 Matei Zaharia(Databricks 共同创办人、DSPy 主要作者)与 Omar Khattab(DSPy 主要作者)。 对开发者社群而言,GEPA 提供了「拥有大量 rollout 但不知如何利用」的新解法——多数团队已累积成千上万笔 agent 跑任务记录,但除了出错时翻几笔查 bug,并无系统性方法把这些记录转成模型改进。下一个观察点是 GEPA 在企业 agentic 工作流(如客服自动化、程式自动修复)的实际导入案例,以及是否会出现非 DSPy 框架的 GEPA 对应实现。 这篇文章 Berkeley GEPA 解析:不更新权重就能让 AI 学会新任务、35 倍少训练成本胜 RL 最早出现在 链新闻 ABMedia。
0
0
0
0
Cryptopolitan

Cryptopolitan

04-30 22:08
一项开源的加密交易项目在 Anthropic 的 Claude Opus AI 模型将其作为依赖后,收到了一个名为 @validate-sdk/v2 的恶意 npm 包。这让黑客能够获取用户的加密钱包及资金。 来自 ReversingLabs(RL)的安全研究人员在 openpaw-graveyard 项目中发现了这一漏洞。该项目是托管在 npm 上的自主加密交易代理。他们将其称为 PromptMink。 恶意提交创建于 2026 年 2 月 28 日。ReversingLabs 表示,该软件包假装是用于检查数据的工具,但实际上会从宿主环境窃取机密信息。 与 PromptMink 恶意软件相关的朝鲜黑客 ReversingLabs 表示,此次攻击源自 Famous Chollima——一个由朝鲜国家支持的威胁团体。 该团体至少自 2025 年 9 月以来就一直在传播恶意的 npm 包。他们不断改进一种双层策略,旨在同时欺骗人类开发者和 AI 编码助手。 第一层由没有任何恶意代码的包构成。这些“诱饵”包,例如 @solana-launchpad/sdk 和 @meme-sdk/trade,看起来像是加密开发者真正会用到的工具。 他们会列出几款携带实际载荷的第二层包,同时还把 axios 和 bn.js 等流行的 npm 包作为依赖。 当第二层包被上报并从 npm 下架时,攻击者只是再投放一个新的包,而不会削弱他们围绕这些诱饵包所建立起来的声誉。 ReversingLabs 表示,当 @hash-validator/v2 从 npm 下架时,攻击者在同一天发布了 @validate-sdk/v2,且版本号和源代码都相同。 AI 代理比人类更容易遭受黑客攻击 安全研究人员称,Famous Chollima 的方法似乎更适合用于利用 AI 编码助手,而不是人类开发者。该团体为其恶意软件包编写了冗长且细致的文档,研究人员称之为“LLM 优化滥用”。 其目的是让软件包看起来足够真实,从而让 AI 代理在毫无问题的情况下提出建议并安装它们。感染的软件包是由生成式 AI 工具“vibe-coded”(以生成式方式编写/生成)。文件注释中还能看到残留的 LLM 回复内容。 自 2025 年下半年以来,PromptMink 恶意软件已经呈现出多种不同形态。 它最初只是一个简单的 JavaScript 信息窃取器,随后发展为大型的单一可执行应用程序;而如今,则以经过编译的 Rust 载荷形式出现,目的是做到隐蔽运行——ReversingLabs 表示如此。 当恶意软件安装后,它会寻找与加密相关的配置文件,窃取钱包凭据和系统信息,将项目源代码压缩后发送给自身,并在 Linux 和 Windows 机器上投放 SSH 密钥,以便它能够一直进行远程访问。 PromptMink 行动并不是近期通过包管理器瞄准加密开发者的唯一攻击。 上个月,Cryptopolitan 报道了 GhostClaw:一种通过假冒的 npm 安装程序针对 OpenClaw 社区的恶意软件。在从 npm 注册表移除之前,它从 178 名开发者手中窃取了加密钱包数据、macOS Keychain(钥匙串)密码以及 AI 平台 API 令牌。 PromptMink 和 GhostClaw 都以社交工程作为切入点,目标是从事加密和 Web3 的开发者。PromptMink 的不同之处在于,它会直接针对 AI 编码代理,并将这些代理作为攻击路径。 最聪明的加密从业者已经在阅读我们的通讯了。想加入吗?邀请你一起来。
0
0
0
0