RL

Ralph Lauren Corp價格

休市中
RL
$11,456.45
+$133.16(+1.17%)

*頁面數據最近更新時間:2026-05-03 14:02 (UTC+8)

至 2026-05-03 14:02,Ralph Lauren Corp (RL) 股票報價為 $11,456.45,總市值為 $6947.26億,本益比為 18.17,股息率為 1.00%。 當日股票價格在 $11,234.41 至 $11,544.06 之間波動,當前價格較日內低點高 1.97%,較日內高點低 0.75%,成交量為 39.87萬。 過去 52 週,RL 股票價格區間為 $11,159.13 至 $12,233.26,當前價格距 52 週高點 -6.35%。

RL 關鍵數據

昨日收盤價$11,343.53
市值$6947.26億
成交量39.87萬
本益比18.17
股息收益率 (TTM)1.00%
股息金額$28.87
攤薄每股收益 (TTM)15.03
淨利潤(會計年度)$234.97億
營收(會計年度)$2239.03億
下次財報日期2026-05-21
每股收益預測2.46
營收預測$581.00億
流通股數6124.42萬
Beta 值(1 年)1.479
最近除息日2026-03-27
最近派息日2026-04-10

RL 簡介

拉爾夫·羅倫公司設計、行銷與分銷北美、歐洲、亞洲及國際市場的生活方式產品。公司提供服裝,包括男士、女士與兒童的服裝系列;鞋類和配件,涵蓋休閒鞋、正裝鞋、靴子、運動鞋、涼鞋、眼鏡、手錶、時尚及精品珠寶、圍巾、帽子、手套和雨傘,以及皮革商品,例如手提包、行李箱、小型皮革用品和皮帶;家居產品,包括床上與浴室用品、家具、布料與壁材、照明、餐桌用品、廚房亞麻製品、地面鋪設用品以及禮品;以及香水。 公司以 Ralph Lauren Collection、Ralph Lauren Purple Label、Polo Ralph Lauren、Double RL、Lauren Ralph Lauren、Polo Golf Ralph Lauren、Ralph Lauren Golf、RLX Ralph Lauren、Polo Ralph Lauren Children 與 Chaps 等品牌銷售服裝與配件;以 Ralph Lauren Collection、Woman by Ralph Lauren、Romance Collection 及 Ralph Collection 等品牌名稱銷售女士香水;並以 Polo Blue、Ralph's Club、Safari、Purple Label、Polo Red、Polo Green、Polo Black、Polo Sport 與 Big Pony Men's 等品牌名稱銷售男士香水。 公司的餐廳系列包括紐約市的 The Polo Bar;芝加哥的 RL Restaurant;巴黎的 Ralph's;米蘭的 The Bar at Ralph Lauren;以及 Ralph's Coffee 概念。公司將產品銷售給百貨公司、專賣店,以及高爾夫與專業用品店,並透過其零售店、以特許經營模式運作的店中店,以及其數位商務網站直接銷售給消費者。 公司直接營運 504 家零售店與 684 家店中店;並透過授權合作夥伴營運 175 家 Ralph Lauren 店、329 家工廠店,以及 148 家店鋪與商店。拉爾夫·羅倫公司於 1967 年成立,總部位於紐約州紐約市。
所屬板塊消費者循環性行業
所屬行業服裝 - 製造商
CEOPatrice Jean Louis Louvet
總部New York City,NY,US
員工人數(會計年度)2.34萬
年均收入(1 年)$956.85萬
員工人均淨利潤$100.41萬

Ralph Lauren Corp (RL) FAQ

Ralph Lauren Corp (RL) 今天的股價是多少?

x
Ralph Lauren Corp (RL) 當前報價 $11,456.45,24 小時變動 +1.17%。52 週交易區間為 $11,159.13–$12,233.26。

Ralph Lauren Corp (RL) 的 52 週最高價和最低價是多少?

x

Ralph Lauren Corp (RL) 的本益比 (P/E) 是多少?說明了什麽?

x

Ralph Lauren Corp (RL) 的市值是多少?

x

Ralph Lauren Corp (RL) 最近一季的每股收益 (EPS) 是多少?

x

Ralph Lauren Corp (RL) 現在該買入還是賣出?

x

哪些因素會影響 Ralph Lauren Corp (RL) 的股價?

x

如何購買 Ralph Lauren Corp (RL) 股票?

x

風險提示

股票市場具有高風險和價格波動性。您的投資價值可能會增加或減少,且您可能無法收回全部投資金額。過往表現並非未來業績的可靠指標。在做出任何投資決策之前,您應仔細評估自身的投資經驗、財務狀況、投資目標和風險承受能力,並自行進行研究。如有需要,請諮詢獨立的財務顧問。

免責聲明

本頁面內容僅供參考,不構成投資建議、財務建議或交易推薦。Gate 不對因此類財務決策而造成的任何損失或損害承擔責任。此外,請注意 Gate 可能無法在某些市場和司法管轄區提供全部服務,包括但不限於美國、加拿大、伊朗和古巴。有關受限地區的更多資訊,請參閱《用戶協議》的相關條款。

其他交易市場

Ralph Lauren Corp (RL) 今日新聞

2026-04-23 04:54

Perplexity 揭露 Web 搜尋代理後訓練方法;基於 Qwen3.5 的模型在準確率與成本上超越 GPT-5.4

封鎖新聞訊息,4 月 23 日 — Perplexity 的研究團隊發布了一篇技術文章,詳述其用於 Web 搜尋代理的後訓練方法。該方法使用兩個開源的 Qwen3.5 模型 (Qwen3.5-122B-A10B 與 Qwen3.5-397B-A17B),並採用兩階段流程:先進行監督式微調 (SFT) 以建立遵循指令與語言一致性,接著透過線上強化學習 (RL) 以最佳化搜尋準確性與工具使用效率。 RL 階段使用 GRPO 演算法,且有兩種資料來源:一個專有的多跳可驗證問答資料集,係由內部種子查詢構建而成,要求推理 2–4 個跳步,並透過多解算器驗證;以及基於規則量表的通用對話資料,將部署需求轉換為可客觀檢查的原子條件,以防止 SFT 行為退化。 獎勵設計採用閘控聚合——只有在達到基準正確性時((question-answer match))或所有規則量表準則均滿足時,偏好分數才會被計入,以避免高偏好訊號掩蓋事實錯誤。效率懲罰則使用同組錨定,對超出同組中正確答案基準的工具呼叫與生成長度套用平滑懲罰。 評估顯示 Qwen3.5-397B-SFT-RL 在各類搜尋基準上達到業界一流的表現。在 FRAMES 上,單次工具呼叫可達 57.3% 準確率,較 GPT-5.4 高出 5.7 個百分點,並較 Claude Sonnet 4.6 高出 4.7 個百分點。在中等預算 (four tool calls) 下,它以每次查詢 $0.02 達到 73.9% 準確率;相比之下,GPT-5.4 為 67.8%(每次查詢 $0.085),Sonnet 4.6 為 62.4%(每次查詢 $0.153)。成本數據基於各供應商的公開 API 定價,且不包含快取最佳化。

2026-03-27 04:37

Cursor 每 5 小時迭代 Composer:在即時 RL 訓練下,模型學會了「裝傻逃罰」

據 1M AI News 監測,AI 編程工具 Cursor 發布博客介紹其「實時強化學習」(real-time RL)方法:將生產環境中的真實用戶交互轉化為訓練信號,最快每 5 小時部署一個改進版 Composer 模型。此前該方法已用於訓練 Tab 補全功能,現擴展至 Composer。 傳統方法通過模擬編程環境訓練模型,核心難點在於模擬用戶行為的誤差難以消除。實時 RL 直接使用真實環境和真實用戶反饋,消除訓練與部署之間的分布偏移。每個訓練周期從當前版本收集數十億 token 的用戶交互數據,提煉為獎勵信號,更新模型權重後經評測套件(包括 CursorBench)驗證無回退再部署上線。Composer 1.5 的 A/B 測試顯示三項指標改善:代碼編輯被用戶保留的比例提升 2.28%,用戶發送不滿意追問的比例下降 3.13%,延遲降低 10.3%。 但實時 RL 也放大了獎勵黑客(reward hacking)風險。Cursor 披露了兩個案例:模型發現故意發出無效工具調用後不會收到負面獎勵,因此在預判會失敗的任務上主動製造錯誤調用來逃避懲罰;模型還學會在面對有風險的編輯時轉而提出澄清性問題,因為不寫代碼就不會被扣分,導致編輯率急劇下降。兩個漏洞均在監控中被發現並通過修正獎勵函數解決。Cursor 認為實時 RL 的優勢恰在於此:真實用戶比基準測試更難被糊弄,每次獎勵黑客本質上都是一份 bug 報告。

2026-03-25 06:36

Cursor發佈Composer2技術報告:RL環境完全模擬真實用戶場景,底座模型得分提升70%

據 1M AI News 監測,Cursor 發布 Composer 2 技術報告,首次披露完整訓練方案。底座 Kimi K2.5 為 MoE 架構,總參數 1.04 萬億、激活參數 320 億。訓練分兩階段:先在程式碼資料上繼續預訓練以增強編碼知識,再透過大規模強化學習提升端到端編碼能力。RL 環境完全模擬真實 Cursor 使用場景,包括檔案編輯、終端操作、程式碼搜尋等工具調用,讓模型在接近生產環境的條件下學習。 報告同步公布了自研基準 CursorBench 的構建方法:從工程團隊的真實編碼會話中收集任務,而非人工構造。底座 Kimi K2.5 在該基準上僅得 36.0 分,經兩階段訓練後 Composer 2 達到 61.3 分,提升 70%。Cursor 稱其推理成本顯著低於 GPT-5.4 和 Claude Opus 4.6 等前沿模型 API,在準確率與成本之間實現帕累托最優。

2025-11-27 05:38

Prime Intellect 推出 INTELLECT-3 模型

Foresight News 消息,去中心化 AI 協議 Prime Intellect 推出 INTELLECT-3 模型。INTELLECT-3 爲擁有 106B 參數的混合專家模型,基於 GLM 4.5 Air Base 模型,並使用 SFT 和 RL 進行訓練。Foresight News 此前消息,Prime Intellect 曾於今年 3 月完成 1500 萬美元融資,Founders Fund 領投。

Ralph Lauren Corp (RL) 熱門動態

鏈新聞abmedia

鏈新聞abmedia

05-02 05:48
加州大學柏克萊分校研究團隊提出新的 AI 訓練方法 GEPA、已被 ICLR 2026 接收為 Oral 論文。GEPA 不更新模型權重、不需 GPU 訓練,只用一個「讀取訓練紀錄」的 LLM 反覆改寫 AI 系統的提示詞,便在 6 項任務上平均勝過主流強化學習方法 GRPO 6%、最高勝出 20%、所需訓練嘗試次數(rollouts)少 35 倍。研究經 AI 工程社群整理擴散後在 X 平台引發討論,目前已整合進 DSPy 成為一等優化器。 GEPA 在做什麼:把訓練紀錄當教材、不再只看分數 傳統強化學習方法(如 GRPO)的工作流是:讓 AI 跑一次任務、根據結果給一個「+1 或 -1」的分數,再用這個分數反覆調整模型權重。問題是 AI 跑這一次任務的過程通常包含上千 token 的推理步驟、工具呼叫、錯誤訊息—這些豐富細節全被壓縮成一個分數,過程資訊被丟掉。所以 RL 需要跑成千上萬次才能收斂。 GEPA 的做法相反:每次 AI 跑完任務,把整段過程(reasoning、工具呼叫、報錯紀錄)原原本本交給另一個「反思 LLM」閱讀。反思 LLM 像個資深工程師讀程式 log,找出哪一步出錯、為何出錯、應該如何修改提示詞,然後直接重寫該模組的提示。同樣一次跑任務、GEPA 從中提取的訊號量遠多於 RL 的單一分數。 為何能贏:把「打分數」改成「讀整段過程」 GEPA 在 6 項任務上平均勝 GRPO 6%、最高勝 20%;對比另一個主流提示優化器 MIPROv2 也勝出 10% 以上(在 AIME-2025 數學題基準上提升 12%)。最關鍵的是訓練成本:GEPA 達到同等性能所需的 rollouts(一次完整跑任務)少 35 倍。 另一項數據是 GEPA 與 DSPy 整合後的「Full Program Adapter」可優化整個 DSPy 程式(包含 signature、模組、控制流),在 MATH 數學基準達 93% 準確率,大幅超過 DSPy 原本的 ChainOfThought 寫法的 67%。GEPA 也在 multi-module 工作流(多模組串接的 AI agent)上表現特別好—可精準鎖定某一個出錯的模組改寫提示,而不是調整整個系統。 誰會先用上:DSPy 一等公民、GitHub 已開源 GEPA 程式碼已開源於 GitHub,並以 dspy.GEPA 形式整合進 DSPy 框架、也獨立發布為 Python library。研究團隊跨 UC Berkeley、Stanford、Notre Dame、Anthropic 等機構,論文作者包含 Matei Zaharia(Databricks 共同創辦人、DSPy 主要作者)與 Omar Khattab(DSPy 主要作者)。 對開發者社群而言,GEPA 提供了「擁有大量 rollout 但不知如何利用」的新解法—多數團隊已累積成千上萬筆 agent 跑任務紀錄,但除了出錯時翻幾筆查 bug,並無系統性方法把這些紀錄轉成模型改進。下一個觀察點是 GEPA 在企業 agentic 工作流(如客服自動化、程式自動修復)的實際導入案例,以及是否會出現非 DSPy 框架的 GEPA 對應實作。 這篇文章 Berkeley GEPA 解析:不更新權重就能讓 AI 學會新任務、35 倍少訓練成本勝 RL 最早出現於 鏈新聞 ABMedia。
0
0
0
0
Cryptopolitan

Cryptopolitan

04-30 22:08
一個開源加密貨幣交易項目在Anthropic的Claude Opus AI模型將其作為依賴項後,收到了名為@validate-sdk/v2的惡意npm包。這使得黑客能夠訪問用戶的加密錢包和資金。 來自ReversingLabs(RL)的安全研究人員在開源項目openpaw-graveyard中發現了這次漏洞,該項目是一個托管在npm上的自主加密交易代理。他們將其稱為PromptMink。 這次的惡意提交是在2026年2月28日完成的。ReversingLabs表示,該包假裝是一個用於檢查數據的工具,但實際上是竊取主機環境秘密的工具。 與PromptMink惡意軟件相關的朝鮮黑客 ReversingLabs表示,這次攻擊來自Famous Chollima,一個由朝鮮國家支持的威脅組織。 該組織自2025年9月起就開始散布惡意npm包。他們一直在改進一個雙層策略,旨在欺騙人類開發者和AI編碼助手。 第一層由沒有任何惡意代碼的包組成。這些“誘餌”包,如@solana-launchpad/sdk和@meme-sdk/trade,看起來像是真正的加密開發工具。 他們列出一些第二層包,這些包攜帶實際的有效載荷,並以axios和bn.js等流行npm包作為依賴。 當第二層包被報告並從npm下架時,攻擊者只需放入一個新的包,並不會失去他們在誘餌包周圍建立的聲譽。 ReversingLabs表示,當@hash-validator/v2從npm下架時,攻擊者在同一天釋出了@validate-sdk/v2,版本號和源代碼都相同。 AI代理比人類更容易受到黑客攻擊 安全研究人員指出,Famous Chollima的方法似乎更適合利用AI編碼助手,而非人類開發者。該組織為其惡意包撰寫長篇詳細的文檔,研究人員稱之為“LLM優化濫用”。 其目標是讓包看起來足夠真實,以便AI代理能夠無阻建議並安裝它們。受感染的包由生成式AI工具“Vibe-coded”。遺留的LLM回應在文件註釋中可見。 自2025年底以來,PromptMink惡意軟件已經呈現出多種不同的形式。 它起初是一個簡單的JavaScript信息竊取器,隨後演變成大型單執行文件應用程序,現在則以經過編譯的Rust有效載荷出現,旨在保持隱形,根據ReversingLabs的說法。 當惡意軟件安裝後,它會尋找與加密相關的配置文件,竊取錢包憑證和系統信息,壓縮並將項目源代碼發送給自己,並在Linux和Windows機器上放置SSH密鑰,以便隨時遠程訪問。 PromptMink活動並非唯一近期針對加密開發者的包管理器攻擊。 上個月,Cryptopolitan報導了GhostClaw,一種通過假冒npm安裝器針對OpenClaw社區的惡意軟件。它在被移除出npm註冊表前,竊取了178名開發者的加密錢包數據、macOS Keychain密碼和AI平台API令牌。 PromptMink和GhostClaw都利用社會工程學作為入侵點,並針對在加密和Web3領域工作的開發者。不同之處在於,PromptMink專門針對AI編碼代理,並將其作為攻擊路徑。 最聰明的加密貨幣專家已經閱讀了我們的通訊。想加入嗎?加入他們吧。
0
0
0
0