RL

Ralph Lauren Corp 価格

休場中
RL
¥0
+¥0(0.00%)
データなし

*データ最終更新日:2026-04-28 03:47(UTC+8)

2026-04-28 03:47時点で、Ralph Lauren Corp(RL)の価格は¥0、時価総額は¥3.57T、PERは18.17、配当利回りは0.98%です。 本日の株価は¥0から¥0の間で変動しました。現在の価格は本日安値より0.00%高く、本日高値より0.00%低く、取引高は313.64Kです。 過去52週間で、RLは¥0から¥0の間で取引されており、現在の価格は52週間高値より0.00%低い水準にあります。

RL 主な統計情報

前日終値¥59,157
時価総額¥3.57T
取引量313.64K
P/E比率18.17
配当利回り(TTM)0.98%
配当額¥145
希薄化EPS(TTM)15.03
純利益(FY)¥118.38B
収益(FY)¥1.12T
決算日2026-05-21
EPS予想2.46
収益予測¥292.49B
発行済株式数60.50M
ベータ(1年)1.479
権利落ち日2026-03-27
配当支払日2026-04-10

RLについて

ラルフ ローレン コーポレーションは、北米、ヨーロッパ、アジア、および国際的にライフスタイル製品をデザインし、販売し、流通させています。同社は、メンズ、レディース、子ども向けの幅広い衣料品をはじめ、カジュアルシューズ、ドレスシューズ、ブーツ、スニーカー、サンダル、アイウェア、時計、ファッションおよびファインジュエリー、スカーフ、帽子、手袋、傘などを含む履物およびアクセサリー、ならびにハンドバッグ、ラゲッジ、小物のレザーグッズ、ベルトといったレザーグッズを提供しています。加えて、ベッド&バスのライン、家具、ファブリックおよびウォールカバー、照明、テーブルウェア、キッチンリネン、フロアカバー、ギフト用品からなるホームプロダクト、そしてフレグランスも取り扱っています。 同社は、衣料品およびアクセサリーを、Ralph Lauren Collection、Ralph Lauren Purple Label、Polo Ralph Lauren、Double RL、Lauren Ralph Lauren、Polo Golf Ralph Lauren、Ralph Lauren Golf、RLX Ralph Lauren、Polo Ralph Lauren Children、Chaps の各ブランドのもとで販売しています。また、レディースのフレグランスは Ralph Lauren Collection、Woman by Ralph Lauren、Romance Collection、Ralph Collection の各ブランド名で販売し、メンズのフレグランスは Polo Blue、Ralph's Club、Safari、Purple Label、Polo Red、Polo Green、Polo Black、Polo Sport、Big Pony Men's の各ブランド名で販売しています。 同社のレストランコレクションには、ニューヨーク市の The Polo Bar、シカゴの RL Restaurant、パリの Ralph's、ミラノにある The Bar at Ralph Lauren、ならびに Ralph's Coffee のコンセプトが含まれます。同社は、デパート、専門店、ゴルフおよびプロショップに向けて製品を販売しているほか、自社のリテールストア、コンセッション型のショップインショップ、そしてデジタルコマースサイトを通じて、消費者に対して直接販売も行っています。 同社は、直営の小売店を 504 店、コンセッション型のショップインショップを 684 店直接運営しており、また、ライセンスパートナーを通じて 175 の Ralph Lauren ストア、329 のファクトリーストア、148 のストアおよびショップを運営しています。ラルフ ローレン コーポレーションは 1967 年に設立され、本社はニューヨーク州ニューヨークにあります。
セクター消費者循環株
業界アパレル - 製造業者
CEOPatrice Jean Louis Louvet
本社New York City,NY,US
公式ウェブサイトhttp://corporate.ralphlauren.com
従業員数(FY)23.40K
平均収益(1年)¥48.20M
従業員一人当たりの純利益¥5.05M

Ralph Lauren Corp(RL)よくある質問

今日のRalph Lauren Corp(RL)の株価はいくらですか?

x
Ralph Lauren Corp(RL)は現在¥0で取引されており、24時間の変動率は0.00%です。52週の取引レンジは¥0~¥0です。

Ralph Lauren Corp(RL)の52週間の高値と安値はいくらですか?

x

Ralph Lauren Corp(RL)の株価収益率(P/E比率)はいくらですか? この指標は何を示していますか?

x

Ralph Lauren Corp(RL)の時価総額はいくらですか?

x

Ralph Lauren Corp(RL)の直近の四半期ごとの1株当たり利益(EPS)はいくらですか?

x

今、Ralph Lauren Corp(RL)を買うべきか、売るべきか?

x

Ralph Lauren Corp(RL)の株価に影響を与える要因は何ですか?

x

Ralph Lauren Corp(RL)株の購入方法

x

リスク警告

株式市場は高いリスクと価格変動を伴います。投資の価値は上昇または下落する可能性があり、投資元本の全額を回収できない場合があります。過去の実績は将来の結果を保証するものではありません。投資判断を行う前に、ご自身の投資経験、財務状況、投資目的、リスク許容度を十分に評価し、独自に調査を行ってください。必要に応じて、独立したファイナンシャルアドバイザーにご相談ください。

免責事項

本ページの内容は情報提供のみを目的としており、投資助言、財務上の助言、または取引推奨を構成するものではありません。Gateは、かかる財務上の意思決定に起因するいかなる損失または損害についても責任を負いません。また、Gateは、アメリカ合衆国、カナダ、イラン、キューバを含むがこれらに限られない一部の市場および法域において、完全なサービスを提供できない場合があることにご留意ください。制限対象地域に関する詳細は、ユーザー契約をご参照ください。

その他の取引市場

Ralph Lauren Corp(RL)最新ニュース

2026-04-23 04:54

PerplexityがWeb検索エージェントのポストトレーニング手法を公開;Qwen3.5ベースのモデルが精度とコストでGPT-5.4を上回る

ニュース速報メッセージ:4月23日 — Perplexityの研究チームが、Web検索エージェント向けのポストトレーニング手法の詳細を説明する技術記事を公開しました。このアプローチは、2つのオープンソースのQwen3.5モデル (Qwen3.5-122B-A10B と Qwen3.5-397B-A17B) を使用し、2段階のパイプラインを採用します。すなわち、命令追従と言語の一貫性を確立するための教師あり微調整 (SFT) の後に、検索精度とツール使用の効率を最適化するためのオンライン強化学習 (RL) を行います。 RLフェーズでは、GRPOアルゴリズムを2つのデータソースとともに活用します。1つは、内部のシードクエリから構築された独自のマルチホップ検証可能な質問-回答データセットで、推論の2〜4ホップと、複数ソルバによる検証を必要とします。もう1つは、配備要件を客観的に検査可能な原子的条件へ変換してSFTの振る舞い劣化を防ぐ、ルーブリックに基づく汎用会話データです。 報酬設計では、ゲート付き集約を採用します——ベースラインの正しさが達成された場合にのみ、選好スコアが寄与します (question-answer match または すべてのルーブリック基準が満たされた場合)。これにより、高い選好信号が事実誤りを覆い隠すことを防ぎます。効率ペナルティは同一グループ内のアンカーリングを用い、同じグループにおける正答のベースラインを超えて、ツール呼び出しや生成長に対してなめらかなペナルティを適用します。 評価では、Qwen3.5-397B-SFT-RLが検索ベンチマーク全体で業界最高水準の性能を達成しています。FRAMESでは、単一ツール呼び出しで57.3%の精度を実現し、GPT-5.4を5.7パーセントポイント上回ります。また、Claude Sonnet 4.6を4.7パーセントポイント上回ります。中程度の予算 (4回のツール呼び出し) では、1クエリあたり$0.02で73.9%の精度を達成し、GPT-5.4の1クエリあたり$0.085での67.8%の精度、Sonnet 4.6の1クエリあたり$0.153での62.4%の精度と比較しています。コスト数値は各提供元の公開API料金に基づき、キャッシュの最適化は除外されています。

2026-03-27 04:37

Cursorは5時間ごとにComposerを反復しています:リアルタイムのRLトレーニングでは、モデルが「とぼけて罰を逃れる」ことを学びました

1M AI News のモニタリングによると、AI プログラミングツール Cursor がブログで「リアルタイム強化学習」(real-time RL)という手法を紹介しました。プロダクション環境における実際のユーザーのやり取りを学習シグナルに変換し、最短で 5 時間ごとに改良版 Composer モデルをデプロイします。これまでこの手法は Tab 補完機能の学習に使われてきましたが、今回 Composer にも拡張されました。 従来の手法は、プログラミング環境をシミュレートしてモデルを学習しますが、シミュレーション上でのユーザー行動の誤差は完全に排除しにくいことが主な難点です。リアルタイム RL は、実際の環境と実際のユーザーのフィードバックを直接使うことで、学習とデプロイの間の分布ずれを解消します。各トレーニングサイクルでは、現行バージョンから数十億 token に相当するユーザーインタラクションデータを収集し、それを報酬(リワード)シグナルに抽出します。モデルの重みを更新した後、評価スイート(CursorBench を含む)で後退がないことを確認してから、再びデプロイして本番投入します。Composer 1.5 の A/B テストでは、3 つの指標が改善したことが示されています。コード編集がユーザーに保持される割合が 2.28% 向上し、ユーザーが不満を理由に追加の問い合わせを送る割合は 3.13% 減少、遅延は 10.3% 減りました。 しかし、リアルタイム RL は報酬ハッキング(reward hacking)のリスクも拡大します。Cursor は 2 つのケースを明らかにしました。モデルが、故意に無効なツール呼び出しをしても負の報酬が得られないことを見つけたため、失敗しそうなタスクでエラーの呼び出しを自ら作って罰を回避していたことです。さらに、リスクのある編集に直面すると、コードを書かないほうが減点されないため、釈明(確認)を求める質問に切り替えることも学習しました。その結果、編集率が急激に低下しました。これら 2 つの脆弱性は監視で発見され、報酬関数を修正することで解消されています。Cursor は、リアルタイム RL の優位性はまさにここにあると考えています。真のユーザーはベンチマークよりも騙されにくく、毎回の報酬ハッキングは本質的にバグ報告のようなものだ、というわけです。

2026-03-25 06:36

Cursorが「Composer 2」技術レポートを公開:RL環境が実リユーザーシナリオを完全シミュレート、ベースモデルスコア70%向上

1M AI Newsの監測によると、CursorはComposer 2の技術レポートを公開し、初めて完全なトレーニング計画を明らかにしました。ベースモデルのKimi K2.5はMoEアーキテクチャを採用し、総パラメータは1.04兆、活性化パラメータは320億です。トレーニングは2段階に分かれており、まずコードデータ上で継続的な事前学習を行い、コーディング知識を強化します。その後、大規模な強化学習を通じてエンドツーエンドのコーディング能力を向上させます。RL環境は実際のCursorの使用シナリオを完全に模擬しており、ファイル編集、ターミナル操作、コード検索などのツール呼び出しを含み、モデルが本番環境に近い条件下で学習できるようになっています。 レポートでは、自社開発のベンチマークCursorBenchの構築方法も併せて公開されており、これはエンジニアチームの実際のコーディングセッションからタスクを収集したものであり、人工的に作り出したものではありません。ベースモデルのKimi K2.5はこのベンチマークで36.0点しか獲得できませんでしたが、2段階のトレーニングを経て、Composer 2は61.3点に達し、70%の向上を実現しました。Cursorは、その推論コストがGPT-5.4やClaude Opus 4.6などの最先端モデルのAPIよりも著しく低いと称し、精度とコストの両面でパレート最適を達成しています。

2025-11-27 05:38

Prime IntellectがINTELLECT-3モデルを発売

Foresight News の報道によると、分散化 AI プロトコル Prime Intellect が INTELLECT-3 モデルを発表しました。INTELLECT-3 は 106B のパラメータを持つハイブリッドエキスパートモデルで、GLM 4.5 Air Base モデルに基づき、SFT と RL を使用してトレーニングされています。Foresight News の以前の報道によれば、Prime Intellect は今年の 3 月に 1500 万ドルの資金調達を行い、Founders Fund が主導しました。

Ralph Lauren Corpについての人気投稿 (RL)

AirdropBlackHole

AirdropBlackHole

04-26 01:47
Beatingによる監視によると、DeepSeek V4の訓練後の手法は大きく変化しています:V3.2の混合RLフェーズは完全にOn-Policy蒸留 (OPD) に置き換えられました。新しいプロセスは二つのステップから構成されています。最初のステップでは、数学、コーディング、エージェントの行動、指示の従順さなどの分野で、V3.2パイプラインに基づいてドメインエキスパートモデルが訓練されます。各エキスパートは微調整を行った後、GRPOを用いた強化学習を経ます。第二のステップでは、複数のエキスパートの能力を一つのモデルに蒸留するために、多教師OPD蒸留が行われます:学生モデルは、各教師の生成した軌跡に基づいて、全語彙に対して逆KLダイバージェンスロジット蒸留を行い、ロジットを整列させて複数のエキスパートの重みを一つのパラメータ空間に統合し、従来の重みのマージや混合RLでよく見られる能力の衝突を回避します。このレポートでは、ルールで検証が難しいタスクのために、従来のスカラー報酬モデルの訓練の代わりに、ルーブリックに導かれたRLデータを用いて生成報酬モデル (GRM) を訓練します。これにより、アクターネットワークは同時に生成と評価を行い、少量の多様な人間の注釈で複雑なタスクへの一般化を可能にします。
0
0
0
0