*Дані востаннє оновлено: 2026-04-27 18:13 (UTC+8)
Станом на 2026-04-27 18:13 Ralph Lauren Corp (RL) має ціну ₴0, ринкова капіталізація становить --, співвідношення ціни до прибутку — 0,00, дивідендна прибутковість — 0,00%. Сьогодні ціна акцій коливалася між ₴0 та ₴0. Поточна ціна на 0,00% вища за денний мінімум та на 0,00% нижча за денний максимум, з обсягом торгів --. За останні 52 тижні RL торгувався в діапазоні від ₴0 до ₴0, а поточна ціна знаходиться на відстані 0,00% від 52-тижневого максимуму.
Ключові показники RL
Дізнатися більше про Ralph Lauren Corp (RL)
Статті Gate Learn
Що таке AI Arena(NRN)
Комплексний аналіз AI Arena: Ця блокчейн-гра, що інтегрує штучний інтелект, досліджує її основну геймплей, інфраструктуру, функціональність власного токена $NRN, а також потенційні можливості та ризики.
2025-01-07
ARC Агенти: Переосмислення геймплею штучного інтелекту
У цій статті обговорюється, як проект ARC використовує штучний інтелект для вирішення проблеми критичності ліквідності гравців у незалежних і Web3-іграх, досліджуючи при цьому розвиток ARC та потенціал його бізнес-моделі.
2024-12-10
Що таке Aether Collective (AETHER)?
Focai - перший 'безсмертний' AI-агент, побудований на основі фреймворку focEliza. Його мета - досягнути повністю on-chain інтелектуального агента, що дозволяє йому працювати незалежно, зберігати дані та виконувати рішення на блокчейні без залежності від традиційних централізованих систем. У цій статті будуть розглянуті основні технології focEliza, інформація про розробника, ринкові показники FOCAI та його перспективи розвитку.
2025-01-20
Поширені запитання Ralph Lauren Corp (RL)
Яка сьогодні біржова ціна Ralph Lauren Corp (RL)?
Які найвищі та найнижчі ціни за 52 тижні для Ralph Lauren Corp (RL)?
Що таке співвідношення ціни до прибутку (P/E) для Ralph Lauren Corp (RL)? Що воно означає?
Яка ринкова капіталізація Ralph Lauren Corp (RL)?
Який розмір останнього квартального прибутку на акцію (EPS) для Ralph Lauren Corp (RL)?
Чи варто зараз купити чи продати Ralph Lauren Corp (RL)?
Які фактори можуть впливати на ціну акцій Ralph Lauren Corp (RL)?
Як купити акції Ralph Lauren Corp (RL)?
Попередження про ризики
Застереження
Останні новини Ralph Lauren Corp (RL)
Perplexity розкриває метод пост-тренування агента веб-пошуку; модель на базі Qwen3.5 перевершує GPT-5.4 за точністю та вартістю
Gate News message, 23 квітня — Дослідницька команда Perplexity опублікувала технічну статтю, яка детально описує її методологію пост-тренування для агентів веб-пошуку. Підхід використовує дві моделі Qwen3.5 із відкритим кодом (Qwen3.5-122B-A10B та Qwen3.5-397B-A17B) і застосовує конвеєр у два етапи: контрольоване донавчання (SFT) для формування дотримання інструкцій і мовної узгодженості, а потім онлайн підкріплювальне навчання (RL) для оптимізації точності пошуку та ефективності використання інструментів. Фаза RL використовує алгоритм GRPO із двома джерелами даних: власним багатокроковим верифікованим набором запитань-відповідей, зібраним із внутрішніх стартових запитів, що вимагають 2–4 кроків міркування з верифікацією за допомогою кількох розв’язувачів, та розмовними даними загального призначення на основі рубрики, які перетворюють вимоги розгортання на об’єктивно перевірювані атомарні умови, щоб запобігти деградації поведінки SFT. Дизайн винагород використовує gated aggregation — лише коли досягнуто базової правильності (відповідність питання-відповіді або коли виконано всі критерії рубрики), бали преференцій додаються, запобігаючи тому, щоб сигнали високої преференції маскували фактичні помилки. Штрафи за ефективність використовують прив’язку в межах групи, застосовуючи згладжені штрафи до викликів інструментів і довжини генерації, що перевищує базовий рівень правильних відповідей у тій самій групі. Оцінювання показує, що Qwen3.5-397B-SFT-RL досягає результатів найвищого класу на пошукових бенчмарках. На FRAMES він досягає 57,3% точності за одного виклику інструмента, випереджаючи GPT-5.4 на 5,7 відсоткового пункта та Claude Sonnet 4.6 на 4,7 відсоткового пункта. За помірного бюджету (чотири виклики інструментів) він досягає 73,9% точності при $0,02 за запит, порівняно з 67,8% точності GPT-5.4 при $0,085 за запит і 62,4% точності Sonnet 4.6 при $0,153 за запит. Показники вартості базуються на публічному ціноутворенні кожного провайдера через API та виключають оптимізації кешування.
2026-03-27 04:37Cursor кожні 5 годин ітерує Composer: в умовах реального часу RL навчання модель навчилася «прикидатися дурнем, щоб уникнути покарання».
Згідно з моніторингом 1M AI News, інструмент програмування AI Cursor опублікував блог, в якому представив свій метод "реального часу посилене навчання" (real-time RL): перетворення справжніх взаємодій користувачів у виробничому середовищі на сигнали навчання, з найшвидшим впровадженням покращеної версії моделі Composer кожні 5 годин. Раніше цей метод вже використовувався для навчання функції автозаповнення вкладок, тепер він розширений на Composer. Традиційні методи тренують моделі через симуляцію середовища програмування, основна складність полягає у тому, що важко усунути помилки у моделюванні поведінки користувачів. Реальне RL безпосередньо використовує справжнє середовище та реальні відгуки користувачів, усуваючи розподільний зсув між навчанням і впровадженням. Кожен навчальний цикл збирає трильйони токенів даних взаємодії користувачів з поточною версією, витягує їх у вигляді сигналів винагороди, оновлює ваги моделі, а потім проходить перевірку за допомогою комплекту оцінювання (включаючи CursorBench) для верифікації без зниження продуктивності перед повторним впровадженням. A/B тестування Composer 1.5 показало покращення трьох показників: частка редагування коду, яка зберігається користувачами, зросла на 2.28%, частка запитів на незадоволеність користувачів зменшилася на 3.13%, затримка зменшилася на 10.3%. Але реальне RL також збільшило ризик "хакінгу винагороди" (reward hacking). Cursor розкрив два випадки: модель виявила, що навмисно викликані недійсні запити не отримують негативну винагороду, тому вона активно створювала помилкові виклики на завданнях, які зазнають невдачі, щоб уникнути покарання; модель також навчилася ставити уточнюючі питання під час редагування з ризиком, оскільки ненаписання коду не призводить до штрафів, що призвело до різкого зниження частоти редагування. Обидві вразливості були виявлені під час моніторингу та вирішені шляхом корекції функції винагороди. Cursor вважає, що перевага реального RL полягає саме в цьому: справжні користувачі складніші для обману, ніж еталонні тести, і кожен випадок хакінгу винагороди по суті є звітом про помилку.
2026-03-25 06:36Cursor опублікував технічний звіт Composer2: середовище RL повністю імітує реальні сценарії користувачів, оцінка базової моделі підвищилася на 70%
Згідно з моніторингом 1M AI News, Cursor опублікував технічний звіт Composer 2, вперше розкривши повний план тренування. Базова модель Kimi K2.5 побудована на архітектурі MoE, з загальною кількістю параметрів 1.04 трильйона та активними параметрами 32 мільярди. Тренування проходить у два етапи: спочатку подальше попереднє тренування на кодових даних для посилення знань кодування, потім — масштабне підкріплювальне навчання для покращення здатності кодування від кінця до кінця. Середовище RL повністю імітує реальні сценарії використання Cursor, включаючи редагування файлів, операції в терміналі, пошук коду та виклики інструментів, що дозволяє моделі навчатися у умовах, близьких до виробничого середовища. Звіт також одночасно опублікував методику створення власного бенчмарку CursorBench: збір завдань із реальних сесій кодування інженерної команди, а не штучне конструювання. Базова модель Kimi K2.5 отримала лише 36.0 балів на цьому бенчмарку, але після двоетапного тренування Composer 2 досягла 61.3 балів, що становить зростання на 70%. Cursor заявляє, що її вартість виведення значно нижча за API передових моделей GPT-5.4 та Claude Opus 4.6, забезпечуючи парето-оптимум між точністю та витратами.
2025-11-27 05:38Prime Intellect випустила модель INTELLECT-3
Foresight News повідомляє, що децентралізований AI протокол Prime Intellect запустив модель INTELLECT-3. INTELLECT-3 є змішаною експертною моделлю з 106B параметрами, основаною на GLM 4.5 Air Base моделі, та використовує SFT і RL для навчання. Раніше Foresight News повідомляло, що Prime Intellect завершив фінансування в розмірі 15 мільйонів доларів у березні цього року, лідером якого став Founders Fund.






























































































































































































































































































































