Исследователи из Tencent AI Lab в Сиэтле и Университета Мэриленда представили метод обучения с подкреплением Parallel-R1, который помогает большим языковым моделям (LLM) эффективнее использовать масштабирование на этапе инференса при решении сложных задач рассуждения. Читать далее
Когда-нибудь задумывались, почему большинство моделей ИИ либо умные, ЛИБО быстрые, но никогда не сочетают оба качества? Над этим подумали в Tencent.Tencent только что перевернул эту парадигму с Hunyuan-T1 – ПЕРВОЙ в мире ультра-супер-сверхбольшой моделью, использующей гибридную архитектуру Transformer + Mamba MoE. Чудесно. Хочу прочитать.
Насколько высок ваш интеллект? Когда дело доходит до принятия правильных решений, коэффициент интеллекта не имеет значения, потому что даже самые светлые умы совершают нелепые поступки. Интеллект и способность к рациональному мышлению – это разные вещи. Именно способность к рациональному мышлению является важным фактором в принятии правильных решений. Читать дальше →
В новой публикации «Large Language Models as Optimizers» (Большие языковые модели в роли оптимизаторов) команда исследователей Google DeepMind представила инновационный метод оптимизации, названный «оптимизация через промпты» (Optimization by PROmpting, OPRO). При применении этого метода в роли оптимизаторов…