AI: дайджест за 24 марта 2026
Qwen 3.5 400B запустили на iPhone 17 Pro, но пока с низкой скоростью
Сообщается о запуске модели Qwen 3.5 400B на iPhone 17 Pro со скоростью около 0.5 токена в секунду; веса стримятся с диска, а инференс-код сделан без агрессивной квантизации. Отмечается потенциал ускорения в несколько раз за счет оптимизаций и квантизации.Источники: t.me/ai_newz
Anthropic: Computer Use в Claude (управление компьютером через Claude)
Появилась информация, что Anthropic развивает Computer Use в Claude — возможность управлять компьютером через интерфейс Claude. Это расширяет сценарии использования Claude в задачах, где нужен доступ к приложениям и действиям на рабочем столе.Источники: t.me/denissexy
Seedance 2.0: ограниченный официальный запуск по странам и ориентиры по стоимости генерации
Сообщается, что Seedance 2.0 официально раскатывают для ограниченного списка стран (с обещанием расширения), а пользователи обсуждают обход через новый аккаунт с IP из доступных регионов. Приведены ориентиры по расходу кредитов и цене: 10-секундный ролик стоит 550 кредитов, что в пересчете дает порядка 80 рублей за 10 секунд на базовом месячном тарифе и около 47 рублей за 10 секунд на максимальной годовой подписке.Источники: t.me/cgevent
Luma Uni-1: новый генератор изображений с чат-редактированием, 4K-генерацией и видео по картинке
LumaLabs запустила Uni-1 — генератор изображений, который, по пользовательским тестам, сразу генерирует в 4K и умеет редактировать изображения через диалог (например, менять цвет, убирать текст) с последующим апскейлом. Также заявлена возможность получить видео по сгенерированной картинке в 1920×1080; отмечено ограничение, что этап редактирования работает в 2K.Источники: t.me/cgevent
Neural Thickets: RandOpt — параллельный безградиентный post-training через шум по весам и ансамблирование
В работе Neural Thickets предложен RandOpt — полностью параллельный безградиентный алгоритм post-training для LLM: добавляют гауссовский шум к весам, оценивают получившиеся модели и ансамблируют лучшие. Авторы интерпретируют результат как признак того, что рядом с предобученными весами «плотно» расположены разнообразные task-эксперты, что ставит под вопрос необходимость исключительно последовательных процедур оптимизации для выравнивания.Источники: t.me/gonzo_ML
LeWorldModel (LeWM): стабильная end-to-end JEPA-модель мира из пикселей без сложных эвристик
Представлена LeWorldModel (LeWM) — end-to-end архитектура JEPA, обучающая модель мира напрямую из сырых пикселей и решающая проблему коллапса репрезентаций через простой лосс из MSE-предсказания во времени и регуляризации к изотропному гауссиану. Авторы заявляют стабильное обучение за несколько часов на одном GPU и ускорение планирования до 48 раз по сравнению с альтернативами на базе фундаментальных моделей, а также zero-shot понимание интуитивной физики.Источники: t.me/gonzo_ML
HyperAgents: система open-ended самоулучшения агентов с multi-task objective и метрикой imp@50
Опубликованы HyperAgents — подход к итеративному самоулучшению агентов (от промптов до кода) в многозадачной постановке, где мета-агент улучшает и себя, и агента-исполнителя, опираясь на результаты бенчмарков и архив версий. В работе вводят метрику imp@50 и показывают рост imp@50 до 0.63 в ходе итераций; также предлагается включать метрики AI Safety прямо в multi-task objective, чтобы агент оптимизировался с учетом безопасности.Источники: t.me/gonzo_ML
Сбер обновил ГигаЧат: новая модель GigaChat Ultra, ускорение и долгосрочная память
Сбер представил обновление ИИ-помощника на базе новой флагманской модели GigaChat Ultra: заявлены ответы в 2 раза быстрее и функция управляемой долгосрочной памяти, которая сохраняет важные факты из диалогов в профиле пользователя и синхронизируется через Сбер ID между платформами. Также объявлена компактная MoE-модель GigaChat‑3.1‑Lightning; по внутренним тестам Ultra обходит Qwen3‑235B‑A22B non‑reasoning и DeepSeek‑V3‑0324 в математике и general reasoning, а Lightning позиционируется как конкурентная по качеству при 1,8 млрд активных параметров.Источники: t.me/official_gigachat