AI: дайджест за 28 марта 2026 - 4 апреля 2026

Инцидент с Cursor: ошибочная команда привела к удалению данных на Windows

Пользователь описал случай, когда Cursor сгенерировал команду с ошибкой экранирования, из-за чего на Windows запустилось удаление корня диска C и началось массовое удаление файлов. История подчеркивает риски запуска агентных инструментов с полным доступом без песочницы и бэкапов.Источники: t.me/ai_newz

top3d.ai: «слепая арена» и ELO-рейтинг для 3D AI-генераторов (100k+ голосов)

Запущена платформа top3d.ai для слепого сравнения 3D-генераторов с голосованием и ELO-рейтингом, уже собрано более 100 тысяч голосов; отмечается быстрая смена лидеров и близкие результаты у топов. Добавлены режимы Segmentation и Low Poly, что делает площадку полезной для практического бенчмаркинга 3D-инструментов.Источники: t.me/cgevent

Seedance 2.0 начал раскатываться через OpenArt для Teams/Enterprise

Seedance 2.0 стал доступен на OpenArt сначала для Teams & Enterprise, с референсами до 9 изображений, 3 видео и 3 аудио; для индивидуальных пользователей — вейтлист. Появились детали по командному тарифу и кредитам, что проясняет реальную модель доступа и экономики использования.Источники: t.me/cgevent

Тесты Wan 2.7 Image Pro vs «Nano Banana»: сильные портреты, слабый текст и редактирование

В сравнительном обзоре по итогам нескольких раундов тестов сделан вывод, что Wan 2.7-Image-Pro хорошо справляется с реалистичными портретами, но заявленные улучшения по длинному тексту, интерактивному редактированию и верстке показали слабые результаты. Это важно для выбора модели под дизайн-задачи, где надежный текст и редактирование критичны.Источники: t.me/cgevent

Wan 2.7 Video стал широко доступен; заявлены 4K и multi-shot storytelling

Сообщается, что Wan 2.7 Video появился на официальном сайте и у агрегаторов (включая fal), доступно три режима: text-to-video, reference-to-video и edit-video. Заявлены 4K output, multi-shot storytelling, репликация движения/камеры, расширение сцен, консистентные персонажи и поддержка длинного текста на 12 языках — это расширяет практическую доступность модели для продакшена.Источники: t.me/cgevent

Samsung RawGen: генерация/конвертация sRGB в RAW (Image2Raw и Text2Raw)

Samsung представила RawGen, который по sRGB-изображению или тексту генерирует линейный RAW и позволяет выбирать «профиль» конкретной камеры, используя пары raw↔processed из датасета KFive и FLUX.1 Kontext. Это важно для задач, где нужен контроль над фотопайплайном и камерной обработкой, хотя отмечается ограничение результата до 8-битного цвета.Источники: t.me/cgevent

Исследование: трансформеры имеют байес к факторизованным (модульным) представлениям

Авторы работы про factored representations формализуют и эмпирически поддерживают идею, что трансформеры склонны раскладывать данные на независимые дискретные факторы в ортогональных подпространствах residual stream. Это усиливает теоретическую базу механистической интерпретируемости и поддерживает подходы к точечному редактированию/вмешательствам в представления модели.Источники: t.me/gonzo_ML

Исследование Mirage: мультимодальные модели «галлюцинируют» визуальное понимание без изображения

В работе Mirage показано, что мультимодальные модели могут выдавать детальные «визуальные» описания и рассуждения даже когда изображение фактически не было подано на вход. Авторы предлагают B-Clean — пост-фильтрацию бенчмарков, чтобы убирать вопросы, на которые можно ответить текстовыми эвристиками; это важно, потому что текущие метрики могут завышать реальное визуальное понимание и маскировать тихие сбои в продакшене.Источники: t.me/gonzo_ML

OpenAI выпустила Codex-плагин для Claude Code

OpenAI опубликовала плагин Codex для Claude Code, позволяющий запускать Codex в той же сессии как субагента (в т.ч. для код-ревью). Это упрощает совместное использование инструментов разных вендоров в одном пайплайне разработки; установка через marketplace, требуется Node.js 18.18+ и авторизация в Codex.Источники: t.me/How2AI

Google выпустила Gemma 4 (линейка 4 моделей, до 256K контекста, Apache 2.0)

Вышла Gemma 4: 31B Dense, 26B-A4B MoE и мобильные E4B/E2B; заявлены мультимодальность (изображения/видео), а у E4B/E2B также аудио-вход, контекст до 256K у старших моделей. Сообщается о заметных результатах на бенчмарках/аренах и публикации весов под Apache 2.0, но техрепорта пока нет — важный релиз для локального и опенсорс-стека.Источники: t.me/How2AI, t.me/ai_newz

Subscribe to Content Fabrika AI Digest

Don’t miss out on the latest issues. Sign up now to get access to the library of members-only issues.
jamie@example.com
Subscribe