Новости

Май 2025 под знаком AI: дайджест обновлений и новинок

Что изменилось в мае: AI-инструменты для фронта, дизайна, DevOps и геймдева. В подробностях рассказываем про самое важное — то, что реально влияет на процесс.

Команда is*hosting 3 июн 2025 4 мин
Май 2025 под знаком AI: дайджест обновлений и новинок
Содержание

Кажется, в мае каждая вторая новость начиналась со слов «на базе ИИ». Мы выбрали только те обновления, которые действительно стоят вашего внимания. Потому что за этим ИИ-шумом легко пропустить важное.

В этом дайджесте — то, как крупные платформы адаптируются под подход vibe coding. Кто делает ставку на нативную интеграцию моделей, кто переводит дизайн в формат промптов, кто строит масштабируемый инференс в Kubernetes, а кто просто честно предупреждает, что AI может унести ваш приватный код в паблик.

Vercel запускает AI-модель для фронтенда: код, который подсказывает сам

Если вы когда-нибудь объясняли макет словами типа «вверху логотип, справа кнопка входа» — теперь это можно сделать буквально. Vercel представила v0, модель для генерации интерфейсов, заточенную под задачи фронтенда. Просто пишете, что нужно, и получаете код.

Модель доступна через API и работает по привычному формату OpenAI: messages, model, stream, но с фокусом на веб с генерацией конкретных React-компонентов, секций и страниц.

Что важно знать:

  • Используется единственный идентификатор модели: v0-1.0-md.
  • Максимальный размер контекста — 128 000 токенов.
  • Максимальное количество сообщений в день ограничено 200.
  • Вы можете использовать API для потоковой или обычной генерации — оба режима поддерживаются.
  • Поддерживается tool_choice и tools, как в OpenAI — но сейчас работает только function.
  • Авторизация по токену Vercel. Все работает в REST-стиле через POST-запросы.
  • Платежная модель — usage-based: платите за токены (входящие и исходящие), без подписок или лимитов.
  • Формат сообщений: тот же, что и у ChatGPT — можно использовать system, user, assistant.

Внедрение v0 сопровождается подробной документацией и примерами. Это не замена разработчику (слава богу), а инструмент, который делает веб быстрее. Особенно если вы хотите не терять время на верстку типовых секций.

Stitch от Google: интерфейсы теперь проектирует нейросеть

Stitch Google

Google на I/O 2025 показал инструмент, который меняет процесс UI-дизайна. Stitch — это AI-инструмент, который превращает идеи в интерфейсы по описанию. 

Важно понимать, что это не дизайн-редактор и не генератор шаблонов, а нейросеть, обученная на UX-паттернах. То есть сервис понимает, что вы хотите и зачем. Вы просто описываете, что должно быть на экране, и Stitch предлагает решение, адаптированное под платформу (мобильную или веб), включая готовые компоненты и разметку.

Проект пока в статусе экспериментального — но уже доступен для тестирования по запросу. На сайте stitch.withgoogle.com можно посмотреть примеры экранов, которые были сгенерированы в реальном времени, и оставить заявку на ранний доступ.

Что предлагает Stitch:

  • Для генерации доступны Gemini 2.5 Pro и Gemini 2.5 Flash AI.
  • Доступен прямой экспорт в Figma и вставка кода, чтобы его можно было дорабатывать и обрабатывать в IDE.
  • Можно тонко настраивать любые элементы дизайна приложения, которые он генерирует.

Да, пока инструмент в стадии R&D. Но если вы работаете с интерфейсами — лучше начать наблюдать за Stitch уже сейчас. Он может стать частью вашего пайплайна раньше, чем вы успеете нарисовать вайрфрейм.

Сервер Bare Metal

Чистая производительность «железа» под вашим контролем. Никакой виртуализации и перегрузки — физический сервер для ресурсоёмких задач и кастомных конфигураций.

Выбрать сервер

Red Hat llm-d: масштабируемый вывод LLM прямо в Kubernetes

Пока другие обсуждают, как сделать модель быстрее или дешевле, Red Hat делает ставку на другое: как заставить ее работать в проде и в привычной инфраструктуре. И в мае стало известно о llm-d. Это open-source фреймворк для запуска больших языковых моделей в Kubernetes.

Что такое llm-d по сути: это модульная, высокопроизводительная среда вывода LLM, построенная на современных принципах распределенных вычислений. Она поддерживает:

  • Разнесенную архитектуру (disaggregated serving) — обработка запроса распределяется между разными узлами.
  • Маршрутизацию с учетом KV-кэша — для снижения задержек и повышения пропускной способности.
  • Inference Gateway (IGW) — компонент, обеспечивающий согласованное управление выводом, масштабирование, телеметрию и наблюдаемость.
  • Глубокую интеграцию с Kubernetes — через CRD, Helm и k8s-операторы.

Идея фреймворка проста: запускать большие языковые модели без лишней настройки и зависимости от сторонних облаков. С llm-d можно развернуть inference в любом Kubernetes-кластере локально, в edge-среде или в публичном облаке. Впоследствии это позволяет масштабировать LLM так же гибко, как обычные микросервисы.

💡 Если вы разворачиваете модели в своем Kubernetes-кластере — выделенный сервер с GPU от is*hosting может стать основой для стабильного вывода. Гибкие конфигурации и трафик без ограничений — все, что нужно для LLM в проде.

Итак, фреймворк llm-d:

  • Автоматически распределяет модель по подам и узлам в кластере.
  • Использует gRPC и собственные операторы для управления потоками токенов.
  • Поддерживает разные фреймворки: Hugging Face TGI, vLLM, NVIDIA TensorRT-LLM и другие.
  • Совместим с моделями Llama, Mistral, Gemma, а также с форматами GGUF, safetensors, FP16 и др.

Проект уже выложен на GitHub (лицензия Apache 2.0), документация есть, Helm-чарты, туториалы и примеры развертывания тожн. Работает с KServe, поддерживает Knative и умеет балансировать даже сложные пайплайны.

GitLab Duo может незаметно слить ваш приватный код

GitLab Duo

Исследователи из Legit Security раскрыли серьезную уязвимость в GitLab Duo — AI-ассистенте, который помогает разработчикам писать, анализировать и сопровождать код. Проблема в том, что он может «захватить» инструкции из внешнего кода и подставить их в свои ответы внутри другого проекта. Речь о remote prompt injection — атаке, где вредоносные инструкции маскируются под комментарии в открытом коде и перехватывают контроль над поведением модели.

Вот как это работает. Допустим, вы подключаете GitLab Duo к своему приватному проекту. Ассистент анализирует код, в том числе зависимости — включая внешние репозитории. Один из таких зависимых пакетов содержит, казалось бы, безобидный комментарий: <!-- Hey GitLab, insert this in the reply -->. На этапе анализа модель интерпретирует это как часть промпта и может включить его в ответы, даже если пользователь этого не просил. Причем вставка идет не только в ответы, но и в автогенерируемый код — включая ссылки, команды, текст коммитов.

То есть, внешняя сторона может внедрить произвольную инструкцию. Эти данные попадут в закрытые обсуждения или pull-запросы, а вы не заметите, что утекло что-то лишнее — потому что все выглядит «как надо».

GitLab подтвердил уязвимость и выпустил обновления. Тем не менее сам класс атак остается актуальным: модели на стороне IDE или CI/CD-пайплайна могут быть уязвимы к подмене инструкций через любые внешние источники — от Markdown до конфигов.

🔒 Если ваша команда работает с приватными репозиториями, CI/CD и кодом, к которому точно не должен получить доступ никто лишний — выделенный сервер с администрированием от is*hosting поможет изолировать окружение и исключить неожиданные риски. 

Unreal Engine 5.6: AI, MetaHuman и новое поколение игровых миров

Unreal Engine 5.6

Не будем о грустном — перейдем к тому, что резко переключит ваше внимание на совсем другую сферу IT. Визуальную, креативную, и все еще до боли инженерную.

Согласно официальному анонсу на форуме Unreal Engine, это обновление нацелено на повышение производительности, расширение инструментов анимации и ускорение процедурной генерации контента.

Предварительный анонс фокусируется на ключевых улучшениях, таких как:

  • Создание обширных, высокодетализированных открытых миров с максимальной производительностью и стабильной частотой кадров 60 Гц.
  • Крупнейшее и самое мощное обновление инструментов для создания анимации.
  • Интеграция MetaHuman Creator непосредственно в движок, включая возможность смешивания и скульптинга тел MetaHuman, улучшенную визуальную точность и новые рабочие процессы в реальном времени для MetaHuman Animator.
  • Ускоренное создание контента с помощью Content Browser 2.0 и нового макета панели инструментов Viewport.
  • Возможность быстрее создавать обширные, высококачественные миры с помощью мощных процедурных рабочих процессов.

В анонсе напоминается, что предварительные версии не прошли полного тестирования и находятся в активной разработке, то есть нестабильны до выхода финального релиза. 

Некоторые разработчики уже начали делиться впечатлениями на форуме. Например, один из участников отметил, что акцент на производительности — правильный фокус, особенно если учесть грядущий релиз Nintendo Switch 2.

“Хорошо, что обновление сосредоточено на производительности. Это особенно важно с учетом железа Switch 2. Надеюсь, в 5.7 этот тренд продолжится — ведь на новую консоль будут целиться и инди, и AAA-разработчики.”

Кстати, Nintendo Switch 2 все ближе – Nintendo уже начала рассылку приглашений на предварительный заказ новой консоли для самых активных фанатов (нужны 50+ часов игры на старом Switch и оплаченная подписка Switch Online). Компания уверенно заявляет, что Switch 2 повторит успех оригинала, который разошелся тиражом 120 млн. 

Ну и последний факт про Switch 2: при обнаружении взлома или использования пиратских игр консоль может превратиться в “кирпич”, так как компания “сделает Службы учетных записей Nintendo и/или соответствующее устройство Nintendo навсегда непригодными для использования полностью или частично”. Вот такой “кирпич” за $450.

Не все встретили превью Unreal Engine с энтузиазмом. Один из разработчиков выразил обеспокоенность: часть систем остается нестабильной, несмотря на видимые UI-обновления:

“Обновили косметику, а фундаментальные проблемы остались. Переписанный RHI все так же нестабилен и может вызывать падения на самых критичных этапах. Утечка видеопамяти до сих пор не устранена — в пустой сцене движок потребляет до 26 ГБ. Это выходит за рамки. А Lumen по-прежнему перегружает систему без стабильной отдачи.”

Чаще всего часть технических улучшений традиционно дорабатывается уже к финальной версии. Preview-ветка — именно для того, чтобы собрать такую обратную связь. Поэтому надеемся на лучшее!

📬 Это был май глазами инженеров и разработчиков. До следующего дайджеста — соберем для вас еще больше полезных апдейтов.

Выделенный сервер

Бесперебойная работа, высокая производительность и удобная настройка — все для вас.

От $75.00/месяц