Вышла GPT Image 2: Самая мощная модель генерации изображений от OpenAI, доступна в Y Build с первого дня
OpenAI только что представила GPT Image 2 — фотореалистичные результаты, надежная работа с текстом, понимание физики сцены. Рассказываем о новинках, почему это важно для дизайнеров и разработчиков, и как Y Build интегрировала её в первый же день (T+0).
TL;DR
Сегодня OpenAI выпустила GPT Image 2 — преемницу gpt-image-1 и DALL-E 3. Судя по материалам релиза, это самая мощная общедоступная модель генерации изображений на текущий момент:
- Фотореализм на уровне, заставляющем GPT Image 1 выглядеть как модель 2023 года.
- Текст внутри изображения, который действительно читается правильно, включая длинные абзацы и несколько разных шрифтов.
- Понимание сцены — пространственные отношения, физика, связность теней и света.
- Точность композиции — корректное сохранение сложных промптов с 5+ объектами.
- Редактирование — правки на естественном языке «на месте», сохраняющие остальную часть сцены.
- Скорость — 4–6 секунд до первого изображения в разрешении 1024x1024.
Что на самом деле нового
Фотореализм без «эффекта ИИ»
При сравнении бок о бок с GPT Image 1 становится заметно, что характерные признаки ИИ-изображений — едва уловимые деформации рук, переглаженная кожа, невозможное освещение — в GPT Image 2 практически исчезли. Примеры OpenAI акцентируют внимание на текстуре кожи, деталях волосяных фолликулов и микро-освещении поверхностей.
Это не означает, что её невозможно обнаружить — детекторы ИИ-изображений всё ещё распознают их с точностью ~85%, — но визуальная планка значительно выросла.
Текст на изображениях, наконец-то
GPT Image 1 могла надежно отрисовать ~3–5 слов. GPT Image 2 справляется с целыми абзацами, с правильным кернингом, в выбранных шрифтах и на нескольких языках. Одно это меняет возможности для создания:
- Инфографики
- Мокапов продуктов с реальными текстами
- Постеров и маркетинговых материалов
- Панелей комиксов
- UI-вайрфреймов с читаемыми подписями
Понимание сцены и мира
Модель понимает физические взаимосвязи на новом уровне. Промпты вроде «чашка кофе с поднимающимся паром, стоящая рядом с ноутбуком, на котором виден график роста продаж, утренний свет падает из окна слева» создают логически связные сцены: направление пара соответствует физике, угол падения света из окна консистентен, а на экране ноутбука виден разборчивый график.
До этого релиза понимание сцены было самым слабым местом всех крупных моделей генерации изображений.
Редактирование на естественном языке
Теперь вы можете сказать: «сделай небо более грозовым, остальное оставь без изменений», и модель сделает именно это. В GPT Image 1 редактирование часто приводило к перегенерации всего изображения с изменением композиции. GPT Image 2 сохраняет всё, чего не коснулась правка.
Это впервые делает итеративные рабочие процессы проектирования жизнеспособными: один раз создаете макет, а затем уточняете его с помощью языка вместо повторного ввода промптов.
Цены
OpenAI анонсировала три уровня для GPT Image 2:
- Standard (1024x1024): ~$0.04 за изображение
- HD (до 2048x2048): ~$0.08 за изображение
- Ultra (до 4096x4096, более длительные вычисления): ~$0.15 за изображение
Это дешевле, чем безлимитный план Midjourney в пересчете на стоимость одного изображения для Standard и HD, и конкурентоспособно по сравнению с хостинг-сервисами Stable Diffusion 4.
Почему это важно для билдеров
Генерация изображений застряла в категории «полезно для мудбордов, но не для финальных работ» со времен DALL-E 3. GPT Image 2 переходит в категорию production-ready для реальных задач:
- Маркетинговые страницы могут иметь уникальные изображения для каждой кампании вместо стоковых фото или длительных сессий дизайна.
- Интерфейсы приложений могут получать первые черновики визуалов прямо в процессе разработки.
- Контент-сайты могут иллюстрировать каждую статью, а не только избранные.
- Предметная фотосъемка для малого e-commerce (еда, ремесла, дропшиппинг) становится возможной без студии.
Y Build × GPT Image 2 — интеграция T+0
Y Build интегрировала GPT Image 2 в тот момент, когда сегодня открылся API от OpenAI. Никаких очередей ожидания и бета-флагов.
Вы можете использовать её в следующих сценариях Y Build:
1. Прямая генерация в любой комнате
В любом групповом чате Y Build тегните агента Designer:
@Designer Generate a hero image for my podcast website — dark academia feel, book and microphone, dim warm light.
Агент Designer выберет GPT Image 2 по умолчанию для фотореалистичных работ (и переключится на DALL-E 3 или Stable Diffusion 4 для специфических стилей).
2. Редактирование на месте
Добавьте любое изображение (сгенерированное или загруженное) в комнату и попросите внести правки на естественном языке:
@Designer Make the microphone silver instead of black, everything else stays.
Y Build отслеживает историю правок — каждая итерация становится новой версией в вашем рабочем пространстве (workspace), так что вы всегда можете откатиться назад.
3. Автоматизированная пакетная генерация
Для e-commerce или контент-сайтов, требующих множества визуалов, агент Virtuoso может запустить GPT Image 2 по списку промптов, сохранить результаты в ваше рабочее пространство и закоммитить их в репозиторий.
@Virtuoso Generate product hero images for each of the 24 items inproducts.csv, save as/public/products/{slug}.jpg, and commit.
Спустя 45 минут у вас будет 24 изображения, проверенных агентом Reviewer на соответствие стилю бренда и подготовленных в ветке для слияния.
4. Интеграция с Workspace
Все сгенерированные изображения попадают в ваше рабочее пространство Y Build. Это реальные файлы — их можно редактировать в блочном редакторе, экспортировать в репо или версионировать.
Цены внутри Y Build
- Free tier: 10 генераций GPT Image 2 Standard в месяц (далее для бесплатного тарифа используется DALL-E 3).
- Pro ($69/мес): Безлимитный Standard, 200 HD/мес, 50 Ultra/мес.
- Max ($199/мес): Всё безлимитно, включая Ultra.
Что насчет DALL-E 3 и GPT Image 1?
Обе модели по-прежнему доступны в Y Build. Для некоторых сценариев (стилизованные иллюстрации, специфические арт-стили) они всё ещё предпочтительнее. Агент Designer автоматически выбирает модель на основе промпта, но вы можете принудительно указать конкретную модель:
@Designer Generate with gpt-image-2: [prompt]
@Designer Generate with dalle-3: [prompt]
Stable Diffusion 4 также доступна как бесплатная опция для тарифа Pro — у неё чуть ниже фотореализм, чем у GPT Image 2, но для пользователей Pro за неё не списываются лимиты вычислений.
Как начать пользоваться сегодня
- Зарегистрируйтесь в Y Build бесплатно — кредитная карта не требуется.
- Создайте любую комнату с агентом Conductor.
- Попросите агента Designer сгенерировать изображение — GPT Image 2 установлена по умолчанию.