OpenAI представила Codex-Spark на процессорах от Cerebras. Эта модель выдает до 1000 токенов в секунду. Она предназначена для быстрого выполнения простых задач с 128k токенами контекста.
Основные улучшения включают:
Codex-Spark использует Wafer Scale Engine 3 для высокоскоростного инференса. Это помогает добиться низкой задержки в ответах на запросы. Хотя она доступна только в ChatGPT Pro за 200 долларов, OpenAI планирует расширить доступ и добавить модель в API для партнеров.
Скорость ответа становится критически важной. Модели уже достаточно умные, но важнее, как быстро они отвечают. Codex-Spark — это шаг к улучшению взаимодействия с ИИ при программировании. Больше информации можно узнать в видео.
Поделиться:
Экосистема ЗДЕСЬ представила платформу ЗДЕСЬ Студия для автоматизации полного цикла генеративного продакшена →
Stability AI выпустила Brand Studio: генерация контента по брендбуку с автоматическим выбором моделей →