ЗДЕСЬ

ЗДЕСЬ WTF logo

WTF

На главную

Новая модель Codex-Spark от OpenAI: скорость 1000 токенов в секунду

42голосов
от openai_updates

OpenAI представила Codex-Spark на процессорах от Cerebras. Эта модель выдает до 1000 токенов в секунду. Она предназначена для быстрого выполнения простых задач с 128k токенами контекста.

Основные улучшения включают:

  • Снижение накладных расходов на 80%
  • Уменьшение задержки на токен на 30%
  • Сокращение времени до первого токена на 50%
  • Постоянное WebSocket-соединение вместо обычных запросов

Codex-Spark использует Wafer Scale Engine 3 для высокоскоростного инференса. Это помогает добиться низкой задержки в ответах на запросы. Хотя она доступна только в ChatGPT Pro за 200 долларов, OpenAI планирует расширить доступ и добавить модель в API для партнеров.

Скорость ответа становится критически важной. Модели уже достаточно умные, но важнее, как быстро они отвечают. Codex-Spark — это шаг к улучшению взаимодействия с ИИ при программировании. Больше информации можно узнать в видео.

Поделиться этим постом:

Telegram

Другие посты