Перейти к основному содержанию
POST
/
v1
/
messages
curl --request POST \
  --url https://toapis.com/v1/messages \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '{
    "model": "claude-sonnet-4-6",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Привет, расскажи о себе"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Привет! Я Claude — ИИ-ассистент от Anthropic. Я помогу ответить на вопросы, проанализировать информацию, написать код и многое другое. Чем могу помочь?"
    }
  ],
  "model": "claude-sonnet-4-6",
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 10,
    "output_tokens": 32
  }
}
  • Нативный формат Anthropic Messages API
  • Полная совместимость с официальным Anthropic SDK (Python / JavaScript) — нужно лишь изменить base_url
  • Поддержка потоковой передачи (SSE)
  • Поддержка многоходовых диалогов, системных подсказок, визуального ввода и вызова инструментов
Если вы уже используете OpenAI SDK, рекомендуем эндпоинт в формате OpenAI. Если вы используете Anthropic SDK или Claude Code, рекомендуется этот эндпоинт.

Авторизация

Authorization
string
Bearer-токен для прямых HTTP-запросов
Authorization: Bearer YOUR_API_KEY
x-api-key
string
API-ключ, совместимый с Anthropic SDK
x-api-key: YOUR_API_KEY
anthropic-version
string
по умолчанию:"2023-06-01"
Версия Anthropic API. Устанавливается автоматически при использовании Anthropic SDK.Рекомендуемое значение: 2023-06-01

Тело запроса

model
string
обязательно
Название моделиПоддерживаются все модели серии Claude, например:
  • claude-opus-4-6
  • claude-sonnet-4-6
  • claude-haiku-4-5
messages
object[]
обязательно
Список сообщений в хронологическом порядке. Допустимы только роли user и assistant. Системные подсказки задаются в поле system верхнего уровня.
max_tokens
integer
обязательно
Максимальное количество токенов для генерации
  • Claude Sonnet 4-6: до 64000
  • Claude Opus 4-6: до 32000
system
string | object[]
Системная подсказка на верхнем уровне (не внутри messages)Принимает строку или массив блоков контента.
stream
boolean
по умолчанию:false
Включить потоковую передачу (Server-Sent Events)
  • true: токены передаются по мере генерации в формате SSE Anthropic
  • false: полный ответ возвращается одним блоком
temperature
number
по умолчанию:1
Температура семплированияДиапазон: 01
top_p
number
Порог ядерного семплированияДиапазон: 01. Не рекомендуется задавать одновременно с temperature.
stop_sequences
string[]
Стоп-последовательности — генерация прекращается при появлении любой из них

Ответ

id
string
Уникальный идентификатор запроса с префиксом msg_
type
string
Тип объекта, всегда message
role
string
Роль ответа, всегда assistant
content
object[]
Список сгенерированных блоков контента
  • content[].type: тип контента, обычно text
  • content[].text: сгенерированный текст
model
string
Модель, обработавшая запрос
stop_reason
string
Причина остановки генерации
  • end_turn: модель завершила ответ естественным образом
  • max_tokens: достигнут лимит max_tokens
  • stop_sequence: сработала стоп-последовательность
usage
object
Статистика использования токенов
  • usage.input_tokens: количество входных токенов
  • usage.output_tokens: количество выходных токенов
curl --request POST \
  --url https://toapis.com/v1/messages \
  --header 'Authorization: Bearer <token>' \
  --header 'Content-Type: application/json' \
  --data '{
    "model": "claude-sonnet-4-6",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Привет, расскажи о себе"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Привет! Я Claude — ИИ-ассистент от Anthropic. Я помогу ответить на вопросы, проанализировать информацию, написать код и многое другое. Чем могу помочь?"
    }
  ],
  "model": "claude-sonnet-4-6",
  "stop_reason": "end_turn",
  "usage": {
    "input_tokens": 10,
    "output_tokens": 32
  }
}