개발가이드

  • 개발가이드

LLM 모델 카탈로그·가격·컨텍스트

서비스가 제공하는 텍스트 생성 모델 전체 목록을 반환합니다. 각 모델의 1M 토큰당 input/output 단가(포인트), 계열·크기·멀티모달 여부·특수 태그(reasoning·coder), 그리고 max_context(모델이 받아들일 수 있는 최대 토큰)를 한 응답에 포함합니다. 과거 별도였던 /rest/llm/models/live 와 가격표 가이드는 이 엔드포인트로 통합되었습니다. 60초 캐시, 비로그인 허용, 과금 없음.

정보

Method
URL
POST
https://apick.app/rest/llm/models

3가지 정보가 한 응답에 담깁니다 — 이 엔드포인트 하나로 카탈로그 조회, 가격표 확인, 컨텍스트 윈도우(모델이 받아들일 수 있는 최대 토큰) 조회가 모두 해결됩니다. 과거 /rest/llm/models/live 와 별도 "가격표" 가이드 페이지는 이 엔드포인트로 통합되었습니다.

과금 정책

항목
과금
없음 (카탈로그·가격 조회 전용, 비로그인 허용)
캐시
60초 (max_context 조회는 업스트림 실시간 호출이므로 캐시로 응답 속도 보장)

요청

Header
이름
필수
설명
Content-Type
X
application/json (필터 미사용 시 바디 불필요)
CL_AUTH_KEY
X
비로그인 허용 (있어도 무방)
Body (JSON) — 모두 선택
이름
타입
필수
설명
family
String
X
모델 계열 필터 (qwen, glm, deepseek, llama, google, nvidia, phi, mistral, gpt-oss, stepfun, minimax, moonshot, anthropic)
tag
String
X
특수 태그 필터 — reasoning (추론 특화) · coder (코딩 특화)
multimodal
Boolean
X
멀티모달(이미지·비디오 이해) 지원 여부 필터

응답 포맷

공통 래퍼 { data, api }. 과금 없음이므로 api.cost = 0, api.pl_id = null.

data (통합 카탈로그)
이름
타입
설명
count
Integer
필터 적용 후 모델 수
currency
String
"POINT" — 모든 단가는 포인트 단위 (1포인트 = 1원, 부가세별도)
price_unit
String
가격 단위 설명 ("1M 토큰당 포인트, input/output 별도")
billing_rule
String
과금 계산 규칙 요약
token_mapping
Object
prompt_tokens → input, completion_tokens → output
examples
Array
샘플 과금 계산 예시
models
Array
모델 목록 (각 항목 상세는 아래)
data.models[] (각 모델)
이름
타입
설명
id
String
/chat 의 model 필드에 그대로 전달할 값
family
String
모델 계열 (qwen, glm, deepseek, llama ...)
size
String
크기 라벨 (예: "8B", "72B", "flagship", "30B-MoE")
multimodal
Boolean
이미지·비디오 이해 지원
tag
String/null
"reasoning" · "coder" · null
price.input_point_per_1m
Number
input 1M 토큰당 포인트
price.output_point_per_1m
Number
output 1M 토큰당 포인트
max_context
Integer/null
모델이 받아들일 수 있는 최대 토큰 (messages[] 전체 길이 상한). 업스트림 조회 실패 시 null

에러 코드

HTTP
의미
200
정상 (필터 결과가 빈 배열이어도 200)
500
서버 API 키 미설정 (운영자 문의)

예시 — axios (권장)

전체 카탈로그 조회

import axios from 'axios';

const { data: result } = await axios.post('https://apick.app/rest/llm/models', {});

console.log('총', result.data.count, '개 모델');
result.data.models.forEach(m => {
  console.log(m.id,
    '| in:', m.price.input_point_per_1m, 'P/1M',
    '| out:', m.price.output_point_per_1m, 'P/1M',
    '| ctx:', m.max_context);
});
            
필터 — 추론 전용 모델만

const { data: result } = await axios.post('https://apick.app/rest/llm/models', {
  tag: 'reasoning',   // coder / reasoning
});
// result.data.models 에 추론 모델만
            
필터 — Qwen 계열 + 멀티모달

const { data: result } = await axios.post('https://apick.app/rest/llm/models', {
  family: 'qwen',
  multimodal: true,
});
            
cURL

curl -k -X POST "https://apick.app/rest/llm/models" \
-H "Content-Type: application/json" \
-d '{ "family": "qwen" }'
            
응답 예시 (발췌)

{
  "data": {
    "count": 58,
    "currency": "POINT",
    "price_unit": "1,000,000 토큰당 포인트 (input/output 별도 단가, 1포인트 = 1원, 부가세별도)",
    "billing_rule": "input/output 각각 사용량 비례 계산 후 ceil(포인트 단위 올림). 각 파트 사용량이 1포인트 미만이면 1포인트로 부과. 최종 차감 포인트는 api.cost 로 내려간다.",
    "token_mapping": { "prompt_tokens": "input", "completion_tokens": "output" },
    "examples": [
      { "case": "in 2000/1M, out 5000/1M", "input_tokens": 10000, "output_tokens": 15000, "cost": 95 },
      { "case": "in 2000/1M, out 5000/1M", "input_tokens": 400,   "output_tokens": 100,   "cost": 2 }
    ],
    "models": [
      {
        "id": "meta-llama/Meta-Llama-3.1-8B-Instruct",
        "family": "llama",
        "size": "8B",
        "multimodal": false,
        "tag": null,
        "price": { "input_point_per_1m": 90, "output_point_per_1m": 225 },
        "max_context": 131072
      }
    ],
    "ic_id": null, "result": 1, "msg": "", "success": 1
  },
  "api": { "success": true, "cost": 0, "ms": 14, "pl_id": null }
}
            

모델 선택 가이드

용도
추천 모델
이유
일반 챗봇·간단 Q&A (가성비)
meta-llama/Meta-Llama-3.1-8B-Instruct
1M 토큰 in 90P / out 225P — 가장 저렴. 대부분의 대화에 충분한 품질
에이전트·도메인 특화 (품질)
meta-llama/Llama-3.3-70B-Instruct-Turbo
지시 이행력·한국어 품질 우수. Turbo 가중치로 지연도 낮음
복잡 추론·정책 해석
deepseek-ai/DeepSeek-V3.2 (tag: reasoning)
speed: 'slow' 와 조합하면 단계별 추론 품질 급상승
코드 작성·리팩터링
Qwen/Qwen3-Coder-480B-A35B-Instruct-Turbo (tag: coder)
코드 전문 튜닝. in 990P / out 4500P 로 코딩 품질 대비 경제적
이미지 이해 (멀티모달)
google/gemma-3-27b-it · Qwen/Qwen3-VL-30B-A3B-Instruct
multimodal: true 모델 필요. /chat 의 content 에 image_url 메시지 포맷 사용

실제 호출은 /rest/llm/chatmodel 필드로 위 id 를 그대로 전달하면 됩니다. 간단한 단발 호출은 단발 호출 가이드, 멀티턴 대화는 멀티챗 가이드, 챗봇 구축은 챗봇 구축 가이드, 도메인 에이전트는 에이전트 구축 가이드를 참고하세요.

현재 페이지 북마크