cline과 continue 모두 VS code의 AI용 플러그인이다.
continue : https://docs.continue.dev/
cline : https://cline.bot/
continue는 개별 파일, 코드 부분등 작업 범위를 좁게 한정할 경우 적합하고,
cline은 좀 더 넓은 범위에 대해서, 좀 더 추상적인 지시를 자동으로 실행하는 데 적합하다.
이렇게만 보면 당연히 cline이 더 좋아보인다.
그러나, 직접 사용해 보면 장단점이 있다.
일단, cline은 도구 사용(function calling, tool calling)에 특화된 고용량/고성능의 AI 모델이 필요하며, 컨텍스트 메모리를 많이 사용하므로 VRAM을 많이 잡아먹는다.
VRAM 용량이 부족해지면 일부 작업이 CPU에 넘어가게 되는 데, CPU에서 병목 현상이 발생하면서 AI 실행 속도가 급격하게 느려진다.
(GPU가 100% 실행하는 경우와 비교하면 CPU가 10%만 넘겨받아도 실행 속도가 1/10 이하로 떨어지는 것 같다.)
그래서, VRAM 용량이 충분한 경우에만 온디바이스 AI 모델을 사용할 수 있고, 그렇지 않다면, 추가 비용을 지출해서 유료 클라우드 AI를 사용해야 한다.
이에 비해서 continue는 무료 저용량 온디바이스 AI 모델도 충분히 사용할 수 있으며, 컨텍스트 사용량도 적어서 VRAM 용량이 빠듯한 경우에도 GPU가 AI 실행 100%를 담당할 수 있어서 쾌적한 실행 속도를 누릴 수 있고, GPU가 아예 없더라도 7B용량의 저용량 AI모델은 CPU만으로 그럭저럭 사용할 수 있다.
물론, cline에 비해서 자동화 수준이 낮아지고, 저용량 AI 모델은 답변 품질도 하락하지만, 시스템 사양 제약이 덜하고, 온디바이스 AI 모델은 비용 지출이 없고, 인터넷에 연결되지 않은 오프라인 상태에서도 개발 작업을 진행하는 데 지장이 없는 등 여러가지 장점이 있다.
시스템 사양과 사용할 AI 모델 용량, 인터넷 연결 여부, 유료 AI 실행을 위한 비용 지출 의향이 있는 지 여부등 각자의 상황에 따라서 cline과 continue 중 적절한 것을 선택하면 될 것 같다.
개인적으로
GPU가 없는 노트북에서는 continue에 7B 모델을 붙여서 사용하고,
VRAM 24GB인 시스템에서는 continue에 32B 모델을 붙여서 사용하며,
VRAM 96GB인 시스템에서는 상황에 따라
높은 자동화 수준과 넓은 작업 범위가 필요할 때만 cline에 70B 모델을 붙여서 사용하고,
대부분 continue에 32B 모델을 붙여서 사용한다.
VRAM용량이 충분한 경우에도 continue와 32B 모델을 사용하는 이유는 실행 속도 차이 때문이다.
32B 모델이 70B 모델보다 대략 2배 정도 빠른 데, 체감 상 느껴지는 차이가 꽤 크다.
그리고, 32B 모델이 생각보다 답변 품질이 충분히 괜찮은 수준이어서 느린 속도를 감수하고 70B 모델을 사용할 이유를 느끼지 못할 때가 많다.
개인적으로 굳이 유료 클라우드 AI는 사용하지 않으며, 무료 온디바이스 AI만 사용한다.
중국 AI 모델 검열 피하기 abliterated (2) | 2025.04.06 |
---|---|
Mistral Large 2411 123B 간단 사용기 (0) | 2025.04.05 |
Chain of Draft - 초안의 사슬 (0) | 2025.04.03 |
AI + MCP = 자동 매매 시스템? (4) | 2025.03.31 |
P40 vLLM 설치. (0) | 2025.03.29 |