MiniCPM-o 4.5 한국어 성능도 잘 나올까?
MiniCPM-o 4.5의 한국어 성능을 영어와 나란히 비교 측정했습니다. 이미지 설명, OCR, 문서 추출에서 한국어가 잘 되는 부분과 무너지는 지점, 그리고 프롬프트가 아닌 아키텍처에서 오는 근본 원인을 분석합니다.

MiniCPM-o 4.5 한국어 성능도 잘 나올까?
MiniCPM-o 4.5는 영어와 중국어에 최적화된 옴니 모델입니다. 그렇다면 한국어는 얼마나 될까요?
동일한 이미지에 한국어와 영어로 같은 질문을 던지고, 출력을 나란히 비교했습니다. 이미지 설명, OCR, 문서 추출, 파인튜닝까지 실제로 돌려본 결과를 정리합니다.
결론부터 말하면: 한국어는 됩니다. 하지만 흥미로운 문제들이 있고, 그 원인은 프롬프트가 아니라 더 깊은 곳에 있습니다.
테스트 환경
관련 포스트

Models & Algorithms
파인튜닝 모델 평가부터 배포까지 — 실전 완결편
Perplexity, KoBEST, ROUGE-L로 모델 평가. merge_and_unload()로 어댑터 머지, GGUF 변환, vLLM/Ollama 배포. 과적합 방지, 데이터 품질, 하이퍼파라미터 가이드.

Models & Algorithms
QLoRA + 한국어 — T4 한 장으로 7B 모델을 한국어 전문가로 만들기
QLoRA(4-bit NormalFloat + LoRA)로 T4 16GB에서 Qwen 2.5 7B 파인튜닝. 한국어 데이터셋 구축 가이드, NF4/Double Quantization/Paged Optimizer 원리, Wandb 모니터링.

Models & Algorithms
LoRA 완전 정복 — 7B 모델을 노트북 하나로 파인튜닝하기
LoRA(Low-Rank Adaptation)의 원리부터 Qwen 2.5 7B 실습까지. 전체 파라미터의 0.18%만 학습해서 풀 파인튜닝의 98% 성능을 달성하는 방법. VRAM 130GB → 18GB로 86% 절감.