로컬 AI 모델 번역 비교
Ollama에서 cloud 모델을 제공해서 사이즈가 큰 모델을 사용해 봤습니다.
요즘 제일 성능이 좋다고 생각하는 건 google의 gemma인데, 다른 분들은 어떤지 궁금하네요.
모델 별 번역 실력으로 AI 모델의 번역 실력을 평가해 보세요.
번역 원문
He says that we are losing the old ideals of earnest endeavour and true scholarship; and particularly is this falling-off noticeable in our disrespectful attitude towards organized authority.
1. deepseek-v3.1:671b-cloud
그는 우리가 진지한 노력과 진정한 학문이라는 옛 이상을 잃어가고 있다고 말합니다. 특히 조직화된 권위에 대한 무례한 태도에서 이러한 쇠퇴가 두드러지게 나타납니다.
2. qwen3-coder:480b-cloud
그는 우리가 진지한 노력과 진정한 학문이라는 옛 이상을 잃고 있다고 말한다. 특히나 이 퇴보는 우리가 조직화된 권위에 대해 무례하게 대하는 태도에서 두드러지게 나타난다고 한다.
3. gpt-oss:120b-cloud
그는 우리가 진지한 노력과 진정한 학문의 오래된 이상을 잃어가고 있다고 말한다. 특히 이러한 몰락은 조직된 권위에 대한 우리의 무례한 태도에서 두드러지게 나타난다.
4. gpt-oss:20b-cloud
그는 우리가 성실한 노력과 진정한 학문이라는 옛 이상을 잃어가고 있다고 말하며, 특히 이러한 쇠퇴가 조직화된 권위에 대한 우리의 무례한 태도에서 눈에 띈다고 지적한다.
5. gemma3:12b
그는 우리 사회가 진지한 노력과 진정한 학문적 가치를 잃어가고 있다고 말합니다. 특히 조직된 권위에 대한 경솔한 태도에서 이러한 쇠퇴가 두드러지게 나타납니다.
6. gemma3n:e4b
그는 우리가 진실한 노력과 진정한 학문이라는 옛 이상들을 잃어가고 있다고 말합니다. 특히 이러한 퇴보는 조직된 권위에 대한 우리의 무례한 태도에서 두드러지게 나타납니다.
번역 실력에는 개인의 선호가 들어 갈 수 있습니다. 그런데 LLM의 성능은 번역을 잘 하느냐도 중요하지만, 모델의 크기도 중요합니다. 671b와 12b의 번역 실력을 비교하려면 번역 결과물 뿐 아니라 모델의 크기도 함께 봐야 합니다.
제 선호는 gemma지만, 이건 gemma에 우호적인 감정이 있기 때문일 수 있어요. gemma보다 deepseek가 더 좋다고 느끼는 분도 있을거예요. 만약 deepseek가 gemma3보다 번역이 좋다고 생각하는 사람이 있다면, 이 두 모델의 크기가 얼마나 큰지도 봐야 합니다.