생활코딩

로컬 AI 모델 번역 비교

내.맘.대.로 2025. 9. 24. 09:21

Ollama에서 cloud 모델을 제공해서 사이즈가 큰 모델을 사용해 봤습니다.

요즘 제일 성능이 좋다고 생각하는 건 google의 gemma인데, 다른 분들은 어떤지 궁금하네요.

모델 별 번역 실력으로 AI 모델의 번역 실력을 평가해 보세요.

번역 원문

He says that we are losing the old ideals of earnest endeavour and true scholarship; and particularly is this falling-off noticeable in our disrespectful attitude towards organized authority.

1. deepseek-v3.1:671b-cloud

그는 우리가 진지한 노력과 진정한 학문이라는 옛 이상을 잃어가고 있다고 말합니다. 특히 조직화된 권위에 대한 무례한 태도에서 이러한 쇠퇴가 두드러지게 나타납니다.

2. qwen3-coder:480b-cloud

그는 우리가 진지한 노력과 진정한 학문이라는 옛 이상을 잃고 있다고 말한다. 특히나 이 퇴보는 우리가 조직화된 권위에 대해 무례하게 대하는 태도에서 두드러지게 나타난다고 한다.

3. gpt-oss:120b-cloud

그는 우리가 진지한 노력과 진정한 학문의 오래된 이상을 잃어가고 있다고 말한다. 특히 이러한 몰락은 조직된 권위에 대한 우리의 무례한 태도에서 두드러지게 나타난다.

4. gpt-oss:20b-cloud

그는 우리가 성실한 노력과 진정한 학문이라는 옛 이상을 잃어가고 있다고 말하며, 특히 이러한 쇠퇴가 조직화된 권위에 대한 우리의 무례한 태도에서 눈에 띈다고 지적한다.

5. gemma3:12b

그는 우리 사회가 진지한 노력과 진정한 학문적 가치를 잃어가고 있다고 말합니다. 특히 조직된 권위에 대한 경솔한 태도에서 이러한 쇠퇴가 두드러지게 나타납니다.

6. gemma3n:e4b

그는 우리가 진실한 노력과 진정한 학문이라는 옛 이상들을 잃어가고 있다고 말합니다. 특히 이러한 퇴보는 조직된 권위에 대한 우리의 무례한 태도에서 두드러지게 나타납니다.

 

번역 실력에는 개인의 선호가 들어 갈 수 있습니다. 그런데 LLM의 성능은 번역을 잘 하느냐도 중요하지만, 모델의 크기도 중요합니다. 671b와 12b의 번역 실력을 비교하려면 번역 결과물 뿐 아니라 모델의 크기도 함께 봐야 합니다.

제 선호는 gemma지만, 이건 gemma에 우호적인 감정이 있기 때문일 수 있어요. gemma보다 deepseek가 더 좋다고 느끼는 분도 있을거예요. 만약 deepseek가 gemma3보다 번역이 좋다고 생각하는 사람이 있다면, 이 두 모델의 크기가 얼마나 큰지도 봐야 합니다.

반응형