← Modulok
Haladó modulOpen-source LLM

Nyílt LLM-ök világa

ChatGPT-n és Claude-on túl: hogyan épül fel a nyílt forráskódú AI ökoszisztéma — modellek, hub, runtime, kvantálás, orchestration. Nem termékkatalogus, hanem stack-szemlélet.

A helyes mentális modell

A nyílt LLM világ nem egyetlen termék, hanem egymásra épülő rétegek rendszere: modellek, hub, datasetek, futtatókörnyezetek, kvantálási formátumok, API/serving rétegek, orchestration frameworkök és felhasználói appok. A leggyakoribb tanulói hiba: összekeverni, hogy melyik rétegről van szó.

Stack-összefoglaló

Model layerLlama, Gemma, Mistral, DeepSeek — maga a súly
Hub layerHugging Face — elosztás, verzió, model card
Runtime layerllama.cpp, vLLM, Ollama — végrehajtja az inferenciát
Packaging layerGGUF, safetensors, 4-bit quant — a futtatható formátum
Serving / API layerOpenAI-kompatibilis endpoint — appok csatlakoznak ide
Orchestration layerLiteLLM, LangChain — routing, RAG, agent flow
App / UI layerOpen WebUI, LM Studio — végfelhasználói interface

Miért lép ki valaki a chatablakból?

Privacy és adatkontroll
Érzékeny dokumentumok, belső adatok, kutatási anyagok házon belül maradnak — lokális vagy self-hosted futtatással.
Testreszabhatóság
Saját modellválasztás, saját endpoint, saját routing, saját UI, saját logging. Nincs vendor lock-in.
Integráció
OpenAI-kompatibilis endpoint-okkal sok meglévő app minimális változtatással ráköthető nyílt modellekre.
Költség- és infrastruktúra-stratégia
Nagy volumenű inference, belső use case, vagy speciális load esetén saját stack jobb skálázhatóságot adhat.
Fontos: az open stack nem mindig olcsóbb vagy egyszerűbb — hardver, üzemeltetés, kompatibilitás és minőségbiztosítás a fejlesztő felelőssége. A zárt asszisztensek ezt elrejtik; az open stack ott jó, ahol a kontroll és integrálhatóság fontosabb.

Ökoszisztéma rétegek

A model layer a tényleges alapmodell: súlyok, architektúra, képességek, kontextusablak. A modellek önmagukban nem „termékek" — csak súlyok, amiket valaminek be kell töltenie.

Llama 3.x (Meta)
Legelterjedtebb open-weight, 8B–70B–405B, jó minőség
Gemma 3 (Google)
Hatékony kisebb modellek, jó lokális futtatáshoz
Mistral / Mixtral
Erős European modellek, MoE architektúra
Qwen 2.5 (Alibaba)
Erős kód és matematika, széles kontextus
DeepSeek R1/V3
Reasoning-fókusz, competetív frontier minőség
Phi-4 (Microsoft)
Kis mérethez erős teljesítmény, kutatási modell

Nem minden „open" egyforma: nyílt súlyú (open-weight) ≠ nyílt forrású (open-source). A licencet és a felhasználási feltételeket mindig ellenőrizd.

Mikor érdemes nyílt stack felé menni?

SzituációNyílt stackZárt platform
Adatlokális, érzékeny dokumentumok✅ Self-hosted Ollama/vLLM❌ Adatok elhagyják a szervezetet
Gyors, súrlódásmentes indulás⚠️ Több setup kell✅ ChatGPT, Claude azonnal indul
Saját endpoint, integráció meglévő appba✅ OpenAI-kompatibilis APIKorlátozott testreszabás
Frontier minőség (komplex reasoning)⚠️ DeepSeek R1 közel, de rés van✅ GPT-4o, Claude Opus
Nagy volumenű batch, olcsón✅ Groq, saját GPU serverDrágább lehet nagy volumnél
Fine-tuning, saját domain adaptáció✅ Teljes kontroll a súlyokonKorlátozott / drága

Miben nem jó — korlátok

Operatív komplexitás
Self-hosted stack esetén te felelsz a hardverért, frissítésekért, kompatibilitásért és minőségbiztosításért. Nincs helpdesk, nincs managed service.
Frontier minőség-rés
A nyílt modellek jók és fejlődnek, de a legjobb zárt modellek (GPT-4o, Claude Opus) nehezebb reasoning feladatokon még előnnyel járnak.
Licenc-variáció
Nem minden nyílt modell szabad kereskedelmi felhasználásra. A Llama, Gemma, Mistral mind eltérő licencfeltételekkel rendelkezik — ellenőrizd üzleti felhasználás előtt.
Gyorsan változó ökoszisztéma
A nyílt LLM világ nagyon gyors tempón fejlődik. Ami ma 'state of the art' open-source modell, 3 hónap múlva lehet, hogy meg van haladva.