← Fogalomtár
Fogalom

Transformer (architektúra)

Az a neurális hálózati architektúra, amelyre a modern nagy nyelvi modellek épülnek. A 2017-es áttörést az hozta, hogy a modell a szöveg bármely részére tud figyelni, nem csak a közeli szavakra.

Analógia

Mint egy szerkesztő, aki nem sorban olvassa a kéziratot, hanem egyszerre látja az egészet, és kijelöli, mi kapcsolódik mihez.

Miért fontos?

Ha ezt értjük, jobban látjuk, miért lettek hirtelen ennyire használhatók a mai AI rendszerek üzleti feladatokra. A Transformer a gyorsabb összefüggés-felismerés miatt tette lehetővé a ma ismert LLM-eket.

Kapcsolódó oldalak