RAG tarkoittaa, että LLM-mallin vastauksia täydennetään omalla aineistolla. Paikallinen RAG pyörii omalla laitteellasi: tuhansia dokumentteja, semanttinen haku millisekunneissa, ei ainuttakaan tavua pilvessä.
Miten se rakennetaan
Pino: avoin upotusmalli (esim. bge-m3), sqlite-vec tai LanceDB vektoritietokantana, SQLite metatiedoille. Indeksointi tapahtuu taustalla. Kun kysyt jotain, assistentti hakee aineistosta relevantit palat ja antaa ne mallille kontekstina.
Millaista aineistoa?
PDF-artikkelit, Word-dokumentit, sähköpostit, kokousmuistiinpanot, äänitallenteiden transkriptiot, lähdekoodi, sopimukset, hallitusmateriaalit. Tyypillinen skaala: 10 000–1 000 000 sivua.
Usein kysyttyä
- Kuinka kauan indeksointi kestää?
- M-sarjan Macilla 10 000 PDF:ää indeksoituu yön yli. Isoilla aineistoilla työasema (Framework Desktop, DGX Spark) nopeuttaa merkittävästi.
Päivitetty 2026-04-21