Myslíte si, že bez prémiového předplatného za ChatGPT nebo Gemini AI nevyužijete? Existuje ale jiná cesta: AI, která běží přímo na vašem počítači, neodesílá vaše dotazy nikam do cloudu a funguje i bez připojení k internetu. Jmenuje se Ollama a tento průvodce vám ukáže, jak ji rozjet za pár minut — zcela zdarma.
Co je Ollama a proč byste ji měli znát
Ollama je bezplatný open-source nástroj, který vám umožní stáhnout a spustit velké jazykové modely (LLM) přímo na vašem vlastním počítači. Zkráceně řečeno: je to jako mít ChatGPT nebo Claude u sebe doma — bez měsíčního poplatku a bez závislosti na internetovém připojení.
Zatímco u běžných AI chatbotů odesíláte každý svůj dotaz na vzdálené servery (a zaplatíte za to buď penězi, nebo svými daty), Ollama vše řeší lokálně. Váš počítač se stane vaším osobním AI serverem.
Proč je to zajímavé právě teď?
The Rundown AI, jeden z nejdůležitějších zpravodajů o umělé inteligenci se čtenářskou základnou přes milion čtenářů, zařadil Ollama do svého průvodce pro duben 2026 jako jeden z klíčových nástrojů pro každého, kdo chce AI bez kompromisů. Důvod je jednoduchý: modely jsou dnes dostatečně malé a výkonné, aby bez problémů běžely na běžném laptopu — a to je skutečně přelomová změna oproti stavu před dvěma lety.
Jak Ollama funguje
Ollama funguje jako „správce modelů" na vašem počítači. Představte si ji jako obchod s aplikacemi, ale místo mobilních aplikací jsou v něm AI modely. Stáhnete si Ollamu, ta vám zpřístupní rozsáhlý katalog modelů — Gemma od Googlu, Llama od Mety, Mistral, Phi od Microsoftu a desítky dalších. Vyberete si jeden, stáhnete ho, a pak s ním komunikujete přímo přes textové rozhraní nebo aplikaci.
Za zákulisím se odehrává takzvaná inference — výpočet odpovědi modelu. Místo aby ji prováděl server někde v datovém centru Googlu nebo OpenAI, provádí ji váš vlastní procesor nebo grafická karta. Je to rychlé, soukromé a cenově nulové.
Technické minimum, které potřebujete vědět
Nemusíte rozumět technickým detailům do hloubky, ale tři věci jsou důležité:
- RAM (operační paměť): Větší modely potřebují více RAM. Pro začátek stačí 8 GB RAM — to zvládne naprostá většina moderních laptopů vyrobených po roce 2018.
- Místo na disku: Modely zabírají od 1 GB do několika desítek GB. Doporučujeme mít alespoň 10 GB volného místa pro první experimenty.
- Internetové připojení: Potřebujete ho jen při prvním stahování modelu. Jakmile je model stažen, fungujete zcela offline.
Ollama funguje na Windows, macOS i Linuxu — takže ji zvládnete spustit prakticky na jakémkoli moderním počítači.
Jak nainstalovat Ollamu krok za krokem
Instalace je překvapivě snadná — zvládne ji i naprostý začátečník, který si nikdy nic z internetu neinstaloval.
Krok 1: Stáhněte instalační soubor
Otevřete prohlížeč a přejděte na adresu ollama.com/download. Stránka automaticky rozpozná váš operační systém (Windows, Mac nebo Linux) a nabídne správnou verzi. Klikněte na tlačítko stahování a počkejte, než se soubor stáhne. Trvá to jen pár sekund.
Krok 2: Nainstalujte aplikaci
Spusťte stažený instalační soubor a postupujte podle pokynů na obrazovce — stejně jako při instalaci jakékoli jiné aplikace. Na Macu jednoduše přetáhněte ikonku Ollamy do složky Aplikace, na Windows projděte standardním průvodcem instalací.
Krok 3: Otevřete aplikaci
Po instalaci spusťte Ollamu. Na většině systémů se aplikace minimalizuje do systémové lišty vpravo dole (Windows) nebo do menu baru nahoře (Mac) — to je naprosto normální. Ollama nyní běží tiše na pozadí jako server, který čeká na vaše příkazy.
Krok 4: Spusťte příkazový řádek (terminál)
Tady přijde jediná část, která může vypadat technicky — příkazový řádek neboli terminál. Ale nebojte se, zvládne to každý:
- Windows: Stiskněte klávesu
Win + R, do políčka napištecmda stiskněte Enter - macOS: Stiskněte
Cmd + mezerník, do vyhledávacího políčka napišteTerminala stiskněte Enter - Linux: Stiskněte
Ctrl + Alt + T
Otevře se okno s textem (obvykle bílé nebo černé pozadí s kurzorem). Právě jste otevřeli terminál — váš přímý komunikační kanál s Ollamou.
Jak to vyzkoušet — vaše první AI konverzace offline
Teď přichází ta vzrušující část. V terminálu napište tento příkaz a stiskněte Enter:
ollama run gemma3
Co se stane: Ollama automaticky stáhne model Gemma 3 od Googlu (přibližně 3 GB dat). Stahování může trvat od několika minut do čtvrt hodiny v závislosti na rychlosti vašeho připojení. Uvidíte průběh stahování přímo v terminálu. Po dokončení se zobrazí výzva >>> a vy můžete začít psát.
Proč začít s Gemma 3?
Model Gemma 3 je ideální volbou pro začátečníky z několika důvodů:
- Zabírá přibližně 3 GB — zvládne ho každý laptop s 8 GB RAM
- Je od Googlu — tedy od prověřeného výrobce s dobrou reputací
- Je výkonný: zvládá psaní textů, zodpovídání otázek, překlady i jednoduché analýzy
- Je zdarma i pro komerční použití
Vaše první otázka
Jakmile se model načte a zobrazí výzva >>>, zkuste napsat:
Vysvětli mi, co je umělá inteligence, jako bych měl 10 let.
Model odpoví přímo v terminálu. Budete překvapeni, jak kvalitní a srozumitelné odpovědi dokáže dát i relativně malý lokální model.
Test offline funkčnosti
Chcete se přesvědčit, že Ollama skutečně funguje bez internetu? Zapněte si v nastavení počítače režim letadlo (nebo jednoduše odpojte Wi-Fi kabel a vypněte Wi-Fi) a zkuste napsat další dotaz. Model odpoví — bez internetu, bez serveru, jen z vašeho počítače. Je to příjemný pocit soběstačnosti.
Ukončení konverzace
Pro ukončení konverzace a návrat na normální příkazový řádek napište /bye a stiskněte Enter, nebo stiskněte Ctrl + C.
Praktické příklady použití
Jak konkrétně lokální AI využít v každodenním životě?
1. Psaní citlivých dokumentů bez úniku dat
Připravujete životopis, žádost o zaměstnání, obchodní nabídku nebo interní firemní dokument? S lokální AI neposíláte tyto citlivé informace na cizí servery. Ollama zpracuje vše lokálně — nikdo jiný váš obsah neuvidí, žádná firma ho nepoužije k trénování svých modelů.
Vyzkoušejte: „Napiš mi formální průvodní dopis na pozici účetního v logistické firmě. Jsem absolvent VŠE s tříletou praxí v oblasti finančního účetnictví."
2. Offline pomoc při cestování nebo výpadku internetu
Jedete vlakem přes tunely, kde není signál? Pracujete na chalupě s pomalým připojením? Letíte letadlem a nemáte Wi-Fi? Lokální AI je vždy dostupná. Nechte si přeložit text, pomozte si s formulací e-mailu nebo hledejte odpovědi na otázky — úplně bez internetu a bez poplatků za data v roamingu.
3. Soukromé experimenty a pochopení AI
Chcete opravdu pochopit, jak AI funguje? Lokální modely jsou ideálním „pískovištěm" pro experimentování bez obav z poplatků za API nebo sdílení dat. Zkoušejte různé modely, různé způsoby formulace otázek a sledujte, jak se výsledky liší. Je to nejlepší způsob, jak se naučit pracovat s AI efektivně.
4. Pomoc s programováním v soukromí
Ollama podporuje specializované modely jako CodeLlama nebo DeepSeek Coder, které jsou optimalizované pro psaní a opravování kódu. Pokud pracujete s kódem, který nesmí opustit váš počítač — firemní projekty, proprietární algoritmy, citlivé skripty — lokální model je ideální řešení.
Jaké modely stáhnout a vyzkoušet
Ollama nabízí přes 200 modelů v katalogu na ollama.com/library. Zde jsou nejlepší volby pro začátečníky:
| Model | Velikost | Nejlepší pro |
|---|---|---|
| gemma3 | ~3 GB | Všeobecné dotazy, texty, překlady |
| llama3.2 | ~2 GB | Rychlé odpovědi, starší nebo pomalejší PC |
| mistral | ~4 GB | Přesné, strukturované výstupy, fakta |
| phi4-mini | ~2.5 GB | Efektivní model od Microsoftu, dobrý výkon |
| codellama | ~4 GB | Pomoc s programováním a kódem |
Pro stažení libovolného modelu bez spuštění stačí napsat:
ollama pull nazev-modelu
A pro spuštění konverzace:
ollama run nazev-modelu
Chcete vidět, které modely máte stažené? Napište:
ollama list
Na co si dát pozor
Ollama je skvělý nástroj, ale má svá omezení. Je dobré o nich vědět předem:
Lokální modely jsou méně výkonné než cloudové. Gemma 3 nebo Llama 3.2 na vašem laptopu nedosáhnou kvality GPT-4o, Claude Opus nebo Gemini 2.5 Pro. Pro náročné úkoly — hlubokou analýzu dat, složité programovací projekty nebo kreativní psaní na úrovni profesionálního autora — cloudové modely stále vedou. Ollama je ale skvělá pro 80 % každodenních úkolů.
Potřebujete dostatečný hardware. Na velmi starém počítači se 4 GB RAM nebo pomalým procesorem bude Ollama fungovat pomalu nebo vůbec. Doporučený minimální hardware je 8 GB RAM a počítač vyrobený po roce 2016.
Stahování modelů chvíli trvá. Modely jsou velké soubory. Počítejte s tím, že první stahování bude trvat 5–30 minut v závislosti na rychlosti vaší sítě. Stahujete jen jednou — pak je model u vás lokálně napořád.
Terminál může být zpočátku neznámý. Pokud jste nikdy nepracovali s příkazovým řádkem, může být trochu nekomfortní. Ale příkazy pro Ollamu jsou skutečně jednoduché — stačí znát jen ollama run, ollama pull a ollama list.
Tipy pro začátečníky
- Začněte s Gemma 3 — je to nejlepší poměr velikosti a výkonu pro začátečníky s 8 GB RAM.
- Vyzkoušejte offline mód — vypněte Wi-Fi a přesvědčte se, že AI opravdu běží lokálně. Je to příjemný pocit.
- Experimentujte s různými modely — každý model má jiné silné stránky. Mistral je přesnější pro faktické odpovědi, Gemma je lepší v plynulém textu.
- Nezapomeňte na aktualizace — příkazem
ollama pull gemma3si kdykoli stáhnete nejnovější verzi modelu. - Prozkoumejte katalog na stránce ollama.com/library — najdete tam přes 200 modelů pro různé účely, od psaní kódu až po analýzu obrázků.
Závěr
Ollama dokazuje, že AI není výsadou pouze velkých technologických gigantů a drahých předplatných. S laptopem, 8 GB RAM a pár minutami na instalaci si můžete postavit vlastní lokální AI, která funguje offline, neodesílá vaše data nikam a je zcela zdarma.
Je to skvělý první krok pro každého, kdo chce AI skutečně pochopit — nebo kdo prostě nechce platit měsíční poplatek za chatbota. Vyzkoušejte to. Budete překvapeni, co moderní open-source modely dokáží.
A až se naučíte základy, Ollama toho nabízí mnohem více: propojení s vlastními aplikacemi, API rozhraní pro vývojáře, spuštění více modelů zároveň nebo automatizované workflow. Ale to je na jiný článek — dnes vám stačí udělat první krok a napsat svůj první dotaz lokální AI.