general
1 min čtení
Halucinace
Když AI vygeneruje nepravdivé nebo vymyšlené informace
Vysvětlení
Halucinace v AI je situace, kdy model prezentuje nesprávné, vymyšlené nebo neexistující informace s přesvědčivostí, jako by byly faktické. Často se projevuje jako vymyšlené citace, neexistující odkazy, falešné statistiky nebo smyšlené události. Je to jeden z hlavních limitů současných AI systémů a uživatelé by měli vždy ověřovat důležité informace z nezávislých zdrojů.
Příklady
Vymyšlené citace z neexistujících článků, falešné historické události, nesprávné matematické výpočty
Více o Halucinace
Najděte nástroje, články a prompty související s tímto pojmem pro praktické využití.
Související pojmy
Adversariální prompt
Prompt navržený k obcházení bezpečnostních opatření AI systému
API
Rozhraní pro komunikaci mezi aplikacemi a službami
Bezpečnost AI
Praktiky a opatření pro bezpečné nasazení AI systémů
Chatbot
Počítačový program navržený pro konverzaci s lidmi
Few-shot learning
Technika učení s minimálním počtem příkladů
Prozkoumejte AI slovník
Objevte další general pojmy a rozšiřte své znalosti umělé inteligence.