general 1 min čtení

Halucinace

Když AI vygeneruje nepravdivé nebo vymyšlené informace

Vysvětlení

Halucinace v AI je situace, kdy model prezentuje nesprávné, vymyšlené nebo neexistující informace s přesvědčivostí, jako by byly faktické. Často se projevuje jako vymyšlené citace, neexistující odkazy, falešné statistiky nebo smyšlené události. Je to jeden z hlavních limitů současných AI systémů a uživatelé by měli vždy ověřovat důležité informace z nezávislých zdrojů.

Příklady

Vymyšlené citace z neexistujících článků, falešné historické události, nesprávné matematické výpočty

Více o Halucinace

Najděte nástroje, články a prompty související s tímto pojmem pro praktické využití.

Prozkoumejte AI slovník

Objevte další general pojmy a rozšiřte své znalosti umělé inteligence.