základní pojmy
1 min čtení
Jailbreak
Pokus obejít bezpečnostní omezení AI systému
Vysvětlení
Jailbreak je technika, kdy se uživatelé snaží obejít bezpečnostní omezení AI modelu pomocí speciálně navržených promptů. Cílem je donutit model generovat obsah, který by normálně odmítl. Vývojáři neustále pracují na zlepšení odolnosti proti těmto pokusům.
Příklady
["Prompty předstírající, že jde o fiktivní scénář nebo hru","Požadavek na AI, aby 'zapomněla' svá pravidla"]
Více o Jailbreak
Najděte nástroje, články a prompty související s tímto pojmem pro praktické využití.
Související pojmy
Agent
AI systém schopný autonomně provádět úkoly a interagovat s prostředím
Asistent (Assistant)
AI systém navržený pro pomoc uživatelům s různými úkoly
Benchmark
Standardizovaný test pro měření výkonu AI modelů
Dataset
Strukturovaná sbírka dat používaná pro trénování nebo testování AI
Doladění (Fine-tuning)
Proces dodatečného trénování AI modelu na specifických datech pro konkrétní úlohy
Prozkoumejte AI slovník
Objevte další základní pojmy pojmy a rozšiřte své znalosti umělé inteligence.