základní pojmy 1 min čtení

Jailbreak

Pokus obejít bezpečnostní omezení AI systému

Vysvětlení

Jailbreak je technika, kdy se uživatelé snaží obejít bezpečnostní omezení AI modelu pomocí speciálně navržených promptů. Cílem je donutit model generovat obsah, který by normálně odmítl. Vývojáři neustále pracují na zlepšení odolnosti proti těmto pokusům.

Příklady

["Prompty předstírající, že jde o fiktivní scénář nebo hru","Požadavek na AI, aby 'zapomněla' svá pravidla"]

Více o Jailbreak

Najděte nástroje, články a prompty související s tímto pojmem pro praktické využití.

Prozkoumejte AI slovník

Objevte další základní pojmy pojmy a rozšiřte své znalosti umělé inteligence.