general
1 min čtení
Adversariální prompt
Prompt navržený k obcházení bezpečnostních opatření AI systému
Vysvětlení
Adversariální prompt je speciálně vytvořená instrukce, která se snaží přimět AI model k nežádoucímu chování nebo obejít jeho bezpečnostní omezení. Může využívat techniky jako "jailbreaking", roleplaying nebo kódování požadavků. Tyto prompty pomáhají testovat robustnost AI systémů, ale mohou být zneužity k získání škodlivého obsahu.
Příklady
Pokusy o obejití filtrů pomocí rolí, kódované požadavky, "DAN" (Do Anything Now) prompty
Více o Adversariální prompt
Najděte nástroje, články a prompty související s tímto pojmem pro praktické využití.
Související pojmy
API
Rozhraní pro komunikaci mezi aplikacemi a službami
Bezpečnost AI
Praktiky a opatření pro bezpečné nasazení AI systémů
Chatbot
Počítačový program navržený pro konverzaci s lidmi
Few-shot learning
Technika učení s minimálním počtem příkladů
GPT
Generativní předtrénovaný transformer - typ AI jazykového modelu
Prozkoumejte AI slovník
Objevte další general pojmy a rozšiřte své znalosti umělé inteligence.