general
1 min čtení
RLHF
Metoda trénování AI pomocí lidské zpětné vazby
Vysvětlení
RLHF (Reinforcement Learning from Human Feedback) je technika ladění AI modelů pomocí hodnocení od lidských anotátorů. Lidé hodnotí kvalitu odpovědí modelu a tento feedback se používá k jeho zlepšování. RLHF pomáhá modelům lépe porozumět lidským preferencím a generovat užitečnější, bezpečnější odpovědi.
Příklady
ChatGPT trénovaný s lidským feedbackem, Claude optimalizovaný na užitečnost
Více o RLHF
Najděte nástroje, články a prompty související s tímto pojmem pro praktické využití.
Související pojmy
Adversariální prompt
Prompt navržený k obcházení bezpečnostních opatření AI systému
API
Rozhraní pro komunikaci mezi aplikacemi a službami
Bezpečnost AI
Praktiky a opatření pro bezpečné nasazení AI systémů
Chatbot
Počítačový program navržený pro konverzaci s lidmi
Few-shot learning
Technika učení s minimálním počtem příkladů
Prozkoumejte AI slovník
Objevte další general pojmy a rozšiřte své znalosti umělé inteligence.