general 1 min čtení

RLHF

Metoda trénování AI pomocí lidské zpětné vazby

Vysvětlení

RLHF (Reinforcement Learning from Human Feedback) je technika ladění AI modelů pomocí hodnocení od lidských anotátorů. Lidé hodnotí kvalitu odpovědí modelu a tento feedback se používá k jeho zlepšování. RLHF pomáhá modelům lépe porozumět lidským preferencím a generovat užitečnější, bezpečnější odpovědi.

Příklady

ChatGPT trénovaný s lidským feedbackem, Claude optimalizovaný na užitečnost

Více o RLHF

Najděte nástroje, články a prompty související s tímto pojmem pro praktické využití.

Prozkoumejte AI slovník

Objevte další general pojmy a rozšiřte své znalosti umělé inteligence.