lucataco/dpo-sdxl
Direct Preference Optimization (DPO) is a method to align diffusion models to text human preferences by directly optimizing on human comparison data
Популярность: 2 239 запусков
Запуск модели
Для MVP ввод передается raw JSON в поле `input` Replicate.
Чтобы запускать модели, войдите в аккаунт.