lucataco/dpo-sdxl

Direct Preference Optimization (DPO) is a method to align diffusion models to text human preferences by directly optimizing on human comparison data

Популярность: 2 239 запусков

Запуск модели

Для MVP ввод передается raw JSON в поле `input` Replicate.

Чтобы запускать модели, войдите в аккаунт.

Метаданные

  • Ownerlucataco
  • Namedpo-sdxl
  • Visibilitypublic
  • Latest Versiond41d041f711763cfa9d34f81c9f64da035ae25dbc44ca4e3cea5e89f9f44d724

GitHub

License

Paper