fofr/prompt-classifier

Determines the toxicity of text to image prompts, llama-13b fine-tune. [SAFETY_RANKING] between 0 (safe) and 10 (toxic)

Популярность: 1 894 264 запусков

Запуск модели

Для MVP ввод передается raw JSON в поле `input` Replicate.

Чтобы запускать модели, войдите в аккаунт.

Метаданные

  • Ownerfofr
  • Nameprompt-classifier
  • Visibilitypublic
  • Latest Version1ffac777bf2c1f5a4a5073faf389fefe59a8b9326b3ca329e9d576cce658a00f