fofr/prompt-classifier
Determines the toxicity of text to image prompts, llama-13b fine-tune. [SAFETY_RANKING] between 0 (safe) and 10 (toxic)
Популярность: 1 894 264 запусков
Запуск модели
Для MVP ввод передается raw JSON в поле `input` Replicate.
Чтобы запускать модели, войдите в аккаунт.