lucataco/prompt-guard-86m

LLM-powered applications are susceptible to prompt attacks, which are prompts intentionally designed to subvert the developer’s intended behavior of the LLM

Популярность: 36 запусков

Запуск модели

Для MVP ввод передается raw JSON в поле `input` Replicate.

Чтобы запускать модели, войдите в аккаунт.

Метаданные

  • Ownerlucataco
  • Nameprompt-guard-86m
  • Visibilitypublic
  • Latest Version6d7c45ec2e2e5e90f49f591f571153590fcfc5ec5175fb26c5ea1fa3602ea116

GitHub

License