nateraw/mixtral-8x7b-32kseqlen
The Mixtral-8x7B Large Language Model (LLM) is a pretrained generative Sparse Mixture of Experts.
Популярность: 15 143 запусков
Запуск модели
Для MVP ввод передается raw JSON в поле `input` Replicate.
Чтобы запускать модели, войдите в аккаунт.