OllamaDeployer

AWS Cloud Platform

Status do Sistema
Uptime 99.98%
Latência 23ms

Deploy AWS com Ollama

Configure sua instância AWS com modelos LLM do Ollama de forma rápida e segura

Configurações da Instância

Todos os campos são obrigatórios

Escolha conforme o modelo LLM selecionado

Recomendado: Mais próxima da sua localização

Llama 2

7B parâmetros, ideal para tasks gerais

RAM: 4GB+ Popular

Mistral

7B parâmetros, eficiente e rápido

RAM: 4GB+ Rápido

CodeLlama

Especializado em geração de código

RAM: 8GB+ Dev

Gemma

Modelo leve da Google

RAM: 2GB+ Leve

Configurações Avançadas

Status do Deploy

Monitorando...
Instância AWS Provisionamento de recursos
Pendente
Ollama Install Instalação do framework
Pendente
Model Download Download do modelo LLM
Pendente
Tempo estimado: 8-12 minutos