Crie um ambiente virtual Python
Instale o llama-stack
Com o ambiente ativado, instale o llama-stack
:
Baixe o modelo
llama model download --source meta --model-id Llama-4-Scout-17B-16E-Instruct
Importante: Será necessário fornecer o URL assinado para o modelo. Sem ele, não roda!
Verifique se o modelo foi baixado corretamente
Construa a imagem do llama-stack
Crie a imagem do stack que vai rodar o modelo:
Durante a criação, será solicitado que informe os provedores para várias APIs, exemplo:
Por fim vai gerar um arquivo de configuração YAML, localizado em:
Execute o llama-stack
llama stack run /home/ipec/.llama/distributions/llamastack-INI/llamastack-INI-run.yaml
Teste o modelo
Faça um POST simples: