Ollama install ubuntu 20.04: Perbedaan antara revisi

Dari Dokumentasi Robie
Loncat ke navigasi Loncat ke pencarian
(←Membuat halaman berisi 'Sumber: https://www.jeremymorgan.com/blog/generative-ai/local-llm-ubuntu/ Pastikan: * OS bisa linux server, seperti ubuntu server. * Memory RAM pastikan cukup untuk menyimpan model-nya. Model llama3 butuh memory paling tidak 8GB. * Kalau mau lebih enak/lebih cepat sebaiknya pakai GPU, seperti nvidia telsa yang agak baru. Install aplikasi pendukung sudo su apt install curl net-tools Download curl -fsSL https://ollama.com/install.sh | sh Sebagai user bi...')
 
k (Melindungi "Ollama install ubuntu 20.04" ([Sunting=Hanya untuk pengurus] (selamanya) [Pindahkan=Hanya untuk pengurus] (selamanya)))

Revisi per 25 November 2024 13.23

Sumber: https://www.jeremymorgan.com/blog/generative-ai/local-llm-ubuntu/

Pastikan:

  • OS bisa linux server, seperti ubuntu server.
  • Memory RAM pastikan cukup untuk menyimpan model-nya. Model llama3 butuh memory paling tidak 8GB.
  • Kalau mau lebih enak/lebih cepat sebaiknya pakai GPU, seperti nvidia telsa yang agak baru.


Install aplikasi pendukung

sudo su
apt install curl net-tools


Download

curl -fsSL https://ollama.com/install.sh | sh

Sebagai user biasa run & download model

ollama serve
ollama pull llama3
ollama run llama3


OPTIONAL: Sebagai super user,

sudo su
sudo snap install --beta open-webui


Contoh

curl http://localhost:11434/api/generate -d '{
  "model" : "llama3",
  "prompt" : "tell me a joke",
  "stream" : false
  }'
  


Referensi