xumarhu.net xumarhu.net biblioteca
Principal > Biblioteca > Manuales de Instalación > Instalación de Ollama (Raspberry Pi)

Instalación de Ollama (Raspberry Pi)

Hay que abrir una terminal para ejecutar las siguientes instrucciones (no hay que teclear el símbolo "$" ya que solo es un indicar de que se debe de ejecutar ese comando dentro de la terminal).

Primero hay que verificar que los paquetes estén actualizados con la instrucción:
$ sudo apt update

Después ver si existen nuevas versiones de los paquetes con:
$ sudo apt upgrade

Ahora hay que instalar "curl", si es que no ha sido instalado previamente con:
$ sudo apt install curl

Ahora se instala "ollama":
$ curl -fsSL https://ollama.com/install.sh | sh

Y aparece en pantalla lo siguiente:
>>> Installing ollama to /usr/local
>>> Downloading Linux arm64 bundle
######################################################################## 100.0%
>>> Creating ollama user...
>>> Adding ollama user to render group...
>>> Adding ollama user to video group...
>>> Adding current user to ollama group...
>>> Creating ollama systemd service...
>>> Enabling and starting ollama service...
Created symlink /etc/systemd/system/default.target.wants/ollama.service → /etc/systemd/system/ollama.service.
>>> The Ollama API is now available at 127.0.0.1:11434.
>>> Install complete. Run "ollama" from the command line.
WARNING: No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode.

Para verificar la versión de "ollama" que se acaba de instalar, escribimos en la terminal:
$ ollama --version

Y en nuestro caso aparecerá
ollama version is 0.13.0

Nota: Esta versión es hasta noviembre 2025.

El siguiente paso es descargar un modelo. Para ver los modelos que se pueden descargar, se pueden consultar de sitio oficial de "ollama":
https://ollama.com/library

También se pueden buscar desde el sitio oficial:
https://ollama.com/search

Para descargar el modelo llama3.2(3B) de 2.0 GB:
$ ollama run llama3.2:3b

Al ejecutar la instrucción anterior se descargará el modelo elegido (tardará un poco de acuerdo a la conexión y estado del servidor) y al terminar aparecerá el siguiente indicador del sistema donde ya se le puede dar cualquier "prompt": >>>

Para ayuda:
>>> /?

Y aparece lo siguiente:
Available Commands:
/set Set session variables
/show Show model information
/load Load a session or model
/save Save your current session
/clear Clear session context
/bye Exit
/?, /help Help for a command
/? shortcuts Help for keyboard shortcuts

Use """ to begin a multi-line message.

Para ver las características del modelo tecleamos:
/show info

Y nos muestra lo siguiente:
Model
architecture llama
parameters 3.2B
context length 131072
embedding length 3072
quantization Q4_K_M

Capabilities
completion
tools

Parameters
stop "<|start_header_id|>"
stop "<|end_header_id|>"
stop "<|eot_id|>"

License
LLAMA 3.2 COMMUNITY LICENSE AGREEMENT
Llama 3.2 Version Release Date: September 25, 2024
...

Para salir del indicador anterior teclear:
>>> /bye

Para ver los modelos que ya tenemos instalados tecleamos:
$ ollama list

Y en nuestro caso aparece lo siguiente:
NAME ID SIZE MODIFIED
llama3.2:3b a80c4f17acd5 2.0 GB 2 months ago

Si se está ejecutando un modelo en una terminal, desde otra terminal podemos ver cuál es el modelo que se está ejecutando actualmente:
$ ollama ps

Y aparece:
NAME ID SIZE PROCESSOR CONTEXT UNTIL
gemma3:latest a2af6cc3eb7f 5.3 GB 100% GPU 4096 3 minutes from now

Si se está ejecutando un modelo en una terminal, desde otra terminal podemos detener el modelo que se está ejecutando actualmente (esto depende también de los permisos que tenga el usuario):
$ ollama stop llama3.2:3b

Para descargar un modelo, pero sin ejecutarlo directamente:
$ ollama pull llama3.2:3b

Para borrar un modelo:
$ ollama rm llama3.2:3b

Y aparece en pantalla:
deleted 'llama3.2:3b'

Para hacer pruebas se recomienda instalar otros modelos pequeños (Small Language Models) como son lo siguientes (con su respectiva instrucción de instalación):

ModeloParámetrosTamañoInstalación
gemma3270M291 MB$ ollama run gemma3:270m
qwen3751M522 MB$ ollama run qwen3:0.6b
deepseek-r11.5B1.1 GB$ ollama run deepseek-r1:1.5b
phi4-mini3.8B2.5 GB$ ollama run phi4-mini:3.8b
llama3.18B4.9 GB$ ollama run llama3.1:8b

Para levantar el servidor de "ollama" y que los modelos puedan ser accesados por otros servicios, como por ejemplo un programa en Python:
$ ollama serve

En caso de actualizar a una versión mas nueva de "ollama", se recomienda borrar todos los archivo con:
$ sudo rm -rf /usr/lib/ollama

Y luevo nuevamente instalar "ollama":
$ curl -fsSL https://ollama.com/install.sh | sh


Usted se encuentra Aquí > Principal > Biblioteca > Manuales de Instalación > Instalación de Ollama (Raspberry Pi)
Portal de Tecnología desarrollado por: Rogelio Ferreira Escutia
Valid CSS Valid XHTML 5