t20260423
¡Esta es una revisión vieja del documento!
Tabla de Contenidos
TALLER 🧠 IA LOCAL-SIN NUBE
Ya tengo LInux
- Instalar docker:
sudo apt update && sudo apt install docker
Instalación LInux sobre Windows
- Crear MV con VirtualBox
- Hardware
- RAM 8192 | CPU 8 |Alamacenamiento 40Gb
- Modificaciones
- RED: Adicionar Red Solo anfitrion
- PANTALLA: Memoria de vídeo: 128Mb | Controlador gráfico VBoxSVGA
- Realizar instalación.
- Post instalación
- Instalar terminator:
sudo apt update && sudo apt install terminator -y
Instalación OLLAMA
- Instalación
curl -fsSL https://ollama.com/install.sh | sh
- Descargar MLL
ollama pull llama3.2:3b
- Verificación
ollama run llama3.2:3b
- Salir CTRL + D
Instalación Open Web UI
- Crear carpeta
mkdir owui && cd owui/
- Dentro de owui/ crear el archivos compose.yml
- compose.yml
services: open-webui: image: ghcr.io/open-webui/open-webui:main container_name: open-webui restart: always network_mode: host volumes: - open-webui:/app/backend/data extra_hosts: - "host.docker.internal:host-gateway" environment: - OLLAMA_BASE_URL=http://localhost:11434 volumes: open-webui: name: open-webui
- Descarga y ejecuación
docker compose up -d
- Verificación http://localhost:8080
t20260423.1776993164.txt.gz · Última modificación: por jared
