services: gitea: image: gitea/gitea:latest container_name: gitea ports: - "3000:3000" # Проброс порта Gitea на хост volumes: - data:/data environment: USER_UID: 1000 USER_GID: 1000 ollama: image: ollama/ollama:latest # Указываем образ Ollama container_name: ollama restart: always ports: - 7869:11434 # Проброс порта для Ollama API pull_policy: always tty: true volumes: - .:/code - ./ollama/ollama:/root/.ollama # Директория для данных Ollama environment: - OLLAMA_KEEP_ALIVE=24h - OLLAMA_HOST=0.0.0.0 # Указываем порт для API Ollama networks: - ollama-docker command: ["serve"] # Запускаем Ollama в режиме сервера ollama-webui: image: ghcr.io/open-webui/open-webui:main # Образ Open Web UI container_name: ollama-webui restart: unless-stopped volumes: - ./ollama/ollama-webui:/app/backend/data ports: - 8080:8080 # Порт для веб-интерфейса environment: # https://docs.openwebui.com/getting-started/env-configuration#default_models - OLLAMA_BASE_URLS=http://host.docker.internal:7869 #comma separated ollama hosts - ENV=dev - WEBUI_AUTH=False - WEBUI_NAME=Viltskaa AI - WEBUI_URL=http://localhost:8080 - WEBUI_SECRET_KEY=t0p-s3cr3t depends_on: - ollama extra_hosts: - host.docker.internal:host-gateway networks: - ollama-docker networks: ollama-docker: external: false volumes: ollama: driver: local data: driver: local