From 4a36528cc7a1b2192f930491ed1a66e719f7143d Mon Sep 17 00:00:00 2001 From: Bazunov Andrew Igorevich <35404933+viltskaa@users.noreply.github.com> Date: Wed, 25 Sep 2024 12:35:39 +0400 Subject: [PATCH 1/4] Complete docker compose --- bazunov_andrew_lab_1/.gitignore | 2 + bazunov_andrew_lab_1/README.md | 14 ++++++ bazunov_andrew_lab_1/docker-compose.yml | 61 +++++++++++++++++++++++++ 3 files changed, 77 insertions(+) create mode 100644 bazunov_andrew_lab_1/.gitignore create mode 100644 bazunov_andrew_lab_1/README.md create mode 100644 bazunov_andrew_lab_1/docker-compose.yml diff --git a/bazunov_andrew_lab_1/.gitignore b/bazunov_andrew_lab_1/.gitignore new file mode 100644 index 0000000..a1d0536 --- /dev/null +++ b/bazunov_andrew_lab_1/.gitignore @@ -0,0 +1,2 @@ +ollama +./ollama \ No newline at end of file diff --git a/bazunov_andrew_lab_1/README.md b/bazunov_andrew_lab_1/README.md new file mode 100644 index 0000000..712ccd9 --- /dev/null +++ b/bazunov_andrew_lab_1/README.md @@ -0,0 +1,14 @@ +docker-compose up -d + +docker-compose ps + +docker-compose down + +docker-compose down +docker-compose up -d + +docker-compose logs +docker-compose logs drupal + +docker-compose pull +docker-compose up -d --build \ No newline at end of file diff --git a/bazunov_andrew_lab_1/docker-compose.yml b/bazunov_andrew_lab_1/docker-compose.yml new file mode 100644 index 0000000..74b1f11 --- /dev/null +++ b/bazunov_andrew_lab_1/docker-compose.yml @@ -0,0 +1,61 @@ +services: + gitea: + image: gitea/gitea:latest + container_name: gitea + ports: + - "3000:3000" # Проброс порта Gitea на хост + volumes: + - data:/data + environment: + USER_UID: 1000 + USER_GID: 1000 + + ollama: + image: ollama/ollama:latest # Указываем образ Ollama + container_name: ollama + restart: always + ports: + - 7869:11434 # Проброс порта для Ollama API + pull_policy: always + tty: true + volumes: + - .:/code + - ./ollama/ollama:/root/.ollama # Директория для данных Ollama + environment: + - OLLAMA_KEEP_ALIVE=24h + - OLLAMA_HOST=0.0.0.0 # Указываем порт для API Ollama + networks: + - ollama-docker + command: ["serve"] # Запускаем Ollama в режиме сервера + + ollama-webui: + image: ghcr.io/open-webui/open-webui:main # Образ Open Web UI + container_name: ollama-webui + restart: unless-stopped + volumes: + - ./ollama/ollama-webui:/app/backend/data + ports: + - 8080:8080 # Порт для веб-интерфейса + environment: # https://docs.openwebui.com/getting-started/env-configuration#default_models + - OLLAMA_BASE_URLS=http://host.docker.internal:7869 #comma separated ollama hosts + - ENV=dev + - WEBUI_AUTH=False + - WEBUI_NAME=Viltskaa AI + - WEBUI_URL=http://localhost:8080 + - WEBUI_SECRET_KEY=t0p-s3cr3t + depends_on: + - ollama + extra_hosts: + - host.docker.internal:host-gateway + networks: + - ollama-docker + +networks: + ollama-docker: + external: false + +volumes: + ollama: + driver: local + data: + driver: local \ No newline at end of file From 9e40adc53cb93b4d1803c12913b59a2cebac864a Mon Sep 17 00:00:00 2001 From: Bazunov Andrew Igorevich <35404933+viltskaa@users.noreply.github.com> Date: Wed, 25 Sep 2024 15:19:28 +0400 Subject: [PATCH 2/4] edit docker compose --- bazunov_andrew_lab_1/docker-compose.yml | 18 +++++++++--------- 1 file changed, 9 insertions(+), 9 deletions(-) diff --git a/bazunov_andrew_lab_1/docker-compose.yml b/bazunov_andrew_lab_1/docker-compose.yml index 74b1f11..2149608 100644 --- a/bazunov_andrew_lab_1/docker-compose.yml +++ b/bazunov_andrew_lab_1/docker-compose.yml @@ -1,21 +1,21 @@ services: - gitea: - image: gitea/gitea:latest - container_name: gitea + gitea: # Имя сервиса + image: gitea/gitea:latest # Имя образа + container_name: gitea # Имя контейнера, может быть произовольным ports: - "3000:3000" # Проброс порта Gitea на хост - volumes: + volumes: # хранилище - data:/data - environment: + environment: # переменные окружения USER_UID: 1000 USER_GID: 1000 ollama: - image: ollama/ollama:latest # Указываем образ Ollama + image: ollama/ollama:latest container_name: ollama restart: always ports: - - 7869:11434 # Проброс порта для Ollama API + - 7869:11434 pull_policy: always tty: true volumes: @@ -23,7 +23,7 @@ services: - ./ollama/ollama:/root/.ollama # Директория для данных Ollama environment: - OLLAMA_KEEP_ALIVE=24h - - OLLAMA_HOST=0.0.0.0 # Указываем порт для API Ollama + - OLLAMA_HOST=0.0.0.0 # Указываем хост для API Ollama networks: - ollama-docker command: ["serve"] # Запускаем Ollama в режиме сервера @@ -37,7 +37,7 @@ services: ports: - 8080:8080 # Порт для веб-интерфейса environment: # https://docs.openwebui.com/getting-started/env-configuration#default_models - - OLLAMA_BASE_URLS=http://host.docker.internal:7869 #comma separated ollama hosts + - OLLAMA_BASE_URLS=http://host.docker.internal:7869 - ENV=dev - WEBUI_AUTH=False - WEBUI_NAME=Viltskaa AI From 6e7055efa4a063b4044a0ffe0e3b0ba78f755575 Mon Sep 17 00:00:00 2001 From: Bazunov Andrew Igorevich <35404933+viltskaa@users.noreply.github.com> Date: Wed, 25 Sep 2024 15:37:57 +0400 Subject: [PATCH 3/4] update readme --- bazunov_andrew_lab_1/README.md | 41 +++++++++++++++++++++++++--------- 1 file changed, 30 insertions(+), 11 deletions(-) diff --git a/bazunov_andrew_lab_1/README.md b/bazunov_andrew_lab_1/README.md index 712ccd9..b369cd1 100644 --- a/bazunov_andrew_lab_1/README.md +++ b/bazunov_andrew_lab_1/README.md @@ -1,14 +1,33 @@ +# Распределенные вычисления и приложения Л1 +## _Автор Базунов Андрей Игревич ПИбд-42_ + +В качестве сервисов были выбраны: +> 1.Ollama (_Сервис для использования LLMs моделей_) +> 2.Open Web Ui (_Сервис для удобного общения с моделью из сервиса Ollama_) +> 3.Gitea (_Гит сервис_) + +# Docker + +>Перед исполнением вполняем установку docker и проверяем версию + +```sh +docker-compose --version +``` + +>Далее производим настройку файла docker-compose.yaml и запускаем контейнер + +```sh docker-compose up -d +``` -docker-compose ps - +>Для завершения работы контейнера используем команду +```sh docker-compose down - -docker-compose down -docker-compose up -d - -docker-compose logs -docker-compose logs drupal - -docker-compose pull -docker-compose up -d --build \ No newline at end of file +``` +--- +> Замечание: после запуска контейнера, необходимо перейти в контейнер **ollamа** и выполнить установку модели [gemma2](https://ollama.com/library/gemma2:2b) +> ```sh +> docker-compose exec ollama ollama run ollama run gemma2:2b +> ``` +--- +Далее можно использовать веб сервис Open Web Ui по адресу **localhost:8080** для общения с моделью и Gitea по адресу **localhost:3000** - [демонстрация работы](https://vk.com/video/@viltskaa?z=video236673313_456239574%2Fpl_236673313_-2) From 7184d6d728e25e82399667d4fc84f8e209cb366d Mon Sep 17 00:00:00 2001 From: viltskaa Date: Wed, 25 Sep 2024 15:44:25 +0400 Subject: [PATCH 4/4] =?UTF-8?q?=D0=9E=D0=B1=D0=BD=D0=BE=D0=B2=D0=B8=D1=82?= =?UTF-8?q?=D1=8C=20bazunov=5Fandrew=5Flab=5F1/README.md?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- bazunov_andrew_lab_1/README.md | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/bazunov_andrew_lab_1/README.md b/bazunov_andrew_lab_1/README.md index b369cd1..273b8ef 100644 --- a/bazunov_andrew_lab_1/README.md +++ b/bazunov_andrew_lab_1/README.md @@ -2,9 +2,9 @@ ## _Автор Базунов Андрей Игревич ПИбд-42_ В качестве сервисов были выбраны: -> 1.Ollama (_Сервис для использования LLMs моделей_) -> 2.Open Web Ui (_Сервис для удобного общения с моделью из сервиса Ollama_) -> 3.Gitea (_Гит сервис_) +- 1.Ollama (_Сервис для использования LLMs моделей_) +- 2.Open Web Ui (_Сервис для удобного общения с моделью из сервиса Ollama_) +- 3.Gitea (_Гит сервис_) # Docker