DAS_2024_1/bazunov_andrew_lab_1/README.md

1.5 KiB
Raw Blame History

Распределенные вычисления и приложения Л1

Автор Базунов Андрей Игревич ПИбд-42

В качестве сервисов были выбраны:

  • 1.Ollama (Сервис для использования LLMs моделей)
  • 2.Open Web Ui (Сервис для удобного общения с моделью из сервиса Ollama)
  • 3.Gitea (Гит сервис)

Docker

Перед исполнением вполняем установку docker и проверяем версию

docker-compose --version

Далее производим настройку файла docker-compose.yaml и запускаем контейнер

docker-compose up -d

Для завершения работы контейнера используем команду

docker-compose down

Замечание: после запуска контейнера, необходимо перейти в контейнер ollamа и выполнить установку модели gemma2

docker-compose exec ollama ollama run ollama run gemma2:2b

Далее можно использовать веб сервис Open Web Ui по адресу localhost:8080 для общения с моделью и Gitea по адресу localhost:3000 - демонстрация работы