forked from Alexey/DAS_2024_1
.. | ||
.gitignore | ||
docker-compose.yml | ||
README.md |
Распределенные вычисления и приложения Л1
Автор Базунов Андрей Игревич ПИбд-42
В качестве сервисов были выбраны:
1.Ollama (Сервис для использования LLMs моделей) 2.Open Web Ui (Сервис для удобного общения с моделью из сервиса Ollama) 3.Gitea (Гит сервис)
Docker
Перед исполнением вполняем установку docker и проверяем версию
docker-compose --version
Далее производим настройку файла docker-compose.yaml и запускаем контейнер
docker-compose up -d
Для завершения работы контейнера используем команду
docker-compose down
Замечание: после запуска контейнера, необходимо перейти в контейнер ollamа и выполнить установку модели gemma2
docker-compose exec ollama ollama run ollama run gemma2:2b
Далее можно использовать веб сервис Open Web Ui по адресу localhost:8080 для общения с моделью и Gitea по адресу localhost:3000 - демонстрация работы