Переключить на английский

Простая оболочка чата для Ollama

Это простая оболочка чата для удобного общения с моделями Ollama, сделанная как pet-проект при активной помощи ИИ.
Требуется запущенный Ollama на вашем компьютере! Скачать можно на ollama.com.

Исходный код этого чата можно найти на github.com/Arsmeen/ollama-chat-shell

Проект изначально делался под gemma3:12b, но можно использовать любую модель, поддерживаемую Ollama и вашим железом.

История сообщений сохраняется в chat_history/ChatHistory.json.gz, и при достижении лимита history_max_file_kb создаются дополнительные архивы.

Так как gemma3:12b видит изображения только при инициализации, а не в чате, реализовано так: если к сообщению прикреплено изображение — модель будет инициализирована заново, чтобы "увидеть" его, но она не увидит историю сообщений до этого. Это важно помнить. Для тестов есть опция image_include_messages — она принудительно включает указанное число нитей чата в сообщение, но любые значения кроме 0 обычно приводят к галлюцинациям модели. Следующее сообщение после такого уже включает всю историю (до лимита history_max_chars) как обычно.

Помните, что при первом запуске, если модель не скачана через ollama, чат будет ждать её загрузки — время зависит от размера модели и скорости интернета.
Бинарные сборки в архиве: