Это простая оболочка чата для удобного общения с моделями Ollama, сделанная как pet-проект при активной помощи ИИ.
Требуется запущенный Ollama на вашем компьютере! Скачать можно на
ollama.com.
Исходный код этого чата можно найти на
github.com/Arsmeen/ollama-chat-shell
Проект изначально делался под
gemma3:12b, но можно использовать любую модель, поддерживаемую Ollama и вашим железом.
История сообщений сохраняется в
chat_history/ChatHistory.json.gz
, и при достижении лимита
history_max_file_kb
создаются дополнительные архивы.
Так как gemma3:12b видит изображения только при инициализации, а не в чате, реализовано так: если к сообщению прикреплено изображение — модель будет инициализирована заново, чтобы "увидеть" его, но она не увидит историю сообщений до этого. Это важно помнить. Для тестов есть опция
image_include_messages
— она принудительно включает указанное число нитей чата в сообщение, но любые значения кроме 0 обычно приводят к галлюцинациям модели. Следующее сообщение после такого уже включает всю историю (до лимита
history_max_chars
) как обычно.
Помните, что при первом запуске, если модель не скачана через ollama, чат будет ждать её загрузки — время зависит от размера модели и скорости интернета.