English README - README.md
ColAI - это полностью офлайн-платформа для коллаборативной работы нескольких нейронных сетей. Система позволяет нескольким AI-моделям общаться друг с другом, играть в игры (например, Мафию), обсуждать проекты и работать вместе, используя локальные модели Ollama.
- Коллаборативный режим: До 8 специализированных нейронных сетей работают вместе над любой темой
- Режим Мафии: AI-игроки участвуют в игре Мафия с реалистичным поведением
- Полностью офлайн: Все работает локально через Ollama, без зависимости от внешних API
- Гибкая настройка моделей: Выбор любой модели Ollama при запуске
- Мультимодальность: Поддержка загрузки изображений и документов
- Живой чат: Динамическое общение между сетями с инициативой и фрагментированными сообщениями
- ОС: Windows 10/11, macOS 10.15+, Linux (Ubuntu 20.04+)
- RAM: 8 ГБ (рекомендуется 16 ГБ для больших моделей)
- Хранилище: 20 ГБ свободного места (для моделей)
- Процессор: Современный процессор с поддержкой AVX2
- GPU: Опционально, но рекомендуется NVIDIA GPU с 6+ ГБ VRAM для лучшей производительности
- RAM: 32 ГБ
- GPU: NVIDIA RTX 3060 или лучше (12+ ГБ VRAM)
- Хранилище: 50+ ГБ SSD
- Скачайте Node.js с официального сайта
- Установите версию LTS (рекомендуется 18.x или выше)
- Проверьте установку:
node --version
npm --version- Скачайте установщик с ollama.ai
- Запустите установщик и следуйте инструкциям
- Ollama автоматически добавится в PATH
brew install ollama
# или скачайте с ollama.aicurl -fsSL https://ollama.ai/install.sh | shОткройте терминал и выполните:
ollama serveOllama будет доступен на http://localhost:11434
Важно: Ollama должен быть запущен перед использованием ColAI!
Рекомендуемые модели для ColAI:
# Основная модель (рекомендуется)
ollama pull qwen2.5:14b
# Альтернативные модели
ollama pull llama3.2:3b # Легкая модель для слабых ПК
ollama pull deepseek-r1 # Для аналитических задач
ollama pull gemma2:2b # Для игр Мафии
ollama pull mistral:7b # Универсальная модельПримечание: Модель qwen2.5:14b требует ~8 ГБ RAM. Для систем с меньшим объемом памяти используйте qwen2.5:7b или llama3.2:3b.
- Распакуйте архив проекта
- Откройте терминал в папке проекта
- Установите зависимости (если требуется):
npm installПримечание: ColAI использует нативные ES модули и может работать без npm, если открыть ColAI-master/index.html напрямую в браузере. Однако для лучшей совместимости рекомендуется использовать локальный сервер.
Для запуска через локальный сервер (из корня проекта):
# Используя Python (если установлен) — запуск из ColAI-master
cd ColAI-master && python -m http.server 8000
# Или используя Node.js http-server
cd ColAI-master && npx http-server -p 8000
# Или используя PHP
cd ColAI-master && php -S localhost:8000Затем откройте в браузере: http://localhost:8000
Альтернатива: Можно открыть ColAI-master/index.html напрямую в браузере (Chrome, Firefox, Edge).
-
Убедитесь, что Ollama запущен:
- Откройте терминал и выполните
ollama serve - Или проверьте, что процесс Ollama работает
- Откройте терминал и выполните
-
Откройте ColAI в браузере
-
Настройте модель:
- В поле "Ollama Model" введите название модели (например:
qwen2.5:14b) - Нажмите "Проверить подключение" для проверки доступности Ollama
- Убедитесь, что модель загружена:
ollama pull qwen2.5:14b
- В поле "Ollama Model" введите название модели (например:
-
Начните работу:
- Введите название проекта
- Опишите тему для обсуждения
- Настройте параметры (температура, токены и т.д.)
- Нажмите "Start Collaboration"
-
Настройка проекта:
- Введите название проекта
- Опишите тему для обсуждения
- При необходимости загрузите файлы (изображения, PDF, текст)
-
Выбор сетей:
- Выберите, какие нейронные сети участвуют (до 8 сетей)
- Каждая сеть имеет свою специализацию:
- Analytical Network: Критический анализ
- Creative Network: Творческое мышление
- Implementation Network: Практическая реализация
- Data Science Network: Анализ данных
- Ethical Network: Этические вопросы
- User Experience Network: Пользовательский опыт
- Systems Thinking Network: Системное мышление
- Devil's Advocate Network: Критическая проверка
-
Настройка параметров:
- Temperature: Контролирует случайность ответов (0.0-2.0)
- Max Tokens: Максимальная длина ответа
- Top P: Контроль разнообразия
- Iterations: Количество итераций обсуждения
-
Запуск обсуждения:
- Нажмите "Start Collaboration"
- Сети начнут обсуждать тему по очереди
- После каждого раунда создается резюме
- Сети голосуют за принятие резюме
- Процесс повторяется до завершения всех итераций
- Перейдите в режим Мафии через меню навигации
- Настройте игру:
- Количество игроков (4-8)
- Количество мафии
- Количество раундов обсуждения
- Язык игры (русский/английский)
- Нажмите "Start Game"
- Игра проходит через фазы дня и ночи
- Можно просматривать "мысли" каждого игрока
При запуске проекта введите название модели Ollama в поле "Ollama Model". Примеры:
qwen2.5:14b- Рекомендуемая модель (14B параметров)qwen2.5:7b- Облегченная версия (7B параметров)llama3.2:3b- Легкая модель для слабых ПКdeepseek-r1- Для аналитических задачmistral:7b- Универсальная модель
Модель сохраняется в localStorage и будет использоваться при следующем запуске.
В разделе "Model Settings" можно настроить:
- System Prompt Template: Шаблон системного промпта для сетей
- Temperature: Температура генерации (0.0-2.0)
- Max Tokens: Максимальное количество токенов в ответе
- Top P: Параметр разнообразия (0.0-1.0)
- Presence Penalty: Штраф за повторение тем
- Frequency Penalty: Штраф за повторение фраз
- Используйте больше RAM (16+ ГБ)
- Увеличьте
max_tokensдля более длинных ответов - Уменьшите
temperatureдля более детерминированных ответов
- Уменьшите
max_tokens(500-1000) - Увеличьте
temperatureдля более творческих ответов - Используйте меньше сетей одновременно
Проблема: "Ollama не доступен"
Решения:
- Убедитесь, что Ollama запущен:
ollama serve - Проверьте, что Ollama доступен: откройте
http://localhost:11434/api/tagsв браузере - Перезапустите Ollama
- Проверьте, не блокирует ли файрвол порт 11434
Проблема: "Модель не найдена"
Решения:
- Проверьте список моделей:
ollama list - Загрузите модель:
ollama pull <название_модели> - Убедитесь, что название модели введено правильно (с учетом тега, например:
qwen2.5:14b)
Проблема: Модели отвечают очень медленно
Решения:
- Используйте меньшую модель (например,
qwen2.5:7bвместоqwen2.5:14b) - Уменьшите
max_tokensв настройках - Используйте GPU ускорение (установите CUDA для NVIDIA GPU)
- Закройте другие приложения, освободите RAM
- Используйте меньше сетей одновременно
Проблема: "Out of memory" или браузер зависает
Решения:
- Используйте модель меньшего размера
- Уменьшите количество активных сетей
- Закройте другие вкладки браузера
- Увеличьте виртуальную память (Windows) или swap (Linux/macOS)
Проблема: Ошибки CORS при обращении к Ollama
Решения:
- Убедитесь, что открываете через
http://localhostили локальный сервер - Не открывайте
ColAI-master/index.htmlнапрямую черезfile:// - Используйте локальный веб-сервер (см. Шаг 6 установки)
- Изображения: JPG, PNG, GIF, WebP
- Документы: PDF, DOCX, TXT, CSV
Интерфейс поддерживает множество языков, включая:
- Русский
- English
- Español
- Français
- Deutsch
- И многие другие...
Все настройки и выбранная модель сохраняются в localStorage браузера. Обсуждения также могут быть сохранены локально.
Результаты обсуждений можно экспортировать в форматах:
- JSON
- TXT
- HTML
ColAI-master/
├── app.js # Главный файл приложения
├── index.html # HTML интерфейс
├── styles.css # Стили
├── darkModeManager.js # Управление темной темой
└── modules/
├── framework.js # Основной фреймворк
├── networkManager.js # Управление сетями
├── ollamaManager.js # Менеджер Ollama
├── mafiaMode.js # Режим Мафии
├── mafiaAiClient.js # AI клиент для Мафии
└── ... # Другие модули
- Frontend: Vanilla JavaScript (ES6+ модули)
- Backend: Ollama (локальный)
- Стили: CSS3 с переменными
- Разметка: HTML5
См. файл LICENSE в корне проекта.
При возникновении проблем:
- Проверьте раздел "Устранение неполадок"
- Убедитесь, что Ollama установлен и запущен
- Проверьте, что модель загружена:
ollama list - Проверьте логи браузера (F12 → Console)
- Используйте GPU: Установите CUDA для NVIDIA GPU
- Выберите подходящую модель:
- Для слабых ПК:
llama3.2:3bилиqwen2.5:7b - Для средних ПК:
qwen2.5:14b - Для мощных ПК:
qwen2.5:32bилиllama3.1:70b
- Для слабых ПК:
- Настройте параметры: Уменьшите
max_tokensдля быстрых ответов - Используйте меньше сетей: 2-4 сети работают быстрее, чем 8
Для обновления ColAI:
- Скачайте новую версию
- Замените файлы проекта
- Обновите модели Ollama:
ollama pull <модель>
Для обновления моделей:
ollama pull qwen2.5:14b # Обновит модель до последней версииПриятного использования ColAI!
Если у вас есть вопросы или предложения, создайте issue в репозитории проекта.