Skip to content

Latest commit

 

History

History
367 lines (267 loc) · 16.4 KB

File metadata and controls

367 lines (267 loc) · 16.4 KB

Screenshot

English README - README.md

ColAI - Коллаборативная AI Экосистема

ColAI - это полностью офлайн-платформа для коллаборативной работы нескольких нейронных сетей. Система позволяет нескольким AI-моделям общаться друг с другом, играть в игры (например, Мафию), обсуждать проекты и работать вместе, используя локальные модели Ollama.

Основные возможности

  • Коллаборативный режим: До 8 специализированных нейронных сетей работают вместе над любой темой
  • Режим Мафии: AI-игроки участвуют в игре Мафия с реалистичным поведением
  • Полностью офлайн: Все работает локально через Ollama, без зависимости от внешних API
  • Гибкая настройка моделей: Выбор любой модели Ollama при запуске
  • Мультимодальность: Поддержка загрузки изображений и документов
  • Живой чат: Динамическое общение между сетями с инициативой и фрагментированными сообщениями

Системные требования

Минимальные требования:

  • ОС: Windows 10/11, macOS 10.15+, Linux (Ubuntu 20.04+)
  • RAM: 8 ГБ (рекомендуется 16 ГБ для больших моделей)
  • Хранилище: 20 ГБ свободного места (для моделей)
  • Процессор: Современный процессор с поддержкой AVX2
  • GPU: Опционально, но рекомендуется NVIDIA GPU с 6+ ГБ VRAM для лучшей производительности

Рекомендуемые требования:

  • RAM: 32 ГБ
  • GPU: NVIDIA RTX 3060 или лучше (12+ ГБ VRAM)
  • Хранилище: 50+ ГБ SSD

Установка

Шаг 1: Установка Node.js

  1. Скачайте Node.js с официального сайта
  2. Установите версию LTS (рекомендуется 18.x или выше)
  3. Проверьте установку:
node --version
npm --version

Шаг 2: Установка Ollama

Windows:

  1. Скачайте установщик с ollama.ai
  2. Запустите установщик и следуйте инструкциям
  3. Ollama автоматически добавится в PATH

macOS:

brew install ollama
# или скачайте с ollama.ai

Linux:

curl -fsSL https://ollama.ai/install.sh | sh

Шаг 3: Запуск Ollama

Откройте терминал и выполните:

ollama serve

Ollama будет доступен на http://localhost:11434

Важно: Ollama должен быть запущен перед использованием ColAI!

Шаг 4: Загрузка моделей

Рекомендуемые модели для ColAI:

# Основная модель (рекомендуется)
ollama pull qwen2.5:14b

# Альтернативные модели
ollama pull llama3.2:3b        # Легкая модель для слабых ПК
ollama pull deepseek-r1         # Для аналитических задач
ollama pull gemma2:2b          # Для игр Мафии
ollama pull mistral:7b         # Универсальная модель

Примечание: Модель qwen2.5:14b требует ~8 ГБ RAM. Для систем с меньшим объемом памяти используйте qwen2.5:7b или llama3.2:3b.

Шаг 5: Установка ColAI

  1. Распакуйте архив проекта
  2. Откройте терминал в папке проекта
  3. Установите зависимости (если требуется):
npm install

Примечание: ColAI использует нативные ES модули и может работать без npm, если открыть ColAI-master/index.html напрямую в браузере. Однако для лучшей совместимости рекомендуется использовать локальный сервер.

Шаг 6: Запуск локального сервера (опционально)

Для запуска через локальный сервер (из корня проекта):

# Используя Python (если установлен) — запуск из ColAI-master
cd ColAI-master && python -m http.server 8000

# Или используя Node.js http-server
cd ColAI-master && npx http-server -p 8000

# Или используя PHP
cd ColAI-master && php -S localhost:8000

Затем откройте в браузере: http://localhost:8000

Альтернатива: Можно открыть ColAI-master/index.html напрямую в браузере (Chrome, Firefox, Edge).

Использование

Первый запуск

  1. Убедитесь, что Ollama запущен:

    • Откройте терминал и выполните ollama serve
    • Или проверьте, что процесс Ollama работает
  2. Откройте ColAI в браузере

  3. Настройте модель:

    • В поле "Ollama Model" введите название модели (например: qwen2.5:14b)
    • Нажмите "Проверить подключение" для проверки доступности Ollama
    • Убедитесь, что модель загружена: ollama pull qwen2.5:14b
  4. Начните работу:

    • Введите название проекта
    • Опишите тему для обсуждения
    • Настройте параметры (температура, токены и т.д.)
    • Нажмите "Start Collaboration"

Screenshot

Коллаборативный режим

  1. Настройка проекта:

    • Введите название проекта
    • Опишите тему для обсуждения
    • При необходимости загрузите файлы (изображения, PDF, текст)
  2. Выбор сетей:

    • Выберите, какие нейронные сети участвуют (до 8 сетей)
    • Каждая сеть имеет свою специализацию:
      • Analytical Network: Критический анализ
      • Creative Network: Творческое мышление
      • Implementation Network: Практическая реализация
      • Data Science Network: Анализ данных
      • Ethical Network: Этические вопросы
      • User Experience Network: Пользовательский опыт
      • Systems Thinking Network: Системное мышление
      • Devil's Advocate Network: Критическая проверка
  3. Настройка параметров:

    • Temperature: Контролирует случайность ответов (0.0-2.0)
    • Max Tokens: Максимальная длина ответа
    • Top P: Контроль разнообразия
    • Iterations: Количество итераций обсуждения
  4. Запуск обсуждения:

    • Нажмите "Start Collaboration"
    • Сети начнут обсуждать тему по очереди
    • После каждого раунда создается резюме
    • Сети голосуют за принятие резюме
    • Процесс повторяется до завершения всех итераций

Режим Мафии

  1. Перейдите в режим Мафии через меню навигации
  2. Настройте игру:
    • Количество игроков (4-8)
    • Количество мафии
    • Количество раундов обсуждения
    • Язык игры (русский/английский)
  3. Нажмите "Start Game"
  4. Игра проходит через фазы дня и ночи
  5. Можно просматривать "мысли" каждого игрока

Конфигурация

Выбор модели

При запуске проекта введите название модели Ollama в поле "Ollama Model". Примеры:

  • qwen2.5:14b - Рекомендуемая модель (14B параметров)
  • qwen2.5:7b - Облегченная версия (7B параметров)
  • llama3.2:3b - Легкая модель для слабых ПК
  • deepseek-r1 - Для аналитических задач
  • mistral:7b - Универсальная модель

Модель сохраняется в localStorage и будет использоваться при следующем запуске.

Настройка параметров модели

В разделе "Model Settings" можно настроить:

  • System Prompt Template: Шаблон системного промпта для сетей
  • Temperature: Температура генерации (0.0-2.0)
  • Max Tokens: Максимальное количество токенов в ответе
  • Top P: Параметр разнообразия (0.0-1.0)
  • Presence Penalty: Штраф за повторение тем
  • Frequency Penalty: Штраф за повторение фраз

Настройка для разных моделей

Для больших моделей (14B+):

  • Используйте больше RAM (16+ ГБ)
  • Увеличьте max_tokens для более длинных ответов
  • Уменьшите temperature для более детерминированных ответов

Для маленьких моделей (3B-7B):

  • Уменьшите max_tokens (500-1000)
  • Увеличьте temperature для более творческих ответов
  • Используйте меньше сетей одновременно

Устранение неполадок

Ollama не подключается

Проблема: "Ollama не доступен"

Решения:

  1. Убедитесь, что Ollama запущен: ollama serve
  2. Проверьте, что Ollama доступен: откройте http://localhost:11434/api/tags в браузере
  3. Перезапустите Ollama
  4. Проверьте, не блокирует ли файрвол порт 11434

Модель не найдена

Проблема: "Модель не найдена"

Решения:

  1. Проверьте список моделей: ollama list
  2. Загрузите модель: ollama pull <название_модели>
  3. Убедитесь, что название модели введено правильно (с учетом тега, например: qwen2.5:14b)

Медленная работа

Проблема: Модели отвечают очень медленно

Решения:

  1. Используйте меньшую модель (например, qwen2.5:7b вместо qwen2.5:14b)
  2. Уменьшите max_tokens в настройках
  3. Используйте GPU ускорение (установите CUDA для NVIDIA GPU)
  4. Закройте другие приложения, освободите RAM
  5. Используйте меньше сетей одновременно

Ошибки памяти

Проблема: "Out of memory" или браузер зависает

Решения:

  1. Используйте модель меньшего размера
  2. Уменьшите количество активных сетей
  3. Закройте другие вкладки браузера
  4. Увеличьте виртуальную память (Windows) или swap (Linux/macOS)

CORS ошибки

Проблема: Ошибки CORS при обращении к Ollama

Решения:

  1. Убедитесь, что открываете через http://localhost или локальный сервер
  2. Не открывайте ColAI-master/index.html напрямую через file://
  3. Используйте локальный веб-сервер (см. Шаг 6 установки)

Дополнительная информация

Поддерживаемые форматы файлов

  • Изображения: JPG, PNG, GIF, WebP
  • Документы: PDF, DOCX, TXT, CSV

Языки интерфейса

Интерфейс поддерживает множество языков, включая:

  • Русский
  • English
  • Español
  • Français
  • Deutsch
  • И многие другие...

Сохранение данных

Все настройки и выбранная модель сохраняются в localStorage браузера. Обсуждения также могут быть сохранены локально.

Экспорт результатов

Результаты обсуждений можно экспортировать в форматах:

  • JSON
  • TXT
  • HTML

Разработка

Структура проекта

ColAI-master/
├── app.js                 # Главный файл приложения
├── index.html             # HTML интерфейс
├── styles.css             # Стили
├── darkModeManager.js      # Управление темной темой
└── modules/
    ├── framework.js        # Основной фреймворк
    ├── networkManager.js  # Управление сетями
    ├── ollamaManager.js    # Менеджер Ollama
    ├── mafiaMode.js        # Режим Мафии
    ├── mafiaAiClient.js    # AI клиент для Мафии
    └── ...                 # Другие модули

Технологии

  • Frontend: Vanilla JavaScript (ES6+ модули)
  • Backend: Ollama (локальный)
  • Стили: CSS3 с переменными
  • Разметка: HTML5

Лицензия

См. файл LICENSE в корне проекта.

Поддержка

При возникновении проблем:

  1. Проверьте раздел "Устранение неполадок"
  2. Убедитесь, что Ollama установлен и запущен
  3. Проверьте, что модель загружена: ollama list
  4. Проверьте логи браузера (F12 → Console)

Рекомендации по производительности

Для оптимальной работы:

  1. Используйте GPU: Установите CUDA для NVIDIA GPU
  2. Выберите подходящую модель:
    • Для слабых ПК: llama3.2:3b или qwen2.5:7b
    • Для средних ПК: qwen2.5:14b
    • Для мощных ПК: qwen2.5:32b или llama3.1:70b
  3. Настройте параметры: Уменьшите max_tokens для быстрых ответов
  4. Используйте меньше сетей: 2-4 сети работают быстрее, чем 8

Обновление

Для обновления ColAI:

  1. Скачайте новую версию
  2. Замените файлы проекта
  3. Обновите модели Ollama: ollama pull <модель>

Для обновления моделей:

ollama pull qwen2.5:14b  # Обновит модель до последней версии

Приятного использования ColAI!

Если у вас есть вопросы или предложения, создайте issue в репозитории проекта.