Diyalog, tamamen yerel çalışan, Ollama tabanlı, açık kaynak bir sohbet yapay zekâsı projesidir. Bu proje; bulut bağımlılığı olmadan, API anahtarı gerektirmeden, kendi bilgisayarınızda veya sunucunuzda özgürce çalıştırabileceğiniz modern bir AI altyapısı sunar.
Diyalog ile 10–15 dakika içinde şunları kurarsın:
- 🔒 Tamamen yerel çalışan sohbet yapay zekâ altyapısı
- 🔑 API anahtarı yok, bulut bağımlılığı yok
- 🧠
prompts/ile modüler sistem prompt yönetimi (davranış / ton / sınır) - ⚙️ Ollama üzerinden model değiştirilebilir yapı
- 🌐 İstersen sunucuya alıp herkese açık çalıştırabileceğin bir temel
Bu repo “demo” değil.
Kendi yapay zekâ ürününü büyütebilmen için hazırlanmış bir altyapı.
- Local AI isteyen geliştiriciler
- “ChatGPT gibi ama benim kontrolümde olsun” diyenler
- Ollama’yı ürünleştirmek isteyenler
- Prompt’ları dosya bazlı, modüler yönetmek isteyenler
- Türkçe kaynakla hızlı başlamak isteyenler
- Repo’yu clone’la
- Ollama + modeli kur
prompts/içine kendi system prompt’unu koy- Uvicorn ile ayağa kaldır
Bitti: yerel çalışan sohbet yapay zekân hazır.
Bu README, projeyi hızlıca ayağa kaldırman için yeterlidir.
Daha derin kullanım, prompt sistemi ve genişletme senaryoları için:
👉 Wiki: https://github.com/y4gizbey/diyalog/wiki
Wiki’de şunları bulursun:
- Prompt sistemi ve system prompt mantığı
- Model davranışlarını özelleştirme
- Sunucuya açma ve yapılandırma notları
- Genişletme / ürünleştirme fikirleri
Bu proje özellikle Türk girişimci geliştiricilere ilham vermek amacıyla hazırlanmıştır. Amaç; herkesin kendi yapay zekâ ürününü, kendi kurallarıyla ve tam kontrolle inşa edebilmesidir.
Diyalog bir “oyuncak AI” değil;
- geliştirilebilir
- ölçeklenebilir
- farklı modellere uyarlanabilir
bir altyapı sunar.
- Backend: Python + FastAPI
- LLM Runtime: Ollama
- Varsayılan Model: Qwen2.5
- Frontend: Web tabanlı (HTML / CSS / JS)
- Lisans: MIT
Python 3.10+ önerilir.
python --versionEğer yüklü değilse: 👉 https://www.python.org/downloads/
python -m venv .venv
source .venv/bin/activate # Linux / macOS
.venv\Scripts\activate # Windowspip install fastapi uvicorn requestsOllama, büyük dil modellerini (LLM) yerel olarak çalıştırmanızı sağlayan bir runtime sistemidir.
- Bulut yok
- API anahtarı yok
- Tam kontrol sizde
ollama --versionYüklü değilse: 👉 https://ollama.com/download
ollama pull qwen2.5| Bileşen | Minimum |
|---|---|
| CPU | 6 çekirdek |
| RAM | 16 GB |
| GPU | Opsiyonel |
| VRAM | 8 GB (GPU varsa önerilir) |
| Disk | ~10 GB |
💡 GPU olmadan da çalışır, ancak GPU performansı ciddi şekilde artırır.
Diyalog model bağımsızdır.
Ancak:
- Her model aynı backend davranışını vermez
- Bazı modeller farklı prompt yapısı ister
- Bazı modeller için ek optimizasyon gerekir
Model değiştirmek için:
MODEL_NAME = "qwen2.5"Değiştirmeniz yeterlidir.
prompts/ klasörü Diyalog’un beynidir.
Burada:
- System promptlar
- Davranış kuralları
- Güvenlik politikaları
- Psikoloji ve ton modülleri
bulunur.
- Her
.promptdosyası ayrı bir modüldür - Değişiklik yaptıktan sonra sunucuyu yeniden başlatın
- Promptlar zincirleme çalışır
System prompt:
- Yapay zekânın nasıl davranacağını
- Neye cevap verip veremeyeceğini
- Tonunu, sınırlarını, karakterini
belirleyen ana metindir.
Diyalog’ta bu sistem modülerdir.
Önerilen minimum:
| Özellik | Değer |
|---|---|
| CPU | 8 Core |
| RAM | 32 GB |
| Disk | 100 GB SSD |
| GPU | Opsiyonel (NVIDIA tercih edilir) |
- Ubuntu 22.04 önerilir
- Python + Ollama kur
- Projeyi
git cloneile al - Uvicorn ile çalıştır
uvicorn main:app --host 0.0.0.0 --port 8000- Reverse proxy (Nginx)
- Firewall
- Rate limit önerilir
Bu proje; deneye deneye, bozula bozula, gerçek bir ürün ortaya koymak isteyen herkes içindir.
MIT License
İstediğin gibi kullan, değiştir, dağıt.
Ama:
Bir şey inşa ediyorsan, arkasında dur.
Diyalog bir “hazır AI” değil.
Diyalog bir altyapı.
Gerisi:
- Senin hayal gücün
- Senin disiplinin
- Senin cesaretin