Selbst gebaut. Live im Einsatz.

Ein persönliches Portfolio von KI-Systemen — entworfen, gebaut und end-to-end von Nicholas Falshaw in Betrieb genommen. Jedes System läuft produktiv: selbst gehostet, dockerisiert oder als Desktop-App verpackt. Kein Konzept, kein Prototyp. Jeder Eintrag unten ist lauffähiger Code.

Veröffentlicht als Nachweis eigenständiger Ingenieurarbeit — Systeme, die außerhalb jeder Arbeitgeber-Rolle entstehen.

ModelltrainingSelbst gehostet · Produktion

LLM Finetuning-Pipeline

End-to-End-Training eigener Sprachmodelle, Docker-Lieferung

Produktive Finetuning-Pipeline für kompakte Sprachmodelle. Kundendaten werden lokal im Alpaca/ShareGPT-Format aufbereitet, in der Cloud über LlamaFactory auf GPU trainiert, nach GGUF konvertiert und in ein Docker-Image verpackt, das der Endkunde komplett on-premise mit Ollama betreibt.

Highlights

  • Datenvorbereitung → Cloud-Training → GGUF-Konvertierung → Docker-Paket
  • Experimentverfolgung mit MLflow
  • Läuft on-premise beim Endkunden

Stack

PythonLlamaFactoryllama.cppOllamaMLflowRunPod

finetune.rogueai.de/

FinTechSelbst gehostet · Produktion

Pension AI

KI-gestützte Rentenplanung mit Monte-Carlo-Simulationen

Rentenplanungs-Plattform, die deterministische Portfoliomathematik mit einem LLM-Finanzberater kombiniert. Nutzer laden ihre Bestände hoch, definieren Ziele und erhalten probabilistische Projektionen plus narrative Analyse, geerdet über pgvector-Retrieval in den eigenen Daten.

Highlights

  • Monte-Carlo-Simulationen für Portfolios
  • Zielbasierte Rentenplanung mit KI-Berater
  • 100 Prozent containerisiert; läuft auf einem VPS

Stack

Next.js 16React 19PostgreSQL 16pgvectorRedis 7OllamaDocker

pension.rogueai.de/

DocumentAISelbst gehostet · Produktion

Steuerdokumenten-KI

OCR + LLM-Scanner für KMU-Steuererklärungen

Selbst gehosteter Steuerdokumenten-Manager. Belege und Rechnungen werden mit llava:13b multimodal OCR-gescannt, dann von llama3.2 klassifiziert und zusammengefasst. Entwickelt für bulgarische KMU-Steuererklärungen; Architektur ist jurisdiktionsunabhängig.

Highlights

  • Multimodale OCR über lokales llava:13b
  • Kategorisiert Belege, Rechnungen, Verträge
  • Null Cloud-Verarbeitung — Dokumente verlassen den Host nicht

Stack

React 19FastAPIPython 3.11PostgreSQL 16Redis 7Ollamallava:13b

taxdoc.rogueai.de/

Business-AutomatisierungSelbst gehostet · Produktion

VarnaAI CRM

Persönliches CRM mit KI-unterstützten Workflows

CRM für Kontakte, Firmen, Leads, Deals, Events und Aufgaben — von Grund auf gebaut. Session-gebundene Authentifizierung, Prisma 7 mit PrismaPg-Adapter und Ollama-gestützte Assistenz auf jedem Datensatz. Ersetzt kommerzielle CRMs für unabhängige Berater.

Highlights

  • 30+ API-Routen mit benutzerbezogenem Datenscoping
  • KI-Unterstützung via Ollama in Kontakten, Deals, Notizen
  • Playwright-E2E-Tests mit Coverage-Reporting

Stack

Next.js 16React 19Prisma 7PostgreSQL 16Redis 7OllamaNextAuth v5

crm.rogueai.de/

Audio-KISelbst gehostet · Produktion

Meeting-Copilot

Live-Transkription + Claude-Flüster-Panel

Desktop-Meeting-Assistent als Electron-Tray-App. Audio wird vom Mikrofon und per Loopback vom Systemaudio erfasst, zur Transkription mit Sprecher-Diarisierung an Deepgram gestreamt und an das Claude Agent SDK weitergegeben — der Nutzer kann mitten im Meeting Rückfragen stellen.

Highlights

  • Erfasst Mikrofon + Systemaudio, gemischt auf 16 kHz Mono
  • Streaming-Transkription mit Sprecher-Trennung
  • F10-Hotkey fragt Claude während des Meetings

Stack

ElectronDeepgram Nova-3Claude Agent SDKWebAudio API

meeting.rogueai.de/

Audio-KISelbst gehostet · Produktion

Offline-Sprachdiktat

Systemweites Push-to-Talk-Diktat, ohne Netzwerk

Tray-App, die offline Spracheingabe für jede Windows-Anwendung bereitstellt. Audio über MediaRecorder bei 16 kHz, lokal mit quantisiertem Whisper-small ONNX transkribiert, dann via Zwischenablage + simuliertem Strg+V ins aktive Fenster eingefügt.

Highlights

  • 100 Prozent offline — Modell läuft in Renderer-Web-Worker
  • F9 Push-to-Talk, fügt in jedes fokussierte Fenster ein
  • ~2-4 Sekunden Latenz auf CPU-Inferenz

Stack

Electron@huggingface/transformersWhisper-small ONNXWeb Workers

voice.rogueai.de/

20+ weitere interne KI-Systeme end-to-end gebaut — von RAG-Pipelines für Compliance-Teams bis zu Intelligence-Briefing-Plattformen. Gesamtkatalog auf Anfrage.

Rogue AI • Production Systems •