🧠 Lokales LLM mit WebGPU

KI läuft komplett in deinem Browser - keine Cloud, keine API, 100% privat

Initialisiere...
Warte auf WebGPU...
Lade Modell...
ℹ️ Hinweis: Das Modell wird beim ersten Start heruntergeladen (~900 MB). Danach ist es im Browser-Cache und läuft komplett offline. Deine Eingaben verlassen niemals dein Gerät!
🤖
Hallo! Ich bin ein lokales KI-Modell, das komplett in deinem Browser läuft. Sobald ich geladen bin, funktioniere ich auch offline. Stelle mir eine Frage!