Das bringst du mit
Must-Have:
Deep Learning Stack: Du beherrschst PyTorch und das Hugging Face Ökosystem im Schlaf.
Model Optimization: Du hast Erfahrung mit Quantisierung (GGUF, AWQ) und Fine-Tuning (LoRA/QLoRA). Du weißt, wie man ein 70B Modell auf Consumer-Hardware (Edge) performant macht.
Coding: Python ist deine Muttersprache, aber du hast keine Angst vor C++ Bindings.
Big Plus (Der Deep Tech Faktor):
Interesse an Zero-Knowledge Proofs (ZKML). Du willst lernen, wie man verifizierbare Inferenz baut.
Erfahrung mit Synthetic Data Generation.
Deine Fähigkeiten
Du bist gut mit...
- Wörtern und Kommunikation
- Zahlen, Daten und Logik
- Dinge vorantreiben und erledigen
- Strukturen und strategischem Denken
Das erwartet Dich
Mission: Entwicklung einer Pipeline zur automatisierten Destillation von Large Language Models auf effiziente, lokal lauffähige Agenten.
Innovation: Du löst das Dilemma zwischen Intelligenz und Privatsphäre.
Challenge: Wie bringen wir GPT-4-Level Reasoning in eine lokale Node, ohne Daten in die Cloud zu senden? Du baust "Pocket-Sized Experts" für die Industrie.
Das bieten wir
Deal: Aufwandsentschädigung (Bootstrapping Phase) -> Signifikante Co-Founder Equity (VSOP) bei Launch.
Kultur: Wir bauen Deep Tech, keine CRUD-Apps. Maximale technische Freiheit.
Über unser Startup/Projekt
Wir bauen das unendliche Betriebssystem für Datensouveränität. Lokale Intelligenz statt Cloud-Abhängigkeit. Privatsphäre als Standard, nicht als Option.
Wir bieten kein normales Job-Ticket, sondern den Einstieg in ein Deep-Tech-Venture im Stealth-Mode.
Wir bauen die Infrastruktur für die Post-SaaS-Ära: Ein dezentrales Betriebssystem, das lokale KI-Intelligenz (Edge AI) mit kryptografischer Sicherheit (Zero-Trust) verbindet.
Das Angebot:
Co-Founder Status: Equity-Beteiligung (VSOP) bei erfolgreichem Funding/Launch.
Tech-Spielwiese: Arbeit an der Grenze des Machbaren (LLM Distillation, Rust, P2P-Protokolle).
Impact: Wir bauen eine europäische Antwort auf die US-Cloud-Dominanz.
Herausforderungen
Wir lösen ein massives technologisches Paradoxon: Wie bringt man die Intelligenz riesiger KI-Modelle auf kleine, lokale Hardware (Edge Devices), ohne Leistung zu verlieren?Unsere nächste Hürde ist der 'Proof of Protocol': Der Beweis, dass eine dezentrale Architektur (Local-First) genauso nahtlos und benutzerfreundlich sein kann wie zentralisierte SaaS-Lösungen, aber mathematisch beweisbar sicherer ist.