- FragRoger
- Posts
- Wie ChatGPT aber lokal und sicher und mit deinen Daten
Wie ChatGPT aber lokal und sicher und mit deinen Daten
Ein Test mit Msty lokal und Open Source
Ich war schon länger auf der Suche nach einer Möglichkeit, lokal und völlig unabhängig mit meinen eigenen Daten zu arbeiten. Ich wollte eine KI, die sich in meine bestehenden Tools wie Obsidian (lokale Datenbank) integrieren lässt und mir erlaubt, auf gespeicherte PDFs und Notizen zuzugreifen, ohne dass diese Daten über irgendeinen Server laufen müssen.
Da bin ich auf Msty.app gestossen – und das Tool hat mich schnell überzeugt auch wenn mein Laptop zwischendrin immer wieder heiss lief.
Das ist keine Werbung sondern ein Erfahrungsbericht.
Setup und erste Schritte: Schnell und einfach
Was mir sofort auffiel: Die Einrichtung war unkompliziert. Msty läuft auf Windows, Mac und Linux, und der gesamte Prozess funktioniert ohne technische Hürden. Gleich zu Beginn konnte ich ein lokales Modell installieren – Llama-2 in meinem Fall – und direkt mit der Arbeit loslegen. Das Beste daran? Msty läuft auch komplett offline. Ein klarer Vorteil, wenn es um Datenschutz geht, oder wenn ich einfach flexibel arbeiten will, egal ob ich gerade eine stabile Internetverbindung habe oder nicht.
Ich kann aber auch via API zB Perplexity einbinden und dann recherchieren.
Wissen jederzeit griffbereit: Der „Knowledge Stack“
Ein Highlight war für mich der „Knowledge Stack“. Hier kann ich PDFs, Textdateien und sogar Transkripte von YouTube-Videos einbinden, und die KI greift in ihren Antworten auf diese Daten zurück. Das bedeutet, dass ich meine Obsidian-Notizen zu bestimmten Projekten hochladen kann und dann direkt zu den spezifischen Themen abfragen kann, die mich interessieren. Anstatt mich durch Dokumente zu wühlen, gibt mir Msty gezielte Antworten auf meine Fragen, basierend auf den Dokumenten, die ich integriert habe.
Das dauert aber manchmal etwas länger.
Beispiel: Ich habe beispielsweise Marktberichte und interne Analysen hochgeladen. Eine simple Frage wie „Welche Trends gibt es im Bereich E-Commerce?“ wird nun direkt aus meinen eigenen Daten beantwortet – ohne dass ich ein einziges Dokument manuell durchsuchen muss.
Multiverse Chat: Modelle vergleichen leicht gemacht
Ein weiteres cooles Feature ist der „Parallel Multiverse Chat“. Hier kann ich mehrere Modelle parallel laufen lassen und ihre Antworten direkt nebeneinander vergleichen. Diese Funktion ist Gold wert, wenn ich verschiedene Perspektiven oder Schreibstile ausprobieren will oder einfach mal kreativ brainstormen möchte.
Beispiel: Bei meiner Recherche zu neuen digitalen Geschäftsmodellen konnte ich zum Beispiel ein kreatives Sprachmodell und ein eher technisches Modell gleichzeitig befragen und deren Antworten nebeneinander sehen. Das hat oft ganz neue Ansätze und Sichtweisen hervorgebracht, die ich sonst vielleicht übersehen hätte.
Prompt-Bibliothek: Struktur für präzise Antworten
Zusätzlich gibt es in Msty eine Bibliothek mit vorgefertigten Prompts, die dabei hilft, Antworten noch gezielter zu gestalten. Besonders hilfreich finde ich die Möglichkeit, eigene Prompts zu speichern, so kann ich einmal erstellte Abfragen immer wieder verwenden und spare mir viel Zeit bei wiederkehrenden Aufgaben.
Beispiel: Für verschiedene Analysearten habe ich eigene Prompts erstellt, die mir spezifische Informationen liefern. Ein Klick, und die KI versteht sofort, wonach ich suche – das ist besonders praktisch, wenn ich eine Reihe von Aufgaben mit ähnlichem Fokus abarbeiten möchte.
Ein paar Hintergründe
Lokale KI-Modelle stellen einen wichtigen Trend in der Entwicklung künstlicher Intelligenz dar. Sie bieten Lösungen für kritische Herausforderungen in Bezug auf Datenschutz, Latenz und Offline-Funktionalität. Während sie cloud-basierte Systeme nicht vollständig ersetzen werden, ergänzen sie diese in vielen Anwendungsbereichen und treiben die Innovation in Richtung dezentraler, datenschutzfreundlicher KI-Lösungen voran.
Die Integration lokaler Modelle in bestehende IT-Infrastrukturen und die Entwicklung hybrider Systeme, die lokale und cloud-basierte Verarbeitung kombinieren, werden in den kommenden Jahren zentrale Themen der KI-Forschung und -Entwicklung sein.
Msty.app: Eine umfassende Lösung für KI-Anwendungen
Msty.app ist eine Desktop-Anwendung, die sowohl lokale als auch Online-KI-Modelle unterstützt. Hier sind die wichtigsten Fakten:
Systemanforderungen
Betriebssysteme: Windows, Mac, Linux
Empfohlene Hardware:
Prozessor: Mindestens Dual-Core, Quad-Core oder besser für optimale Leistung
Arbeitsspeicher: Mindestens 4 GB, 8 GB oder mehr empfohlen
Festplattenspeicher: Mindestens 3 GB, zusätzlicher Speicher für lokale Modelle nötig
Installation und Einrichtung
Download von msty.app
Installation der Anwendung
Optionen nach der Installation:
Lokale KI einrichten (z.B. Tiny Dolphin Modell, 637 MB)
Online-Modell-Anbieter hinzufügen (API-Schlüssel erforderlich)
Ollama-Modelle integrieren
Kernfunktionen
Offline-Nutzung möglich
Parallele Chats mit mehreren KI-Modellen
Websuche-Funktion für Echtzeit-Daten
Zugriff auf Modelle von Hugging Face, Ollama und Open Router
Prompt-Bibliothek mit vordefinierten und anpassbaren Prompts
Datenschutz
Keine persönlichen Informationen verlassen den Computer
Volle Kontrolle über Daten und Gespräche
Benutzerfreundlichkeit
Intuitive Oberfläche
Keine tiefgreifenden technischen Kenntnisse erforderlich
Separate Einstellungsbereiche für verschiedene Funktionen
Vergleich zu anderen lokalen KI-Lösungen
Msty vs. GPT4all
Msty bietet im Vergleich zu GPT4all mehrere Vorteile:
Benutzerfreundlichkeit:
Einrichtung mit einem Klick
Keine Kommandozeile oder Docker erforderlich
Intuitive Benutzeroberfläche
Vielseitigkeit:
Unterstützung lokaler und Online-Modelle
Zugriff auf verschiedene Modellanbieter
Möglichkeit zur parallelen Nutzung mehrerer Modelle
Erweiterte Funktionen:
"Multiverse Chats" zum Modellvergleich
Integrierte Websuche
RAG (Retrieval-Augmented Generation) mit Knowledge Stack
Flowchat™ zur Visualisierung von Konversationen
Datenschutz und Kontrolle:
Offline-first Ansatz
Volle Kontrolle über Modelle und Daten
Anpassungsmöglichkeiten:
Erweiterbare Prompt-Bibliothek
Mehrere Arbeitsbereiche
Möglichkeit, Medien an Chats anzuhängen
Ollama
Ollama ist eine weitere Option für lokale KI-Lösungen:
Open-Source-Software
Ermöglicht lokales Hosting und Nutzung bekannter Sprachmodelle wie Llama 2 oder Falcon
Einfacher Download und Ausführung verschiedener KI-Modelle auf dem eigenen Computer
Ist lokal und Open Source die Zukunft?
Lokale KI-Lösungen wie Msty und Ollama bieten sicherlich den Nutzer:Innen die Möglichkeit, KI-Modelle offline und mit hoher Datensicherheit zu verwenden.
Nach meinen Tests die letzten Wochen mit Msty zeichnet sich das Tool durch seine Benutzerfreundlichkeit, Vielseitigkeit und erweiterte Funktionen aus, es braucht aber auch Geduld und mit Teams und 20 Browser Tabs im Hintergrund kommt auch mein Laptop an sein Limit.
Nichtsdestotrotz: Für mich hat Msty.app eine echte Lücke geschlossen. Es ist ein Tool, das lokal und datenschutzkonform arbeitet und sich nahtlos an meine Bedürfnisse anpasst. Ich kann meine Daten auf meinem eigenen System sicher verarbeiten und gleichzeitig die Vorteile der modernen KI-Technologie voll auskosten.
Msty ist für mich zur klaren Alternative zu ChatGPT und anderen Online-KI-Diensten geworden, besonders wenn es um den Umgang mit sensiblen Daten und die Integration eigener Wissensquellen geht.
Wenn du mehr wissen möchtest, schreib mir gerne auf diese E-Mail antwortest. Ich freue mich von dir zu lesen.
Wöchentliche Live Updates
Willst Du informiert bleiben? Dann melde dich an für unsere wöchentlichen Update Calls - immer Montags, auf Zoom, ab 18:30 für 30 Minuten. Hier gehts zur Anmeldung und hier gehts zum Podcast mit KI Power News
SKOOL Community
Willst Du mehr erfahren zur künstlichen Intelligenz und von spannenden Vorlagen, Kurse und monatlichen Co-Workings profitieren? Für nur EUR 29,-/Mt bist Du dabei auf SKOOL. Jetzt Vorzugspreis sichern.
Fragen zu KI und Digitalen Geschäftsmodellen? #fragRoger
Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.
Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger
Disclaimer: dieser Artikel wurde nach meiner Recherchen mit KI (Perplexity und Gemini) selbst geschrieben, mit Deepl Write verbessert und Mistral zusammen gefasst und vereinfacht. Das Bild stammt von Ideogram und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.