Tools – Chatbots (Einstieg & Überblick)
Bekannte Chatbots mit Kurzprofilen.
Hinweis zu externen Links
Für die Inhalte externer Websites sind deren jeweilige Betreiber verantwortlich. Die verlinkten Seiten wurden bei der Aufnahme geprüft. Bei Bekanntwerden von Rechtsverletzungen werden entsprechende Links entfernt.
Inhalt
Für Beginner (drei pragmatische Einstiegsoptionen)
Spezielle Anbieter-Plattformen
Tipps für bessere KI-Antworten
Robustere Ergebnisse (Kurzfassung)
Zum Abschluss: Was soll ich denn mit so vielen KIs?
Sie suchen Tipps für den Beginn? Hier meine Vorschläge:
- ChatGPT: sehr weit verbreitet (in 02/2026 wöchentlich über 900 Millionen Nutzer).
- Perplexity: besonders geeignet für Recherchen (nutzt Chatbots anderer Hersteller, hat sie jedoch auf Websuche und Recherche optimiert).
- Duck.ai: sehr unkompliziert in jedem Browser aufrufbar, dauerhaft ohne Anmeldung nutzbar, verspricht hohen Datenschutz; gut für schnelle, eher unkritsche Anfragen.
|
Eigene, derzeitige Präferenzen Im Alltag nutze ich überwiegend: ChatGPT, Perplexity.ai, Gemini, Claude sowie ergänzend Duck.ai. Weitere hier aufgeführte Werkzeuge setze ich situationsabhängig und entsprechend ihrer jeweiligen Stärken ein. Für Datenschutz- bzw. Offline-Szenarien nutze ich zusätzlich lokale KI (z. B. GPT-OSS-20B am Notebook via LM Studio oder Ollama; Gemma-3n-E4B-it am Smartphone via AI Edge Gallery). Hinweis: ChatGPT überwiegend im Plus-Abo; bei Gemini nutze ich auch die limitierten Pro-Preview-Zugänge über das AI Studio. Claude kommt selektiv zum Einsatz (stark limitierte Zugänge). DuckDuckGo verwende ich häufig für kurze, schnelle Abfragen. |
|
Chatbot Firma (Land)
|
Kurze Beschreibung
Website – überwiegend auch als App verfügbar, manche auch als Windows Desktop App (die Funktionen können sich, je nach Zugangsweg, ein wenig unterscheiden).
|
|
ChatGPT OpenAI (USA)
|
Allrounder mit Voice-, Agenten- und Deep-Research-Funktionen. Umfangreiches Ökosystem für Abonnenten, weltweit hunderte Millionen Nutzer.
|
|
Gemini Google (USA)
|
In Google integriert, Deep Research, Voice, auch starkes Bild-Tool (u.v.m.), sehr multimodal – versteht z. B. WhatsApp-Sprachnachrichten (im OPUS-Format).
|
|
Google AI Mode Google (USA)
|
Googles Suchmaschine mit Chat, versteht Kontext, klickbare Ergebnis-Zusammenfassungen. g.ai in jedem Browser, https://google.com/aimode oder als Option im Google-Suchfeld.
|
|
Perplexity Perplexity (USA)
|
Chat mit Suchmaschine (u.v.m.). Besonders gut für aktuelle Quellen & Suchfragen, Deep Research, Voice. Einige Pro-Funktionen sind wenige Male je Tag oder Monat frei nutzbar.
|
|
Claude Anthropic (USA)
|
Klar strukturiert, gilt als „vorsichtig“; Voice z.Zt. nur englisch (gut für Übungsgespräche). Sehr leistungsfähig, m.E. besonders gute Differenzierung sprachlicher Feinheiten, ohne Abo sehr begrenztes Kontingent.
|
|
CoPilot Microsoft (USA)
|
In Windows 11 integriert, (Win+C), eher als Assistent (m.E. im Aufbau, auch schon nützlich, Stand 10/2025), unterstützt in Office365-Anwendungen, Voice.
|
|
Duck.ai DuckDuckGo (USA)
|
Nutzt andere Modelle, sehr einfach ohne Anmeldung handhabbar, anonyme Chats, Personas/Rollen mit Offenlegung der Anweisungen.
|
|
Le Chat by Mistral Mistral (Frankreich)
|
Starke europäische Alternative (FR), umfangreiche Bibliotheksfunktion zur Erweiterung des Chatbot-Wissens (RAG), übergreifendes Gedächtnis, u.v.m.
|
|
Grok xAI (USA)
|
Wenige Filter, Deep Research, Voice, wertet auch X-Posts aus (ex Twitter), übergreifendes Gedächtnis, Workspaces, … Anmerkung: Grok ist technisch sehr leistungsfähig, insbesondere bei wissenschaftlichem Reasoning und Mathematik; die Kontroversen um den Betreiber sind davon unabhängig.
|
|
DeepSeek DeepSeek (China)
|
Multimodal, starkes China-Modell, zeigt ausführlich seine „Gedanken“, Deep Research.
|
|
Ernie Bot Baidu (China)
|
Leistungsstarker KI-Chatbot des chinesischen Internetkonzerns Baidu, der auf der ERNIE‑Modellfamilie (4.5, 5.0 usw.) basiert. Die Weboberfläche bietet viele Optionen, je nach ausgewähltem Modell multimodal, Thinking, Custom Prompts. Dateien und benutzerdefinierte Anweisungen auf Projektebene.
|
|
Qwen Alibaba (China)
|
Großer Anbieter, zunehmend international, Deep Research (ohne Limits, viele Quellen), Memory.
|
|
KIMI AI Moonshot AI (China)
|
Verspricht präzise Analysen und intellektuelle Ehrlichkeit (passt durchaus, formuliert Widerspruch sehr klar).
|
|
MiniMax M2 MiniMax (China)
|
Multimodal; liefert strukturierte, praxistaugliche Antworten, agentfähig. Nutzungshinweis: Aufgrund der seit September 2024 anhängigen, global dimensionierten US-Urheberrechtsklage wird derzeit von einer kommerziellen Verwertung des Outputs abgeraten, unabhängig von den Nutzungsbedingungen des Herstellers.
|
|
Manus Manus / META (gegründet in China, Sitz in Singapur)
|
Autonomer KI‑Agent, der komplexe mehrstufige Aufgaben weitgehend selbstständig plant und ausführt – von Webrecherche und Datenanalyse über das Schreiben und Testen von Code bis hin zur Interaktion mit APIs und Anwendungen in einer eigenen Sandbox-Umgebung.
|
|
Genspark Genspark (China)
|
KI-Assistent mit Echtzeit-Recherche, Content-Generierung (Text, Bild, Video, Audio) und Spezialtools für Finanzen, Shopping und Wissenschaft. Nur wenige Anfragen im kostenlosen Modus verfügbar.
|
|
Z.ai Zhipu (China)
|
Chatbot- und „Agent“Plattform (inkl. Entwickler-APIs) rund um die GLM-Modellfamilie. Schwerpunkt: produktives Arbeiten wie Programmieren, Recherche mit Quellen, Daten-/Textarbeit und automatisierte Artefakte (z. B. Slides). Websuche mit nachvollziehbaren Quellen.
|
|
Lumo Proton (Schweiz)
|
Schweizer Fokus-Modell für maximale Vertraulichkeit durch Zero-Access-Verschlüsselung (Proton hat technisch keinen Zugriff auf Chats). Basiert auf Open-Source-Modellen und bietet höchste Datensouveränität. Einschränkung: Spürbare Defizite bei komplexer Logik und Multimodalität im Vergleich zu Marktführern (Stand 03/2026).
|
|
Euria Infomaniak (Schweiz)
|
Schweizer KI-Assistent mit Fokus auf Datensouveränität und Nachhaltigkeit. Ideal für Nutzer im Infomaniak-Ökosystem (E-Mail, Drive), da die KI direkt in die Büro-Anwendungen integriert ist. Besonderheit: 100 % Schweizer Hosting; die Abwärme der Server beheizt Wohnungen. Einschränkung: Nutzt Open-Source-Modelle; bei hochkomplexem Reasoning den US-Giganten unterlegen.
|
|
Aleph Alpha PhariaAI (Deutschland)
|
Deutsche KI-Infrastruktur mit Fokus auf Souveränität und Compliance für Industrie und Behörden. Spezialität ist die Erklärbarkeit (AtMan-Technologie), die Quellen und Entscheidungsschritte der KI visualisiert. Einschränkung: Kein direktes Endkunden-Produkt; Fokus liegt auf Integration in Fachanwendungen. Für Tech-Interessierte: Die Pharia-1-Modelle sind via Hugging Face (Spaces) für nicht-kommerzielle Zwecke testbar, erreichen aber nicht das Leistungsniveau von Frontier-Modellen bei kreativen Aufgaben.
|
|
Lokale KI Diverse (weltweit, z.B. USA, Frankreich, China)
|
Eine lokale KI läuft auf dem eigenen PC/Smartphone (offline nutzbar). Datenschutzfreundlich und gut zum Ausprobieren/Erkunden – dafür häufig technischer in der Einrichtung und hardwarehungrig: Je nach Setup braucht es viel RAM und/oder eine GPU mit genügend VRAM (Grafikspeicher). Gegenüber großen Cloud-Modellen ist die Leistungsfähigkeit deutlich geringer; die Geschwindigkeit hängt stark von der Hardware ab. Beispiele (Modelle/Anbieter): GPT-OSS (OpenAI), Mistral, DeepSeek.
|
Sie möchten noch mehr Optionen vergleichen?
Aktuelle „Rennlisten“ großer Chatbots auf Basis von Nutzerbewertungen finden
Sie hier:
– Chatbot Arena (Community-Ranking): https://lmarena.ai
Für
sehr technik- oder mathematikaffine Nutzer:
– Math Arena (Mathe-Wettbewerbsaufgaben & Beweisführung): https://matharena.ai
|
Die Arena liefert ein gutes Stimmungsbild der Community. Für anspruchsvolle Praxisaufgaben weicht meine persönliche Rangfolge allerdings teilweise deutlich von diesen ‚Rennlisten‘ ab. |
(zum Stöbern & Ausprobieren)
|
Spezielle Plattform [Kategorie]
|
Kurze Beschreibung
|
|
Google AI Studio [Playground]
|
Zum Ausprobieren von Gemini-Modellen und Funktionen (Prompts testen, Varianten vergleichen).
|
|
Google Labs [Experimente] |
Googles „Spielwiese“ für KI-Experimente und Demos (Verfügbarkeit kann je nach Region variieren). Hier startete auch NotebookLM (https://notebooklm.google) als Google-Labs-Experiment – heute ein etabliertes Recherche-/Lern-Tool. Siehe auch meine Kurzbeschreibung in https://fjki-info.github.io/recherche.
|
|
MS Copilot Labs [Experimente]
|
Microsofts experimentelle Copilot-Funktionen/Apps von zum Ausprobieren. https://copilot.microsoft.com/labs
|
|
OpenAI Platform [Entwickler-Plattform]
|
API-/Tool-Plattform (der Vollständigkeit halber, eher technisch). Wichtig: API-Nutzung wird separat abgerechnet; „Billing“ = Abrechnung/Zahlungsdaten hinterlegen. https://platform.openai.com enthält neben den zusätzlich kostenpflichtigen Services auch Dokumentationen. https://cookbook.openai.com inkl. umfangreicher Prompting-Tipps. Tokenizer: https://platform.openai.com/tokenizer
|
|
Grundlagen |
Leicht fortgeschrittene Prompts |
|
1. Modell/Modus wählen: Thinking? Tiefe Recherche? … |
6. „Schritt für Schritt“-Erklärungen anfordern. |
|
2. Kontext geben: Thema, Ziel, Relevantes |
7. Ausgabe-Format angeben: Tabelle, 5 Punkte … |
|
3. Rolle definieren: „Du bist Experte für …“ |
8. Beispiele geben: z. B. Musterdialoge, Verhalten |
|
4. Im Dialog bleiben: Nachfassen |
9. Der KI die Bedeutung erklären: „Es ist wichtig, weil …“ |
|
5. Ergebnisse hinterfragen |
10. Eingabemethode: Voice Mode (schnell, aber flacher), Diktat oder Tastatur + Dateien/Medien
|
|
Souverän und mit gesunder Skepsis nutzen: Die Antworten Ihres „digitalen Assistenten“ können falsch oder lückenhaft sein – auch wenn sie sehr überzeugend klingen. · Kontext, Ziel und Erwartungen nennen · Quellen anfordern und stichprobenartig prüfen (reicht oft schon) · bei wichtigen Themen kurz gegenchecken (zweites Tool oder Primärquelle) Tool-Wahl: Die Qualität hängt von Modell, Oberfläche/Portal, Modus (z. B. „Thinking“, „Deep Research“) und der Recherche-Tiefe ab. Ein „bestes“ Tool gibt es selten – je nach Aufgabe ist mal das eine, mal das andere stärker. Faustregel: Bonus-Tipps (Prompt-Ideen): - Hilf mir, die richtige Frage zu formulieren; bitte noch nicht beantworten - Stell mir 3 Rückfragen, um meine Anfrage zu präzisieren – noch keine Lösung |
Für gute Ergebnisse reicht oft nicht die erste Antwort. Nachfassen + Gegencheck sind die zwei stärksten Hebel. Hier sehen Sie typische Fehler – und wie Sie sie vermeiden können:
1) Überzeugend, aber falsch
· Klingt plausibel, ist aber falsch / erfunden / verzerrt.
· Gegenmittel: tragende Aussagen identifizieren und bei Bedarf kurz gegenchecken (Primärquelle / offizielle Stelle; ggf. 2. Tool).
2) Fehlgeleitete Entscheidungen
· Aus lückenhaften Annahmen werden konkrete Empfehlungen.
· Gegenmittel: Annahmen offenlegen lassen („Wovon gehst du aus?“) und Alternativen/Gegenargumente anfordern.
3) Abkürzungsmodus im Denken (Kompetenz-Erosion durch Auslagerung)
· Man fragt – übernimmt – und übt das eigene Denken/Entscheiden weniger.
· Gegenmittel: im Dialog nachfassen und hilfreiche Bausteine/Checklisten wiederverwenden.
|
Wann lohnt sich ein Kurzcheck besonders? Vor allem dann, wenn eine Antwort konkret ist: bei Fakten, Zahlen und Daten (z. B. Öffnungszeiten, Preise, Fristen), bei Namen, Orten und Begriffen (offizielle Bezeichnungen, Zuständigkeiten), bei Schrittfolgen und Anleitungen, bei Regeln und Definitionen sowie bei Empfehlungen, die auf Annahmen beruhen. Auch bei Quellenangaben lohnt sich ein kurzer Blick: Wer ist die Quelle, wie alt ist sie – und ist sie eher primär/offiziell oder nur ein beliebiger Blog? Tipp: Der Kurzcheck funktioniert oft besser als Folgefrage (Prompt: „Prüfe deine letzte Antwort…“) als wenn man Antwort und Prüfung in einem Schritt erledigen will. Das reduziert typische Fehler. |
Kurzcheck als Prompt-Muster (an die KI gerichtet)
· Nenne 2 Gegenargumente oder Alternativen.
· Was fehlt noch, um sicher zu sein?
· Suche Kontext-/Begriffswechsel oder Widersprüche und korrigiere sie.
· Was sollte ich kurz gegenchecken (und wo – ideal: offizielle/primäre Stelle)?
Hinweis: Bei Korrekturen wirkt eine Antwort manchmal zuerst „plausibel verteidigt“. Bleiben Sie beim Kriterium und lassen Sie nachbessern.
Informationen verifizieren [Praxis & Quellenkritik]
KI-Antworten können falsch, lückenhaft oder veraltet sein – auch dann, wenn sie sehr überzeugend klingen. Ziel ist nicht „absolute Sicherheit", sondern: angemessener Prüfaufwand für das Risiko.
1. Prüfaufwand nach Risiko wählen
· Unkritisch (Ideen, Inspiration): Plausibilität + 1 Stichprobe reicht oft.
· Wichtig (Entscheidung, Geld, Reputation): 2 unabhängige Quellen + Kernbehauptungen prüfen.
2. Von „Thema" zu „Behauptungen" (Kernaussagen extrahieren)
3. Quellen bewerten
3.1 Lateral Reading (Quelle „von außen" prüfen)
3.2 Belege wirklich öffnen (Evidence-check)
4. Wenn die Quelle eine Studie ist (Studienkritik „light")
Eine Studie ist kein Gütesiegel. Relevanter als „es gibt eine Studie" sind Design, Qualität und Einordnung im Forschungsstand.
4.1 Grundlagen prüfen
4.2 Qualität & Aussagekraft
4.3 Meta-Analysen / systematische Reviews
4.4 Zitationszahlen (nur als Signal, nicht als Beweis)
5. Querprüfung (Abgleich mit unabhängigen Quellen)
6. Qualitätssignale einordnen
6.1 Schwache Signale vs. harte Signale
6.2 Red Flags (Warnsignale)
7. Bonus: Prompts zum Verifizieren
Diese Prompts helfen, KI-Antworten besser prüfbar zu machen:
8. Ressourcen (Auswahl)
Lesetipps (Methoden & Quellenkritik):
Kuratierte Recherche-Werkzeuge/Portale:
Aussuchen, welches Tool gerade für welche Aufgabe am besten passt.
Ich will KIs nicht mit Menschen gleichsetzen – aber wer schon einmal mit vielen Menschen zusammengearbeitet hat, hat vielleicht erlebt, dass viele von ihnen besondere Schwerpunkte haben und bestimmte Aufgaben auf eigene Weise erledigen (z. B. in Hinblick auf Kreativität, Auffassungsgabe, Gedächtnis, Perfektionsdrang, pragmatische „ausreichende Qualität“ bei vertretbarem Aufwand, Mitdenken, Befolgen von Anweisungen usw.). Auch KIs haben ähnliche Besonderheiten.
Mit der Zeit findet man heraus, was in welcher Situation gerade am besten passt – und morgen kann das schon wieder anders sein, denn die Anbieter stehen in harter Konkurrenz zueinander. Viele statten ihre KIs mit vordefinierten, teils auswählbaren Persönlichkeiten und Eigenschaften aus. Zusätzlich kann man über Rollenbeschreibungen vorab mitteilen, welches „Verhalten“ man wünscht.
Einfaches Beispiel für so eine
Rollenbeschreibung:
„Erkläre mir es Schritt für Schritt. Stoppe nach jedem Abschnitt und frage
mich, ob ich folgen kann.“
Typische Arbeitsstile von KIs:
Sokratisch / lernbegleitend heißt: Die KI stellt Fragen, statt sofort Lösungen zu präsentieren – damit man versteht und nicht nur abschreibt.
Darüber hinaus habe ich inzwischen Dutzende auswählbare „Personas“ gesehen. Ich definiere mir aber auch eigene Assistenz-Rollen. Je leistungsfähiger ein Modell ist, desto präziser folgt es solchen Wünschen – und desto weniger Anweisungen braucht es. Das kommt mir irgendwie bekannt vor.
Die Leistung, die Funktionen und auch das „Verhalten“ einer KI hängen nicht nur vom Modell ab, sondern auch vom Portal, über das sie genutzt wird. Das Portal steuert u. a. Konfiguration, Speicher-/Bibliotheks-Management, Systemvorgaben („Systemprompt“) und Benutzer-Einstellungen. Daher kann sich dasselbe Modell – etwa „ChatGPT 5 Mini“ – in verschiedenen Portalen unterschiedlich anfühlen.

![]()
KI-Transparenz | Datenschutz | Impressum
© 2026 Franz Jankowski
Die Inhalte dieser Webseite sind urheberrechtlich geschützt. Sie dürfen für
persönliche Lern- und Informationszwecke verwendet werden. Eine weitergehende
Nutzung, insbesondere kommerzielle Verwendung oder Vervielfältigung, bedarf
meiner vorherigen Zustimmung. Gesetzliche Schranken des Urheberrechts (z. B.
Zitatrecht) bleiben unberührt.
Das bloße Verlinken auf diese Seite ist ausdrücklich erlaubt.
Zur Startseite
Version: v1 – Stand: 15.03.2026