Auswahl eines Modells
- Wenn du einen neuen Chat startest, kannst du oben links das gewünschte Modell auswählen, mit dem du arbeiten möchtest.
- Du kannst das Modell oben links auch noch ändern, wenn du einen Chat bereits begonnen hast. So kannst du beispielsweise mit GPT-4.1 beginnen und nach drei Nachrichten zu Claude Sonnet 4 wechseln.
- Du kannst auch dein persönliches Standardmodell in den Kontoeinstellungen hier festlegen. Der Standard für neue Nutzer ist GPT-4.1.
Auswahl des richtigen Modells
Im Anschluss findest du eine Übersicht darüber, welche Modelle sich besonders gut für welche Anwendungsfälle eignen, denen du begegnen könntest. Weiter unten skizzieren wir auch unsere persönlichen Empfehlungen basierend auf dem aktuellen Nutzerfeedback.| Modell | Stärken | Token-Limits (Kontextfenster und Ausgabelimit) | Wissensstop |
|---|---|---|---|
| GPT-5.1 OpenAI | Schnellste GPT‑5.1‑Variante für Konversation und alltägliche Aufgaben. Wärmerer Kommunikationsstil, hohes Sprachverständnis bei niedriger Latenz. Ideal für Chat, Schreiben und Support. | Input: 400,000 Output: 128,000 | Sep 30, 2024 |
| GPT-5.1 Thinking OpenAI | Tiefstes Reasoning-Modell von OpenAI, ausgelegt für komplexe Analysen, mehrstufige Planung und Coding-Aufgaben. Passt Rechenzeit dynamisch an die Komplexität an; überzeugt durch präzise Argumentationen, strukturierte Erklärungen und maximale Transparenz bei anspruchsvollen Problemen. | Input: 400,000 Output: 128,000 | Sep 30, 2024 |
| GPT-5.1 Thinking Fast OpenAI | Optimiertes Reasoning-Modell mit besserer Nachvollziehbarkeit und Klarheit gegenüber GPT-5 Thinking. Weniger Zeitaufwand bei einfachen Aufgaben, mehr bei komplexen; nutzt adaptives Reasoning für effiziente, präzise Argumentationen und strukturierte Erklärungen – ideal für schnelle, intelligente Analysen. | Input: 400,000 Output: 128,000 | Sep 30, 2024 |
| GPT-5 OpenAI | OpenAIs neuestes Flaggschiff-Modell mit modernstem Denken, fortschrittlichen multimodalen Fähigkeiten und höchster Genauigkeit bei komplexen Aufgaben. Bietet erweiterte Kontextfähigkeiten, Bildverständnis und Flexibilität bei Antwortschemas, geeignet für Unternehmensanwendungen. | Input: 400,000 Output: 128,000 | Sep 30, 2024 |
| GPT-5 Thinking Fast OpenAI | Reasoning-Variante der GPT-5-Reihe mit höherer Genauigkeit und effizientem Token-Einsatz im Vergleich zu o3. Bessere Leistung in visuellem Reasoning und wissenschaftlichem Problemlösen, reduziert Halluzinationen mit weniger Fehlern auf Factuality-Benchmarks. Liefert präzisere Langform-Antworten und verlässlichere Fakten, optimiert für Forschung, Technik und hochkomplexe Analysen. | Input: 400,000 Output: 128,000 | Sep 30, 2024 |
| GPT-5 mini OpenAI | Schnellere, kosteneffiziente Version von GPT-5 mit nahezu Flaggschiff-Denkfähigkeiten. Balanciert Performance und Geschwindigkeit und bietet die meisten GPT-5-Fähigkeiten zu einem niedrigeren Preis – perfekt für alltägliche professionelle Aufgaben, routinemäßige Inhaltserstellung und Analyse. | Input: 400,000 Output: 128,000 | Mai 31, 2024 |
| GPT-5 nano OpenAI | Leichte Variante, die Geschwindigkeit und Durchsatz priorisiert, während sie solide Denkfähigkeiten für häufige Anwendungsfälle beibehält. Liefert zuverlässige Antworten zu den niedrigsten Kosten in der GPT-5-Familie und eignet sich für Hochvolumen- oder latenzkritische Anwendungen. | Input: 400,000 Output: 128,000 | Mai 31, 2024 |
| o3 OpenAI | Fortgeschrittenes technisches Schreiben & Befolgen von Anweisungen mit herausragenden Mathematik-, Wissenschafts- und Programmierfähigkeiten. Überzeugt bei mehrstufigem Denken über Text und Code. Ein ausgewogenes und leistungsfähiges Modell, das neue Standards für Mathematik, Wissenschaft, Programmierung und visuelles Denken setzt. | Input: 200,000 Output: 100,000 | Jun 01, 2024 |
| Claude Opus 4.5 Anthropic | Anthropics intelligentestes und zugleich robustestes Modell, ideal für komplexe Aufgaben, professionelle Entwicklung und fortgeschrittene Agenten. Weniger Tokenverbrauch bei Reasoning-, Coding- und Agenten-Fähigkeiten gegenüber Sonnet 4.5. Unterstützt „effort-control” für feinjustierte Rechenzeit und fortgeschrittenes Kontext- und Speichermanagement. | Input: 200,000 Output: 64,000 | Mär 01, 2025 |
| Claude Opus 4.5 Reasoning Anthropic | Reasoning-Version von Claude Opus 4.5, entwickelt für Probleme mit tiefgehender schrittweiser Analyse. Speziell optimiert für logisches Denken, komplexe Planung und mehrschrittige Schlussfolgerungen. Nutzt Opus 4.5 mit erweitertem „Effort-Level” für maximale Analysequalität bei gleichzeitig reduziertem Tokenverbrauch. | Input: 200,000 Output: 64,000 | Mär 01, 2025 |
| Claude Sonnet 4.5 Anthropic | Höchste Intelligenz bei den meisten Aufgaben mit außergewöhnlichen Agenten- und Programmierfähigkeiten und authentischem, realistischem Ton für kreatives Schreiben. Anthropics fortschrittlichstes Modell, das laut mehreren Benchmarks mit den GPT-5-Modellen vergleichbar ist und diese sogar in einigen Bereichen übertrifft. | Input: 200,000 Output: 64,000 | Nov 01, 2024 |
| Claude Sonnet 4 Anthropic | Überzeugt bei komplexer Programmierung, kreativem Schreiben, Bildanalyse und Übersetzung mit einem Dual-Mode-System für schnelle Antworten und tiefgehendes Denken. Anthropics Spitzenmodell, das Claude 3.7 mit größerem Kontextfenster, reibungsloser Modusumschaltung, besserer Programmierung und tieferem Denken verbessert. Behält starke Sicherheit und Ausrichtung bei. | Input: 1,000,000 Output: 64,000 | Nov 01, 2024 |
| Gemini 2.5 Flash | Überzeugt bei schneller Echtzeit-Inhaltserstellung und robuster Bildanalyse, verarbeitet lange Dokumente und Datensätze mit Leichtigkeit. Googles schnellstes Gemini Flash-Modell mit großem Kontextfenster und doppelter Ausgabelänge. Liefert Ergebnisse fast doppelt so schnell wie sein Vorgänger bei Aufgaben mit langen Dokumenten und multimodaler Analyse. | Input: 1,048,576 Output: 65,535 | Jan 01, 2025 |
| Gemini 2.5 Pro | Überzeugt bei schneller Echtzeit-Inhalts- und Bildanalyse mit ultra-langem Kontext für die Verarbeitung großer Dokumente. Googles Flaggschiff-Modell mit Unterstützung für große Kontexte, das bei komplexen Aufgaben und Code überzeugt. Priorisiert nuanciertes Denken und Tiefe gegenüber Geschwindigkeit und übertrifft frühere Gemini-Modelle in Genauigkeit und Analyse. | Input: 1,048,576 Output: 65,535 | Jan 01, 2025 |
| Mistral Large 2411 Mistral | Mistrals Spitzenmodell mit hervorragenden Denkfähigkeiten, Stärken in Softwareentwicklung, Programmierung und mehrsprachigen Fähigkeiten. Starke Leistung bei anspruchsvollen Gesprächen und komplexer Problemlösung. Verfeinerter als frühere Versionen mit besserer Befolgung von Anweisungen. | Input: 128,000 Output: von Mistral unspezifiziert | Okt 01, 2023 |
Unsere Empfehlungen
Unsere Empfehlung für alltägliche Aufgaben: GPT-5 (OpenAI)
GPT-5 von OpenAI ist unsere Top-Empfehlung für ein vielseitiges Standardmodell, das sich durch seine außergewöhnlichen multimodalen Fähigkeiten bei einer Vielzahl von Aufgaben auszeichnet. Dieses Flaggschiff-Modell ist ideal für Nutzer, die einen leistungsstarken Allrounder benötigen, der hervorragende Leistungen bei der Erstellung von Inhalten, kreativem Schreiben, Bildanalyse und mehrsprachiger Unterstützung bietet. GPT-5 zeichnet sich durch seine modernsten Denkfähigkeiten aus und verfügt gleichzeitig über ausgeprägte kreative Schreibfähigkeiten.Ein Hybridmodell für Programmierung und Schreiben: Claude Sonnet 4.5 (Anthropic)
Claude Sonnet 4.5 von Anthropic ist unsere Top-Empfehlung für die Programmierung oder Textgenerierung. Viele unserer Nutzer bevorzugen Claude für das Schreiben von Software-Code, E-Mails, Texten, Übersetzungen usw. Wie bei den vorherigen Versionen von Claude Sonnet empfehlen wir es besonders für das Programmieren und Erstellen von Texten, da es einen authentischen und realistischen Ton hat. Wir haben zwei Modelle hinzugefügt, sodass ihr wählen könnt, ob ihr Reasoning verwenden wollt. Die Modelle heißen Claude Sonnet 4.5 und Claude Sonnet 4.5 Reasoning. Beide bieten hervorragende Fähigkeiten zur Befolgung von Anweisungen, minimale Halluzinationen und außergewöhnliche Programmierfähigkeiten. Wir empfehlen es aufgrund seiner konstant hohen Nutzerzufriedenheit bei Sprach- und Softwareentwicklungsaufgaben.Das spezialisierte Modell für komplexes Denken: GPT-5 Thinking (OpenAI)
GPT-5 Thinking von OpenAI ist unsere Top-Empfehlung für komplexe analytische Aufgaben, die maximale Präzision erfordern. Diese spezialisierte Variante zeichnet sich bei mathematischen, wissenschaftlichen und Programmierherausforderungen durch ihre fortschrittliche Denk-Architektur aus, die komplexe Probleme mit außergewöhnlicher Klarheit aufschlüsselt. Der entscheidende technische Vorteil liegt in den erweiterten Denkfähigkeiten kombiniert mit GPT-5s modernster Intelligenz, die umfassende Analysen ohne Verlust der Kohärenz ermöglicht. Während dieses tiefere Denken eine moderate Latenz hinzufügt, machen die Genauigkeitsgewinne es ideal für professionelle und Unternehmensanwendungen, die die höchste Qualität der Ausgaben erfordern.Bildmodelle
Hier sind die aktuell verfügbaren Bildmodelle in Langdock.| Modell | Stärken |
|---|---|
| Flux1.1 Pro Ultra Black Forest Labs | Das Flaggschiff-Modell von Black Forest Labs, das modernste Leistung bei der Bildgenerierung mit blitzschneller Geschwindigkeit und erstklassiger Prompt-Befolgung und visueller Qualität bietet. |
| Flux.1 Kontext Black Forest Labs | Moderne In-Kontext-Bildgenerierung und -bearbeitung von Black Forest Labs. Verwende dieses Modell, um Text und Bilder für präzise, kohärente Ergebnisse zu kombinieren. |
| Imagen 4 | Google’s führendes Text-zu-Bild-Modell, das für Kreativität entwickelt wurde. Imagen 4 kann verschiedene Kunststile mit größerer Genauigkeit abbilden – von Fotorealismus und Impressionismus bis hin zu abstrakter Kunst und Illustration. |
| Imagen 4 Fast | Google’s Bildmodell, das für schnelle Bildgenerierung und Aufgaben mit hohen Volumen optimiert ist. |
| Gemini 2.5 Flash Image (Nano Banana) | Google’s fortschrittliches KI-Bildbearbeitungsmodell, Teil von Gemini 2.5 Flash, das es Nutzern ermöglicht, Fotos mit natürlichen Sprachprompts zu transformieren und zu bearbeiten mit schnellen, präzisen und konsistenten Ergebnissen. Derzeit nicht mit exklusivem EU-Hosting verfügbar. |
| DALL-E 3 OpenAI | OpenAI’s Legacy Text-zu-Bild KI-Modell, das Bilder aus schriftlichen Prompts generiert, indem es Sprach- und visuelles Verständnis kombiniert. |
| GPT Image 1 OpenAI | GPT Image 1 ist das neue, hochmoderne Bildgenerierungsmodell von OpenAI. Es handelt sich um ein von Grund auf multimodales Sprachmodell, das sowohl Text- als auch Bildeingaben versteht und Bildausgaben erzeugt. |
Ältere Modelle
Die folgenden Modelle sind weiterhin verfügbar und können verwendet werden. Unsere Empfehlung ist jedoch, die neueren Versionen zu nutzen.Zum Kontext: Die älteren Modellversionen haben im Vergleich zu ihren neueren Pendants Einschränkungen in Leistung und Genauigkeit. Die neueren Versionen beinhalten signifikante Verbesserungen in der Antwortqualität, Geschwindigkeit und Sicherheitsfunktionen, die wir basierend auf Nutzerfeedback und technischen Fortschritten entwickelt haben.Du kannst die älteren Versionen weiterhin verwenden, wenn dies aus Kompatibilitätsgründen erforderlich ist, aber wir empfehlen, wenn möglich, auf die neueren Versionen umzusteigen, um die beste Erfahrung zu erhalten.
| Modell | Stärken | Token-Limits (Kontextfenster und Ausgabelimit) | Wissensstop |
|---|---|---|---|
| GPT-5 Chat OpenAI | Konversationell feinabgestimmtes GPT-5-Modell, optimiert für Dialoge, Kundensupport und interaktive Assistenten. Betont Dialog-Kohärenz und Persona-Konsistenz bei vollem Zugriff auf die Denkstärke von GPT-5. | Input: 128,000 Output: 16,384 | Sep 30, 2024 |
| GPT-4.1 OpenAI | OpenAIs verfeinertes Flaggschiff vor GPT-5 mit großem Kontextfenster und verbesserter Genauigkeit. Hervorragend für Inhaltserstellung, kreatives Schreiben, analytische Fähigkeiten und logisches Denken. | Input: 1,047,576 Output: 32,768 | Jun 01, 2024 |
| GPT-4.1 mini OpenAI | Optimierte, schnellere Variante von GPT-4.1 mit robustem Sprachverständnis. Liefert effiziente Antworten für alltägliche Aufgaben mit deutlich schnelleren Reaktionszeiten. | Input: 1,047,576 Output: 32,768 | Jun 01, 2024 |
| GPT-4.1 nano OpenAI | Leichte und schnelle Variante, ideal für Echtzeit-Assistenten und Hochvolumen-Anwendungen. Optimiert für Geschwindigkeit und geringen Ressourcenverbrauch bei alltäglichen Aufgaben. | Input: 1,047,576 Output: 32,768 | Jun 01, 2024 |
| o4 mini OpenAI | Kleines o-Serie-Modell mit Fokus auf schnelles, effektives Denken. Überzeugt bei visuellen Aufgaben und liefert hocheffiziente Programmier- und visuelle Leistung. | Input: 200,000 Output: 100,000 | Okt 01, 2023 |
| GPT-4o OpenAI | OpenAIs vorheriges Flaggschiff-Modell mit guten multimodalen Fähigkeiten. Ausgewogene Leistung in Inhaltserstellung, Datenanalyse, Bildanalyse, Übersetzung und mehrsprachiger Unterstützung. | Input: 128,000 Output: 16,384 | Okt 01, 2023 |
| GPT-4o Mini OpenAI | Schneller und kosteneffizienter als GPT-4o mit Bildanalyse-Fähigkeiten. Ideal für schnelle Antworten und leichtgewichtige Anwendungen, bei denen Geschwindigkeit wichtiger ist als Tiefe. | Input: 128,000 Output: 16,384 | Okt 01, 2023 |
| o1 OpenAI | Optimiertes OpenAI-Modell mit Fokus auf Echtzeit-Denken, Planung und kohärente längere Gespräche. Balanciert Effizienz und fortschrittliches Denken für Programmierung und Inhaltserstellung. | Input: 200,000 Output: 100,000 | Okt 01, 2023 |
| o3 Mini High OpenAI | Verbessertes o3 Mini mit optimierter, effizienter Architektur. Bewältigt längere, detailliertere Aufgaben mit verbesserter Genauigkeit und Antworttiefe. | Input: 200,000 Output: 100,000 | Okt 01, 2023 |
| LLaMA 3.3 70B Meta | Metas Open-Source-Modell mit wettbewerbsfähiger Leistung gegenüber proprietären Alternativen. Signifikante Verbesserung mit besserem Denken, Befolgung von Anweisungen und mehrsprachigen Fähigkeiten. | Input: 128,000 Output: 2,048 | Aug 01, 2023 |
| DeepSeek R1 32B DeepSeek | Wettbewerbsfähiges Modell aus China, entwickelt mit deutlich weniger Ressourcen als Konkurrenten. Optimiert für Denkqualität statt Geschwindigkeit mit außergewöhnlicher Leistung bei Softwareentwicklung, Programmierung und Halluzinationsresistenz. | Input: 128,000 Output: 8,000 | Jan 01, 2025 |
| Claude 3.7 Sonnet Anthropic | Anthropics vorheriges Flaggschiff mit Dual-Mode-Fähigkeit: Standardmodus für schnelle Antworten und erweiterter Denkmodus für komplexe Aufgaben. Deutlich verbesserte Programmierfähigkeiten, Inhaltserstellung, Bildanalyse und mehrsprachige Unterstützung. | Input: 200,000 Output: 8,192 | Nov 01, 2024 |
| Gemini 2.0 Flash | Googles vorheriges Flaggschiff-Hochgeschwindigkeitsmodell mit großem Kontextfenster. Übertrifft Gemini 1.5 Pro bei wichtigen Benchmarks und ist dabei doppelt so schnell. Stark bei Langkontext-Analyse, Dokumentenverarbeitung und Bildanalyse. | Input: 1,048,576 Output: 8,192 | Aug 01, 2024 |
| Gemini 1.5 Pro | Googles älteres Modell mit 2M Token-Kontextfenster. Starke multimodale Fähigkeiten und gut für Langkontext-Anwendungen, Dokumentenverarbeitung und Bildanalyse. | Input: 2,097,152 Output: 8,192 | Mai 01, 2024 |