Blog

MiMo-7B vs. Qwen 8B: KI-Modell Vergleich 2025

Xiaomi MiMo-7B vs. Alibaba Qwen 8B: Der große KI-Modell-Vergleich 2025

Open-Source KI Modell Vergleich – Die Welt der Open-Source-Künstlichen Intelligenz entwickelt sich rasend schnell. Zwei Modelle stechen 2025 besonders hervor: Xiaomi MiMo-7B und Alibaba Qwen 8B. Beide überzeugen mit kompakter Größe und beeindruckenden Fähigkeiten in Bereichen wie Logik, Programmierung und allgemeinen Aufgaben. Dieser Artikel vergleicht MiMo-7B und Qwen 8B detailliert hinsichtlich Architektur, Leistung, Einsatzmöglichkeiten und Zugänglichkeit. Erfahrt, welches Modell am besten zu euren Bedürfnissen passt!

Xiaomi MiMo-7B und Alibaba Qwen 8B im Vergleich: Welches Open-Source KI Modell ist besser für Euch? Leistung, Features & Einsatzmöglichkeiten im Detail.
Open-Source KI Modell Vergleich

1. Überblick über MiMo-7B und Qwen 8B

Xiaomi MiMo-7B

Das von Xiaomis Big Model Core Team im April 2025 vorgestellte MiMo-7B ist ein Sprachmodell mit 7 Milliarden Parametern. Es ist optimiert für logisches Denken, insbesondere in Mathematik und Programmierung. Trotz seiner vergleichsweise geringen Größe konkurriert es mit deutlich größeren Modellen wie OpenAIs o1-mini und Alibabas Qwen-32B-Preview und liefert überzeugende Ergebnisse. MiMo-7B gibt es in vier Varianten: Base, SFT (Supervised Fine-Tuning), RL-Zero und RL, wobei die RL-Variante die fortschrittlichste ist. Unter der Apache 2.0 Lizenz vollständig Open-Source, findet man es auf Hugging Face und GitHub. Es eignet sich sowohl für Edge-Geräte als auch für Unternehmensanwendungen.

Alibaba Qwen 8B

Als Teil der Alibaba Cloud Qwen3-Serie ist Qwen 8B ein dichtes Modell mit 8 Milliarden Parametern, das im Mai 2025 veröffentlicht wurde. Es baut auf dem Erfolg der Qwen-Familie (auch bekannt als Tongyi Qianwen) auf und bietet verbesserte Logikfähigkeiten, mehrsprachige Unterstützung und einen nahtlosen Wechsel zwischen „Denkmodus“ (für komplexe Aufgaben wie Mathematik und Programmierung) und „Nicht-Denkmodus“ (für allgemeine Chats). Qwen 8B ist unter der Apache 2.0 Lizenz Open-Source, verfügbar auf Hugging Face und ModelScope, und optimiert für die Integration in Anwendungen wie Chatbots, Kundensupport und multimodale Aufgaben.

2. Hauptmerkmale und Innovationen

MiMo-7B: Optimiert für logisches Denken

MiMo-7Bs Stärke liegt in seiner Fokussierung auf logisches Denken, Mathematik und Programmierung, erreicht durch innovative Trainingsmethoden:

  • Pre-Training: Trainiert mit 25 Billionen Tokens, davon 200 Milliarden speziell für logische Aufgaben, mit einem dreistufigen Datenmix, der logiklastige Inhalte priorisiert. Es verwendet Multi-Token Prediction (MTP), um die Inferenzgeschwindigkeit und das Kontextverständnis zu verbessern.
  • Post-Training: Die RL-Variante nutzt fortschrittliches Reinforcement Learning mit einem Test Difficulty Driven Reward-System, das Teillösungen belohnt und das Training durch erneutes Auswählen einfacherer Probleme stabilisiert. Eine Seamless Rollout Engine beschleunigt das Training um 2,29x und die Validierung um 1,96x.
  • Multimodale Variante: MiMo-VL-7B erweitert die Fähigkeiten auf vision-language Aufgaben, mit einem ViT-Encoder und MLP-Projektor, und übertrifft größere Modelle in multimodalen Benchmarks.
  • Edge-Kompatibilität: Seine kompakte Größe macht es für den Einsatz auf ressourcenbeschränkten Geräten wie Smartphones und IoT-Systemen geeignet.

Qwen 8B: Vielseitig und multimodal

Qwen 8B ist auf Flexibilität ausgelegt und zeichnet sich durch Logik, mehrsprachige Aufgaben und multimodale Anwendungen aus:

  • Pre-Training: Basierend auf einer Transformer-Architektur unterstützt Qwen 8B 119 Sprachen und Dialekte, mit Fokus auf verbesserte Logik und die Verarbeitung strukturierter Daten (z. B. Tabellen im JSON-Format). Es verwendet Grouped Query Attention für schnellere Inferenz und geringeren Speicherverbrauch.
  • Post-Training: Bietet einen nahtlosen Wechsel zwischen „Denkmodus“ für komplexe Aufgaben und „Nicht-Denkmodus“ für effiziente Chats, mit Feinabstimmung für spezifische Bereiche wie Programmierung und Mathematik.
  • Multimodale Fähigkeiten: Qwen 8B integriert sich mit Qwen-VL und Qwen-Audio und ermöglicht die Verarbeitung von Text, Bildern, Audio und Video. Es kann lange Videos analysieren, strukturierte Ausgaben generieren und interaktive Agents unterstützen.
  • Integration: Wird weltweit in über 10.000 Anwendungen eingesetzt, darunter Xiaomis mobiler Assistent und Tools zur Rezeptgenerierung, mit robuster API-Unterstützung über Alibaba Cloud.

Hauptunterschied: MiMo-7B konzentriert sich stark auf Logik und Programmierung, während Qwen 8B breitere Vielseitigkeit bietet, einschließlich mehrsprachiger und multimodaler Fähigkeiten.

3. Leistungsvergleich: Benchmarks

Beide Modelle glänzen in bestimmten Bereichen, ihre Leistung variiert jedoch je nach Aufgabe. Nachfolgend einige wichtige Benchmark-Ergebnisse basierend auf verfügbaren Daten:

  • Mathematisches Denken:

    • MiMo-7B-RL: Erreicht 95,8 % Pass@1 bei MATH-500, 68,2 % bei AIME 2024 und 55,4 % bei AIME 2025 und übertrifft damit OpenAIs o1-mini und Alibabas Qwen-32B-Preview.
    • Qwen 8B: Zeigt starke Leistung im mathematischen Denken, obwohl spezifische AIME-Werte nicht detailliert sind. Es übertrifft Llama 3 8B und GLM-4 9B in allgemeinen Mathematikaufgaben, mit signifikanten Verbesserungen gegenüber Qwen2.5.
  • Codegenerierung:

    • MiMo-7B-RL: Erreicht 57,8 % Pass@1 bei LiveCodeBench v5 und 54,2 % bei v6 und übertrifft damit DeepSeek-R1-Zero-32B und Qwen2.5-32B-RL-Zero.
    • Qwen 8B: Überzeugt bei der Codegenerierung, wobei Qwen2.5-7B Coder Instruct andere Open-Source-Modelle übertrifft und GPT-4o bei strukturierten Codeaufgaben ebenbürtig ist. Qwen 8B dürfte diesen Vorteil beibehalten, obwohl spezifische LiveCodeBench-Werte nicht verfügbar sind.
  • Allgemeines logisches Denken:

    • MiMo-7B-RL: Erreicht 75,2 % bei Big-Bench Hard (BBH) und 54,4 % bei SuperGPQA, wettbewerbsfähig mit größeren Modellen.
    • Qwen 8B: Schneidet gut in Common-Sense-Reasoning und Sprachverständnis ab, mit verbesserter Kontextabwicklung (bis zu 32k Tokens) im Vergleich zu MiMo-7Bs kürzerem Kontextfenster.
  • Multimodale Aufgaben:

    • MiMo-VL-7B: Übertrifft größere Vision-Language-Modelle in Benchmarks mit starkem Bildverständnis und Textintegration.
    • Qwen 8B (mit Qwen-VL): Überzeugt bei Videoanalyse, Objekterkennung und Extraktion strukturierter Daten, unterstützt über eine Stunde Videoverarbeitung und Echtzeit-multimodale Antworten.

Hauptunterschied: MiMo-7B führt in Benchmarks für mathematisches Denken und Codegenerierung, während Qwen 8B überlegene multimodale und mehrsprachige Leistung bietet.

4. Anwendungsfälle und Einsatzmöglichkeiten

MiMo-7B

  • Bildung: Hilft bei der Lösung komplexer mathematischer Probleme und beim Programmierunterricht mit schrittweisen Erklärungen.
  • Softwareentwicklung: Automatisierte Codegenerierung, Debugging und Unit-Tests, ideal für Entwickler, die mit ressourcenbeschränkten Systemen arbeiten.
  • Edge Computing: Läuft effizient auf Smartphones und IoT-Geräten und ermöglicht On-Device-KI für Xiaomis Ökosystem (z. B. HyperOS, Xiao AI).
  • Forschung: Unterstützt den Beweis von Sätzen und logische Analysen, attraktiv für akademische und wissenschaftliche Gemeinschaften.

Qwen 8B

  • Kundensupport: Steuert mehrsprachige Chatbots und strukturierte Konversationssysteme mit starker Leistung in mehrstufigen Dialogen.
  • Multimodale Anwendungen: Wird in visuellen Agents für Aufgaben wie Rechnungsanalyse, Videoanalyse und Echtzeit-Audiobeschreibung eingesetzt (z. B. Unterstützung sehbehinderter Nutzer).
  • Unternehmenslösungen: Integriert mit Alibaba Cloud für skalierbare KI-Anwendungen in Finanzwesen, Gesundheitswesen und E-Commerce.
  • Xiaomi-Integration: Steuert die Rezeptgenerierung und mobile Assistenten in Xiaomi-Geräten und zeigt seine Vielseitigkeit.

Hauptunterschied: MiMo-7B ist ideal für spezialisierte logische Aufgaben, während Qwen 8B in breiteren, multimodalen Unternehmensanwendungen überzeugt.

5. Zugänglichkeit und Bereitstellung

  • MiMo-7B:

    • Open-Source: Vollständig offen unter Apache 2.0, mit Modellgewichten und Dokumentation auf Hugging Face und GitHub.
    • Bereitstellung: Optimiert für Edge-Geräte, benötigt nur 8 GB RAM für Q4_K_M-Quantisierung. Kompatibel mit Frameworks wie vLLM, Transformers und Llama.cpp.
    • Community-Support: Profitiert von Xiaomis Engagement für community-getriebene Entwicklung, obwohl sein Ökosystem im Vergleich zu Qwens noch jünger ist.
  • Qwen 8B:

    • Open-Source: Auch unter Apache 2.0, mit Gewichten auf Hugging Face und ModelScope. Größere Modelle wie Qwen2.5-VL-72B haben restriktive Lizenzen für die kommerzielle Nutzung.
    • Bereitstellung: Unterstützt die Bereitstellung über Alibaba Clouds PAI-EAS und Frameworks wie Ollama, mit optimierter Inferenz für 32k-Token-Kontexte.
    • Community-Support: Unterstützt von Alibabas etabliertem KI-Ökosystem, mit umfangreicher API-Unterstützung und über 10.000 globalen Anwendungen.

Hauptunterschied: Beide sind gut zugänglich, aber Qwen 8B profitiert von Alibabas ausgereifter Infrastruktur, während MiMo-7B besser für die Edge-Bereitstellung geeignet ist.

6. Tabellenvergleich: Open-Source KI Modell Vergleich MiMo-7B vs. Qwen 8B

MerkmalXiaomi MiMo-7BAlibaba Qwen 8B
Parameter7 Milliarden8 Milliarden
VeröffentlichungsdatumApril 2025Mai 2025
LizenzApache 2.0 (vollständig offen)Apache 2.0 (einige größere Varianten eingeschränkt)
Pre-Training25 Billionen Tokens, 200 Milliarden fokussiert auf LogikMehrsprachig, 27+ Sprachen, strukturierte Daten
Post-TrainingRL mit Test Difficulty Driven RewardDenk-/Nicht-Denk-Modi, feinabgestimmt
Benchmarks (Mathe)95,8 % MATH-500, 68,2 % AIME 2024, 55,4 % AIME 2025Stark, übertrifft Llama 3 8B (Details n.v.)
Benchmarks (Code)57,8 % LiveCodeBench v5, 54,2 % v6Übertrifft Open-Source-Coder, konkurriert mit GPT-4o
MultimodalMiMo-VL-7B (Bild-Text-Verarbeitung)Qwen-VL (Text, Bild, Audio, Video-Verarbeitung)
KontextfensterNicht spezifiziert (wahrscheinlich ~8k Tokens)32k Tokens
StärkenMathematik, Programmierung, Edge ComputingMehrsprachig, multimodal, Unternehmenslösungen
SchwächenEingeschränkte allgemeine AufgabenWeniger spezialisiert auf Mathematik/Programmierung als MiMo-7B
BereitstellungEdge-Geräte, 8 GB RAM (Q4_K_M)Cloud, Edge, 32k-Token-Kontexte
AnwendungenBildung, Programmierung, ForschungChatbots, multimodale Agents, Unternehmen

7. Welches Modell ist besser?

  • Wählt MiMo-7B, wenn:

    • Ihr ein kompaktes Modell für Edge-Geräte mit überlegener Mathematik- und Programmierleistung benötigt.
    • Euer Fokus auf spezialisierten logischen Aufgaben wie Satzbeweisen oder Code-Debugging liegt.
    • Ihr ein vollständig Open-Source-Modell mit starkem Community-Potenzial schätzt.
  • Wählt Qwen 8B, wenn:

    • Ihr mehrsprachige oder multimodale Fähigkeiten für Anwendungen wie Chatbots oder Videoanalysen benötigt.
    • Ihr ein Modell mit einem größeren Kontextfenster (32k Tokens) für umfangreiche Aufgaben benötigt.
    • Ihr in das Alibaba Cloud-Ökosystem integriert seid oder eine robuste API-Unterstützung benötigt.

8. Fazit

Sowohl Xiaomi MiMo-7B als auch Alibaba Qwen 8B sind herausragende Open-Source-LLMs im Jahr 2025 und bieten beeindruckende Leistung in kompakten Paketen. MiMo-7B zeichnet sich durch mathematisches Denken und Programmierung aus und ist ideal für spezialisierte Aufgaben und Edge Computing. Qwen 8B eignet sich mit seinen mehrsprachigen und multimodalen Fähigkeiten besser für Unternehmensanwendungen und breitere Anwendungsfälle. Die Wahl hängt von euren spezifischen Bedürfnissen ab – MiMo-7B für Präzision in Mathematik und Code oder Qwen 8B für Vielseitigkeit und Skalierbarkeit. Beide Modelle, unterstützt durch ihre Open-Source-Natur, werden die Innovation in der KI-Community vorantreiben.

Hans Mülller

Hans Müller, erfahrener und leidenschaftlicher Redakteur bei AllesXiaomi.de, spezialisiert sich auf Xiaomi-Technologie. Mit klarem und detailliertem Stil erstellt er Testberichte, Anleitungen und Neuigkeiten zu Smartphones, Wearables und HyperOS, und bietet wertvolle, optimierte Inhalte für Xiaomi-Fans in Deutschland und darüber hinaus.

Kommentar verfassen

Alles Xiaomi
Privacy Overview
Datenschutzerklärung für www.allesxiaomi.de
Stand: 21. Mai 2025
Der Schutz Ihrer persönlichen Daten ist uns bei www.allesxiaomi.de ein wichtiges Anliegen. Diese Datenschutzerklärung erläutert, welche Daten wir erheben, wie wir sie verwenden und schützen, und welche Rechte Sie in Bezug auf Ihre Daten haben. Sie entspricht den Anforderungen der Datenschutz-Grundverordnung (DSGVO), dem Telekommunikation-Telemedien-Datenschutz-Gesetz (TTDSG) sowie weiteren anwendbaren Datenschutzgesetzen.

1. Verantwortlicher
Verantwortlicher im Sinne der DSGVO ist:
Alles Xiaomi
E-Mail: allesxiaomi @ gmail.com


2. Welche Daten wir erheben
Wir erheben und verarbeiten die folgenden Arten von Daten, wenn Sie unsere Website besuchen oder mit uns interagieren:
a) Automatisch erhobene Daten
Beim Besuch von www.allesxiaomi.de werden bestimmte Daten automatisch durch unsere Server oder Drittanbieter-Dienste erfasst:
  • Technische Daten: IP-Adresse (anonymisiert), Browsertyp, Betriebssystem, Geräteinformationen, Uhrzeit und Datum des Zugriffs, Referrer-URL.
  • Cookies und ähnliche Technologien: Wir verwenden Cookies, um die Funktionalität der Website sicherzustellen, personalisierte Werbung bereitzustellen und das Nutzerverhalten zu analysieren (siehe Abschnitt 3).
  • Zweck: Sicherstellung der technischen Funktionalität, Verbesserung der Benutzererfahrung und Bereitstellung personalisierter Werbung.
b) Freiwillig angegebene Daten
Wenn Sie mit uns interagieren, z. B. über ein Kontaktformular oder Kommentare auf dem Blog:
  • Personenbezogene Daten: Name, E-Mail-Adresse, ggf. weitere Angaben, die Sie freiwillig übermitteln.
  • Zweck: Bearbeitung Ihrer Anfragen oder Kommentare.
c) Daten von Drittanbietern
Wir nutzen Drittanbieter-Dienste wie Google Ads, die Daten erheben, wenn Sie Ihre Zustimmung geben (siehe Abschnitt 3).

3. Cookies und Tracking-Technologien
Unsere Website verwendet Cookies und ähnliche Technologien, um die Benutzererfahrung zu verbessern, personalisierte Werbung bereitzustellen und die Nutzung der Website zu analysieren. Eine detaillierte Übersicht finden Sie in unserer Cookie-Richtlinie.
Arten von Cookies:
  • Unbedingt notwendige Cookies: Erforderlich für die grundlegende Funktionalität der Website (z. B. Navigation, Speicherung von Präferenzen). Rechtsgrundlage: Berechtigtes Interesse (Art. 6 Abs. 1 lit. f DSGVO).
  • Werbe-Cookies: Gesetzt von Google Ads (Tag-ID: AW-XXXXXXXXXX) für personalisierte Werbung und Conversion-Tracking. Beispiele: _gads, _gcl_aw. Rechtsgrundlage: Einwilligung (Art. 6 Abs. 1 lit. a DSGVO, § 25 Abs. 1 TTDSG).
  • Analyse-Cookies (falls verwendet): Z. B. Google Analytics (Tag-ID: G-XXXXXXXXXX) zur Analyse des Nutzerverhaltens. Rechtsgrundlage: Einwilligung (Art. 6 Abs. 1 lit. a DSGVO, § 25 Abs. 1 TTDSG).
Einwilligung und Widerruf:
Beim ersten Besuch unserer Website zeigen wir Ihnen ein Cookie-Banner, über das Sie Ihre Zustimmung zu nicht notwendigen Cookies (z. B. Werbe- und Analyse-Cookies) geben oder diese ablehnen können. Sie können Ihre Einstellungen jederzeit über den Link „[Cookie-Einstellungen]“ in der Fußzeile oder durch Löschen der Cookies in Ihrem Browser ändern. Unser Cookie-Management wird durch das Plugin GDPR Cookie Compliance unterstützt, das sicherstellt, dass keine nicht notwendigen Cookies ohne Ihre Zustimmung gesetzt werden.
Google Consent Mode V2:
Wir verwenden Google Consent Mode V2, um die Zustimmungseinstellungen für Google Ads und andere Google-Dienste zu verwalten. Ohne Ihre Zustimmung werden keine personenbezogenen Daten für Werbezwecke verarbeitet, sondern nur anonymisierte Daten (z. B. aggregierte Statistiken) gemäß den Vorgaben der DSGVO.

4. Zwecke der Datenverarbeitung
Wir verarbeiten Ihre Daten für folgende Zwecke:
  • Bereitstellung der Website: Sicherstellung der technischen Funktionalität und Optimierung der Benutzererfahrung.
  • Personalisierte Werbung: Anzeige relevanter Anzeigen durch Google Ads basierend auf Ihren Interessen.
  • Analyse (falls zutreffend): Verständnis des Nutzerverhaltens, um unsere Inhalte und Dienstleistungen zu verbessern.
  • Kommunikation: Beantwortung von Anfragen über Kontaktformulare oder Kommentare.

5. Rechtsgrundlage der Verarbeitung
Die Verarbeitung Ihrer Daten erfolgt auf Basis folgender Rechtsgrundlagen:
  • Einwilligung (Art. 6 Abs. 1 lit. a DSGVO, § 25 Abs. 1 TTDSG): Für nicht notwendige Cookies (z. B. Google Ads) und freiwillig übermittelte Daten (z. B. Kontaktformulare).
  • Berechtigtes Interesse (Art. 6 Abs. 1 lit. f DSGVO): Für unbedingt notwendige Cookies und technische Daten, die für den Betrieb der Website erforderlich sind.
  • Vertragserfüllung (Art. 6 Abs. 1 lit. b DSGVO): Falls Sie Dienstleistungen über unsere Website in Anspruch nehmen (z. B. über ein Kontaktformular).

6. Datenübermittlung an Dritte
Wir geben Ihre Daten nur in den folgenden Fällen an Dritte weiter:
  • Drittanbieter-Dienste: Google Ads (Google Ireland Limited, Gordon House, Barrow Street, Dublin 4, Irland) für personalisierte Werbung, sofern Sie zugestimmt haben.
  • Datenübermittlung in Drittländer: Google hat seinen Sitz teilweise in den USA. Die Datenübermittlung erfolgt auf Basis von Standardvertragsklauseln oder Ihrer Einwilligung gemäß Art. 49 Abs. 1 lit. a DSGVO. Weitere Informationen finden Sie in Googles Datenschutzrichtlinie.
  • Dienstleister: Hosting-Provider, die unsere Website betreiben, verarbeiten technische Daten in unserem Auftrag unter strikter Einhaltung der DSGVO.

7. Speicherdauer
Wir speichern Ihre Daten nur so lange, wie es für die jeweiligen Zwecke erforderlich ist oder gesetzlich vorgeschrieben ist:
  • Technische Daten: In der Regel bis zum Ende Ihrer Browsersitzung (anonymisierte IP-Adressen können länger gespeichert werden).
  • Cookies: Die Speicherdauer variiert (z. B. Google Ads-Cookies bis zu 13 Monate). Details finden Sie in unserer Cookie-Richtlinie.
  • Kontaktformulardaten: Bis zur Bearbeitung Ihrer Anfrage oder länger, wenn gesetzlich erforderlich (z. B. steuerrechtliche Aufbewahrungspflichten).

8. Ihre Rechte
Gemäß der DSGVO haben Sie folgende Rechte in Bezug auf Ihre personenbezogenen Daten:
  • Recht auf Auskunft (Art. 15 DSGVO): Auskunft über die von uns gespeicherten Daten.
  • Recht auf Berichtigung (Art. 16 DSGVO): Korrektur unrichtiger Daten.
  • Recht auf Löschung (Art. 17 DSGVO): Löschung Ihrer Daten („Recht auf Vergessenwerden“).
  • Recht auf Einschränkung der Verarbeitung (Art. 18 DSGVO): Einschränkung der Datenverarbeitung.
  • Recht auf Datenübertragbarkeit (Art. 20 DSGVO): Übermittlung Ihrer Daten in einem maschinenlesbaren Format.
  • Recht auf Widerspruch (Art. 21 DSGVO): Widerspruch gegen die Verarbeitung aus berechtigten Gründen.
  • Recht auf Widerruf der Einwilligung (Art. 7 Abs. 3 DSGVO): Widerruf Ihrer Einwilligung (z. B. für Cookies) mit Wirkung für die Zukunft.
Um Ihre Rechte auszuüben, kontaktieren Sie uns unter [Su dirección de correo electrónico]. Sie haben zudem das Recht, sich bei einer Aufsichtsbehörde zu beschweren, z. B. der Landesbeauftragte für Datenschutz und Informationsfreiheit in Ihrem Bundesland.

9. Datensicherheit
Wir setzen technische und organisatorische Maßnahmen ein, um Ihre Daten vor unbefugtem Zugriff, Verlust oder Missbrauch zu schützen. Dazu gehören:
  • Verschlüsselte Datenübertragung (SSL/TLS).
  • Regelmäßige Updates unserer Systeme.
  • Zugriffskontrollen für sensible Daten.

10. Kontakt
Für Fragen zur Verarbeitung Ihrer Daten oder zur Ausübung Ihrer Rechte kontaktieren Sie uns bitte unter:
E-Mail: [Su dirección de correo electrónico]
[Opcional: Postanschrift oder Kontaktformular]

11. Änderungen an dieser Datenschutzerklärung
Wir können diese Datenschutzerklärung gelegentlich aktualisieren, um rechtlichen, technischen oder geschäftlichen Änderungen Rechnung zu tragen. Die aktuelle Version ist stets auf unserer Website verfügbar.