In einer Welt, in der Videos zum dominierenden Kommunikationsmittel geworden sind, gewinnt die automatische Videountertitelung zunehmend an Bedeutung. Diese Technologie revolutioniert die Art und Weise, wie wir Videoinhalte konsumieren und produzieren, und öffnet Türen für eine inklusive digitale Landschaft. Von Social-Media-Plattformen bis hin zu Unternehmenswebinaren – automatisch generierte Untertitel sind nicht mehr nur eine Option, sondern eine Notwendigkeit geworden.
Die digitale Revolution hat das Videoformat in den Mittelpunkt der Online-Kommunikation gerückt. Laut aktuellen Studien werden bis 2022 über 82% des gesamten Internetverkehrs durch Videoinhalte generiert. Diese beeindruckende Statistik unterstreicht die Notwendigkeit, Videoinhalte für ein möglichst breites Publikum zugänglich zu machen. Genau hier kommt die automatische Untertitelung ins Spiel.
„Untertitel sind nicht nur für Menschen mit Hörbeeinträchtigungen wichtig. Sie verbessern das Seherlebnis für jeden, der Videos in lauten Umgebungen ansieht oder eine Fremdsprache lernt", erklärte Dr. Maria Schmidt, Professorin für Medienwissenschaften an der Universität Berlin, in einem kürzlich veröffentlichten Fachartikel.
Die technologischen Grundlagen der automatischen Videountertitelung
Die automatische Videountertitelung basiert auf komplexen Algorithmen der künstlichen Intelligenz und des maschinellen Lernens. Im Kern dieser Technologie steht die automatische Spracherkennung (Automatic Speech Recognition, ASR), die gesprochene Sprache in Text umwandelt. Dieser Prozess mag einfach klingen, ist aber tatsächlich äußerst komplex und erfordert fortschrittliche computerlinguistische Modelle.
Die ersten ASR-Systeme wurden bereits in den 1950er Jahren entwickelt, aber erst mit dem Aufkommen neuronaler Netzwerke und Deep-Learning-Technologien in den letzten Jahrzehnten erreichte die Spracherkennung eine für den praktischen Einsatz ausreichende Genauigkeit. Moderne Systeme verarbeiten Audiodaten in Echtzeit und können selbst bei Hintergrundgeräuschen und verschiedenen Akzenten bemerkenswert genaue Ergebnisse liefern.
Ein weiterer wichtiger Bestandteil der automatischen Untertitelung ist die zeitliche Synchronisation. Die Software muss nicht nur erkennen, was gesagt wird, sondern auch genau bestimmen, wann es gesagt wird, um die Untertitel zeitgenau anzuzeigen. Diese zeitliche Alignment-Technologie ist entscheidend für ein optimales Nutzererlebnis.
Darüber hinaus spielen Algorithmen zur natürlichen Sprachverarbeitung (Natural Language Processing, NLP) eine wichtige Rolle. Sie helfen dabei, Satzzeichen, Groß- und Kleinschreibung sowie Satzstrukturen korrekt zu erkennen und umzusetzen. Bei mehrsprachigen Untertiteln kommen zusätzlich maschinelle Übersetzungssysteme zur Anwendung.
„Die Herausforderung besteht darin, dass Maschinen lernen müssen, Sprache in all ihren Nuancen zu verstehen – einschließlich Dialekte, Umgangssprache und fachspezifischer Terminologie", so Thomas Wagner, Entwicklungsleiter bei SubtitleTech GmbH.
Vorteile der automatischen Videountertitelung
Barrierefreiheit und Inklusion
Der vielleicht wichtigste Aspekt der automatischen Untertitelung ist die verbesserte Zugänglichkeit für Menschen mit Hörbeeinträchtigungen. Weltweit leben etwa 466 Millionen Menschen mit Hörschädigungen, für die Untertitel oft die einzige Möglichkeit darstellen, Videoinhalte vollständig zu erfassen.
In Deutschland sind etwa 16 Millionen Menschen von einer Hörminderung betroffen. Für diese Bevölkerungsgruppe sind Untertitel nicht nur ein zusätzlicher Service, sondern eine wesentliche Voraussetzung für die gleichberechtigte Teilhabe an digitalen Inhalten. Die automatische Untertitelung demokratisiert den Zugang zu Informationen und Unterhaltung und trägt somit maßgeblich zur digitalen Inklusion bei.
Suchmaschinenoptimierung und Content-Reichweite
Aus der Perspektive der Contentersteller bietet die automatische Untertitelung erhebliche SEO-Vorteile. Suchmaschinen können Videoinhalte nicht direkt analysieren, aber sie können Untertiteltexte indexieren. Durch die Integration von automatisch generierten Untertiteln werden Videos für Suchmaschinen "lesbar", was ihre Auffindbarkeit deutlich verbessert.
Untersuchungen zeigen, dass Videos mit Untertiteln im Durchschnitt 40% mehr Aufrufe generieren als Videos ohne Untertitel. Zudem erhöht sich die Verweildauer bei untertitelten Videos um bis zu 12%, was sich positiv auf den Algorithmus von Plattformen wie YouTube auswirkt.
Ein weiterer Vorteil ist die Internationalisierung von Inhalten. Durch die Kombination von automatischer Untertitelung und maschineller Übersetzung können Videoinhalte problemlos in verschiedene Sprachen übertragen werden, was die potenzielle Reichweite erheblich vergrößert.
Verbesserte Nutzererfahrung und Engagement
In der heutigen mobilen Gesellschaft werden Videos oft in Umgebungen angesehen, in denen Ton nicht praktikabel ist. In öffentlichen Verkehrsmitteln, in Wartezimmern oder am Arbeitsplatz bevorzugen viele Nutzer stumme Videos mit Untertiteln. Tatsächlich zeigen Statistiken, dass bis zu 85% der Videos in sozialen Medien ohne Ton angesehen werden.
Automatische Untertitel ermöglichen es den Zuschauern, den Inhalt auch in solchen Situationen vollständig zu erfassen. Dies führt zu einer höheren Engagement-Rate, längeren Betrachtungszeiten und letztendlich zu einer effektiveren Kommunikation der Botschaft.
„Untertitel erhöhen nicht nur die Zugänglichkeit, sondern auch die Verständlichkeit komplexer Inhalte. Sie bieten eine visuelle Unterstützung, die das Verstehen und Behalten von Informationen erleichtert", erklärt Kommunikationsexperte Michael Bauer.
Anwendungsbereiche der automatischen Videountertitelung
Online-Bildung und E-Learning
Im Bildungsbereich hat die automatische Untertitelung eine transformative Wirkung. Besonders im Kontext des exponentiellen Wachstums von E-Learning-Plattformen und MOOCs (Massive Open Online Courses) spielen automatische Untertitel eine entscheidende Rolle für die Lerneffizienz.
Studien belegen, dass Lernenden, die Videoinhalte mit Untertiteln konsumieren, eine um bis zu 20% höhere Informationsretention aufweisen. Dies ist besonders relevant für Nicht-Muttersprachler, die durch die visuelle Textunterstützung Sprachbarrieren leichter überwinden können.
Prominente Bildungsplattformen wie edX, Coursera und die deutsche Plattform Lecturio setzen mittlerweile standardmäßig auf automatische Untertitelung, um ihre Kurse barrierefrei und international zugänglich zu gestalten.
Unternehmenskommunikation und Marketing
Im Unternehmenskontext werden Videos zunehmend für interne Kommunikation, Schulungen und Marketingzwecke eingesetzt. Automatische Untertitel erhöhen nicht nur die Reichweite und Zugänglichkeit dieser Inhalte, sondern ermöglichen auch eine effizientere Informationsverteilung in globalisierten Unternehmen.
Für Marketingvideos ist die automatische Untertitelung besonders wertvoll. Sie erhöht die Zuschauerbindung und verbessert die Konversionsraten, da die Botschaft auch ohne Ton verstanden werden kann. Dies ist besonders relevant für Social-Media-Plattformen, wo Videos oft automatisch, aber stumm abgespielt werden.
Ein interessantes Beispiel ist die Kampagne des deutschen Sportartikelherstellers Adidas, der durch den konsequenten Einsatz von untertitelten Videos auf sozialen Medien eine Steigerung des Engagements um 23% verzeichnen konnte.
Entertainment und Streaming-Plattformen
Streaming-Giganten wie Netflix, Amazon Prime und Disney+ haben die automatische Untertitelung zu einem integralen Bestandteil ihrer Plattformen gemacht. Diese Dienste nutzen fortschrittliche KI-Systeme, um tausende Stunden Videomaterial effizient zu untertiteln und für ein globales Publikum zugänglich zu machen.
Die deutsche Streaming-Plattform Joyn setzt ebenfalls auf automatische Untertitelung und hat damit die Nutzerzufriedenheit deutlich steigern können. Laut internen Studien nutzen etwa 40% der Abonnenten regelmäßig Untertitel, wobei die Tendenz steigend ist.
Technische Herausforderungen und Lösungsansätze
Genauigkeit und Fehlerquoten
Trotz beeindruckender Fortschritte steht die automatische Untertitelung vor verschiedenen Herausforderungen. Die Genauigkeit der Spracherkennung kann durch Faktoren wie Akzente, Dialekte, Fachterminologie, Hintergrundgeräusche oder überlappende Gespräche beeinträchtigt werden.
Moderne ASR-Systeme erreichen unter optimalen Bedingungen Genauigkeitsraten von über 95%, doch diese Rate sinkt signifikant in anspruchsvolleren Szenarien. Bei stark akzentuierter Sprache oder in geräuschvollen Umgebungen kann die Fehlerrate auf 15-20% ansteigen.
Um diese Herausforderungen zu bewältigen, setzen Entwickler auf adaptive Algorithmen, die sich kontinuierlich verbessern. Durch das Training mit diversen Sprachproben, einschließlich verschiedener Akzente und Dialekte, werden die Systeme zunehmend robuster.
Ein vielversprechender Ansatz ist das kontextuelle Lernen, bei dem die Software den inhaltlichen Zusammenhang nutzt, um mehrdeutige Audiostellen korrekt zu interpretieren. Beispielsweise kann das System zwischen homophones Wörtern wie "mehr" und "Meer" aufgrund des Kontexts unterscheiden.
Integration mehrsprachiger Funktionalitäten
In einer globalisierten Welt ist die mehrsprachige Untertitelung ein wichtiger Aspekt. Die Kombination von automatischer Spracherkennung und maschineller Übersetzung birgt jedoch zusätzliche Komplexität, da Fehler in beiden Systemen sich multiplizieren können.
Moderne Lösungen setzen auf neuronale maschinelle Übersetzung (NMT), die deutlich natürlichere und kontextuell angemessenere Übersetzungen liefert als frühere statistische Modelle. Google’s Übersetzungsdienst, der auch für Untertitelübersetzungen eingesetzt wird, nutzt solche NMT-Systeme mit beeindruckenden Ergebnissen.
Ein interessanter Fortschritt ist die direkte Sprache-zu-Untertitel-Übersetzung, bei der der Zwischenschritt der Transkription in der Ausgangssprache übersprungen wird. Diese End-to-End-Systeme versprechen höhere Effizienz und potenziell bessere Ergebnisse.
Die wirtschaftliche Bedeutung der automatischen Videountertitelung
Der Markt für automatische Untertitelungstechnologien wächst rasant. Laut einer Analyse von Market Research Future wird der globale Markt für Untertitelungs- und Übersetzungssoftware bis 2026 voraussichtlich einen Wert von 340 Millionen US-Dollar erreichen, mit einer jährlichen Wachstumsrate von 8,2%.
In Deutschland entsteht ein zunehmend dynamisches Ökosystem von Startups und etablierten Unternehmen, die sich auf automatische Untertitelungslösungen spezialisieren. Firmen wie Amberscript aus den Niederlanden und das deutsche Startup Alugha haben erfolgreich Nischenmärkte erschlossen und bieten spezialisierte Lösungen für verschiedene Branchen an.
Die Kosteneinsparungen durch automatische im Vergleich zu manueller Untertitelung sind beträchtlich. Während professionelle manuelle Untertitelung etwa 10-15 Euro pro Videominute kosten kann, reduzieren automatische Lösungen diese Kosten um bis zu 80%. Dies macht die Technologie besonders attraktiv für kleine und mittlere Unternehmen sowie Content-Ersteller mit begrenztem Budget.
„Die Demokratisierung der Untertitelungstechnologie durch erschwingliche automatische Lösungen hat eine Explosion von mehrsprachigen und barrierefreien Inhalten ermöglicht", bemerkt Wirtschaftsanalyst Dr. Frank Schmitt.
Rechtliche Rahmenbedingungen und Standards
Barrierefreiheitsanforderungen
In vielen Ländern gibt es rechtliche Vorgaben zur digitalen Barrierefreiheit, die auch die Untertitelung von Videoinhalten betreffen. In Deutschland gilt seit 2019 die Barrierefreie-Informationstechnik-Verordnung (BITV 2.0), die öffentliche Stellen verpflichtet, ihre digitalen Angebote, einschließlich Videos, barrierefrei zu gestalten.
Auf EU-Ebene wurde 2019 der European Accessibility Act verabschiedet, der bis 2025 umfassende Barrierefreiheitsanforderungen für verschiedene Produkte und Dienstleistungen, darunter auch audiovisuelle Medien, einführt. Diese gesetzlichen Rahmenbedingungen treiben die Nachfrage nach effizienten Untertitelungslösungen weiter an.
In den USA hat der Americans with Disabilities Act (ADA) zu zahlreichen Rechtsstreitigkeiten gegen Unternehmen geführt, deren Webinhalte nicht ausreichend barrierefrei gestaltet waren. Diese Entwicklung unterstreicht die zunehmende rechtliche Bedeutung der Videountertitelung.
Qualitätsstandards und Best Practices
Um die Qualität automatisch generierter Untertitel zu gewährleisten, haben sich verschiedene Standards und Best Practices etabliert. Die BBC hat mit ihren "Subtitle Guidelines" internationale Standards gesetzt, die Aspekte wie Textformatierung, Timing und maximale Zeichenzahl pro Zeile definieren.
Der DCMP (Described and Captioned Media Program) hat umfassende Qualitätsrichtlinien entwickelt, die auch für automatisch generierte Untertitel relevant sind. Diese umfassen Aspekte wie Genauigkeit, Synchronität, Vollständigkeit und korrekte Identifizierung von Sprechern.
Die World Wide Web Consortium (W3C) hat mit den Web Content Accessibility Guidelines (WCAG) 2.1 ebenfalls Standards für zugängliche Videoinhalte definiert, die international als Referenz gelten.
Zukünftige Entwicklungen und Trends
KI und Deep Learning
Die Zukunft der automatischen Videountertitelung wird maßgeblich durch Fortschritte im Bereich der künstlichen Intelligenz und des Deep Learnings geprägt sein. Transformerbasierte Sprachmodelle wie GPT und BERT revolutionieren bereits die natürliche Sprachverarbeitung und werden zunehmend in Untertitelungsanwendungen integriert.
Diese KI-Systeme verbessern nicht nur die Genauigkeit der Transkription, sondern ermöglichen auch eine bessere Erfassung des Kontexts und der Semantik. Dies führt zu natürlicheren, grammatikalisch korrekteren Untertiteln und einer besseren Darstellung von Nuancen wie Ironie oder emotionaler Betonung.
Ein besonders spannendes Forschungsgebiet ist die multimodale KI, die nicht nur Audiodaten, sondern auch visuelle Informationen verarbeitet. Solche Systeme können beispielsweise Sprecherwechsel basierend auf Videobildern erkennen oder kontextuelle Informationen aus dem Bildmaterial extrahieren, um die Untertitel zu verbessern.
Personalisierung und Adaptivität
Zukünftige Untertitelungssysteme werden zunehmend personalisierbar und adaptiv sein. Nutzer können Präferenzen hinsichtlich Schriftgröße, Farbe, Position und Detaillierungsgrad festlegen. Für bildungsbezogene Inhalte könnten spezielle Modi entwickelt werden, die komplexe Begriffe automatisch erklären oder Fachterminologie hervorheben.
Ein weiterer Trend ist die adapive Geschwindigkeit. Intelligente Systeme könnten die Anzeigedauer der Untertitel basierend auf deren Komplexität, Sprechgeschwindigkeit und sogar dem Leseverhalten des individuellen Nutzers anpassen.
„Die Personalisierung von Untertiteln wird das Seherlebnis revolutionieren. Stellen Sie sich vor, ein System erkennt, dass Sie gerade eine neue Sprache lernen, und passt die Untertitel entsprechend an – mit Übersetzungen, vereinfachtem Vokabular oder sogar mit integriertem Wortschatztraining", prognostiziert Prof. Dr. Laura Müller vom Institut für Medienwissenschaft an der Technischen Universität München.
Integration von Emotionserkennung
Eine der spannendsten Entwicklungen ist die Integration von Emotionserkennung in Untertitelungssysteme. Durch die Analyse von Tonhöhe, Lautstärke, Sprechgeschwindigkeit und sogar sprachlicher Muster können KI-Systeme emotionale Zustände des Sprechers erkennen und diese in den Untertiteln wiedergeben.
Diese Technologie ist besonders wichtig für gehörlose Menschen, die sonst subtile emotionale Nuancen in der Sprache verpassen könnten. Durch spezielle Formatierungen, Emoji-Integration oder beschreibende Zusätze können emotionale Aspekte der Kommunikation visualisiert werden.
Erste kommerzielle Anwendungen dieser Technologie sind bereits verfügbar. Das britische Unternehmen EmotiSub beispielsweise hat eine Untertitelungssoftware entwickelt, die automatisch emotionale Zustände erkennt und durch Farbkodierung oder beschreibende Zusätze kennzeichnet.
Praxisnahe Anwendungsbeispiele
Fallstudie: Automatische Untertitelung im öffentlich-rechtlichen Rundfunk
Der öffentlich-rechtliche Rundfunk in Deutschland hat in den letzten Jahren erheblich in automatische Untertitelungstechnologien investiert. Die ARD nutzt seit 2020 ein KI-gestütztes System, das für Nachrichtensendungen wie die Tagesschau automatisch Untertitel generiert. Nach einer anfänglichen Genauigkeitsrate von etwa 85% konnte durch kontinuierliches Training und Optimierung mittlerweile eine Genauigkeit von über 95% erreicht werden.
Besonders bemerkenswert ist die Entwicklung domänenspezifischer Sprachmodelle, die auf den speziellen Wortschatz und die Sprachmuster von Nachrichtensendungen trainiert wurden. Dies hat zu einer deutlichen Verbesserung bei der Erkennung von Eigennamen, wissenschaftlicher Terminologie und aktuellen Begriffen geführt.
Das ZDF hat einen ähnlichen Ansatz gewählt, jedoch mit einem stärkeren Fokus auf Live-Untertitelung. Durch eine Kombination aus maschineller Vorverarbeitung und menschlicher Nachkorrektur in Echtzeit konnte die Qualität der Live-Untertitel signifikant verbessert werden, ohne die Kosten zu erhöhen.
Fallstudie: Automatische Untertitelung im Hochschulbereich
Die Technische Universität München implementierte 2021 ein automatisches Untertitelungssystem für alle aufgezeichneten Vorlesungen und Webinare. Diese Initiative, ursprünglich als Reaktion auf die COVID-19-Pandemie gestartet, hat sich zu einem dauerhaften Service entwickelt, der sowohl die Barrierefreiheit als auch die allgemeine Lerneffizienz verbessert.
Das System, das auf einer Kombination aus proprietärer Software und Open-Source-Komponenten basiert, wurde speziell für den akademischen Kontext optimiert. Es verfügt über ein fachspezifisches Lexikon für verschiedene wissenschaftliche Disziplinen und kann komplexe mathematische Formeln und Fachbegriffe mit hoher Genauigkeit transkribieren.
Eine Evaluation nach einem Jahr zeigte, dass 78% der Studierenden die automatischen Untertitel als "sehr hilfreich" oder "hilfreich" bewerteten. Besonders interessant war die Beobachtung, dass nicht nur Studierende mit Hörbeeinträchtigungen oder Nicht-Muttersprachler, sondern auch muttersprachliche Studierende ohne Einschränkungen den Service regelmäßig nutzten, vor allem um komplexe Konzepte besser zu verstehen.
Praktische Tipps für optimale automatische Untertitelung
Optimierung der Audioqualität
Die Qualität der automatisch generierten Untertitel hängt maßgeblich von der Audioqualität des Ausgangsmaterials ab. Für optimale Ergebnisse sollten folgende Faktoren berücksichtigt werden:
- Verwendung hochwertiger Mikrofone mit Richtcharakteristik
- Minimierung von Hintergrundgeräuschen und Halleffekten
- Optimale Positionierung des Mikrofons nahe am Sprecher
- Vermeidung von Übersteuerungen und zu niedrigen Aufnahmepegeln
- Bei mehreren Sprechern: Verwendung separater Mikrofone oder eines Mischpults
Eine professionelle Audiovorverarbeitung kann die Genauigkeit der automatischen Untertitelung erheblich verbessern. Dies umfasst Rauschunterdrückung, Normalisierung der Lautstärke und gegebenenfalls eine Frequenzanpassung zur Optimierung der Sprachverständlichkeit.
Sprechertraining und Anpassung des Sprachmodells
Viele fortschrittliche Untertitelungstools bieten die Möglichkeit, das Sprachmodell an spezifische Sprecher oder thematische Kontexte anzupassen. Durch ein gezieltes Training mit repräsentativem Audiomaterial kann die Erkennungsgenauigkeit deutlich gesteigert werden.
Für regelmäßige Produktionen, wie etwa Podcasts oder YouTube-Serien, lohnt sich die Investition in ein solches Sprechertraining. Einige Systeme ermöglichen zudem das Hinzufügen von domänenspezifischen Glossaren, was besonders bei Fachbegriffen und Eigennamen hilfreich ist.
„Wir konnten die Fehlerrate in unseren technischen Tutorials um über 60% reduzieren, nachdem wir unser Untertitelungssystem mit einem spezialisierten Glossar für Softwareentwicklung ergänzt haben", berichtet Julia Schneider, Content-Managerin bei CodeLearn, einer deutschen E-Learning-Plattform.
Nachbearbeitung und Optimierung
Trotz der beeindruckenden Fortschritte in der automatischen Spracherkennung ist eine manuelle Nachbearbeitung der Untertitel für professionelle Anwendungen oft unerlässlich. Moderne Editierwerkzeuge machen diesen Prozess jedoch deutlich effizienter:
- Integrierte Korrekturvorschläge basierend auf Kontext und Sprachmodellen
- Batch-Bearbeitung für wiederkehrende Fehler
- Zeitsynchronisationswerkzeuge zur Optimierung des Timings
- Formatierungshilfen für konsistente Darstellung
Ein effizienter Workflow kombiniert die Stärken der automatischen Untertitelung (Geschwindigkeit, Kosteneffizienz) mit menschlicher Nachbearbeitung (Präzision, kontextuelles Verständnis). In vielen Fällen kann die manuelle Nachbearbeitung auf eine Qualitätskontrolle und punktuelle Korrekturen beschränkt werden, was den Zeitaufwand erheblich reduziert.
Fazit und Ausblick
Die automatische Videountertitelung hat sich von einer Nischentechnologie zu einem unverzichtbaren Werkzeug in der digitalen Kommunikation entwickelt. Sie verbessert nicht nur die Barrierefreiheit für Menschen mit Hörbeeinträchtigungen, sondern bietet auch signifikante Vorteile für Contentersteller, Unternehmen und Bildungseinrichtungen.
Die rasanten Fortschritte in den Bereichen künstliche Intelligenz, maschinelles Lernen und natürliche Sprachverarbeitung treiben die Entwicklung immer präziserer und kontextsensitiverer Untertitelungssysteme voran. Die Integration von Emotionserkennung, personalisierter Darstellung und multimodaler Analyse wird das Nutzererlebnis weiter verbessern.
Gleichzeitig schafft die zunehmende rechtliche Verpflichtung zur digitalen Barrierefreiheit einen wachsenden Markt für automatische Untertitelungslösungen. Dies fördert Innovationen und führt zu einer stetigen Verbesserung der verfügbaren Technologien.
Die automatische Videountertitelung steht an der Schnittstelle zwischen technologischer Innovation und gesellschaftlicher Inklusion. Sie demonstriert eindrucksvoll, wie technologischer Fortschritt zu einer zugänglicheren und verbundeneren digitalen Welt beitragen kann.
„Die Zukunft der Kommunikation wird zunehmend visuell und multimedial sein. Automatische Untertitelung stellt sicher, dass diese Zukunft inklusiv gestaltet wird und niemand zurückgelassen wird", resümiert Dr. Andreas Hoffmann, Leiter des Forschungszentrums für digitale Barrierefreiheit an der Universität Hamburg.
In einer Welt, in der Video zum dominierenden Kommunikationsmedium geworden ist, wird die automatische Untertitelung nicht nur ein technologisches Extra, sondern ein fundamentaler Bestandteil einer inklusiven digitalen Gesellschaft sein.