Bild
Gehirn im digitalen Kontext

KI & Medien

Künstliche Intelligenz (KI) birgt als Schlüsseltechnologie der Zukunft sowohl erhebliches Potenzial als auch evidente Herausforderungen – auch für die Medienvielfalt und öffentliche Meinungsbildung. Eine zeitgemäße Medienaufsicht muss diese beiden Seiten in den Blick nehmen, Impulse setzen und die wachsende Rolle von KI bei der Erstellung, Distribution und Rezeption von Medieninhalten im Blick behalten.

Es bedarf neben der Stärkung von KI-Kompetenzen, die durch eine umfassende Integration in Bildungscurricula und gezielte Fortbildungsprogramme gekennzeichnet ist, auch einer medienrechtlichen KI-Regulierung, die unter anderem im AI Act geregelt ist. Die Medienanstalten beschäftigen sich intensiv mit dem Thema KI in Medien, sie wollen den Medienanbietern einen rechtssicheren und innovativen Einsatz von KI bei der Produktion und Distribution von Medieninhalten eröffnen.

1. KI regulieren

1.1 Leitlinien und Positionen

Eine zeitgemäße Medienaufsicht muss sowohl das Potenzial als auch die Herausforderung Künstlicher Intelligenz in den Blick nehmen, Impulse setzen und die wachsende Rolle von KI bei der Erstellung, Distribution und Rezeption von Medieninhalten im Blick behalten.

Vor diesem Hintergrund leuchten die Medienanstalten die für ihre Arbeit im Bereich der Regulierung sowie der Förderung von Medienkompetenzen wesentlichen Anschlussstellen aus. Es bedarf einer medienrechtlichen KI-Regulierung, denn der AI Act lässt zumindest für den Bereich des Medienrechts eher neue Fragen aufkommen, als Antworten zu geben. Die Medienanstalten beschäftigen sich intensiv mit dem Thema KI in Medien, sie wollen den Medienanbietern einen rechtssicheren und innovativen Einsatz von KI in der Produktion und Distribution von Medieninhalten eröffnen.

Mit den nachstehenden Positionen und Leitlinien, die insbesondere die Herausforderungen für die Medienvielfalt und öffentliche Meinungsbildung in den Blick nehmen, leisten die Medienanstalten ihren Beitrag zu einer zentralen Debatte.

KI und Medien – Vielfalt stärken, Verantwortung regeln, Vertrauen wahren
Positionierung der Direktorenkonferenz der Landesmedienanstalten (DLM)

Viel­falt stärken:

Der Ein­satz von Künst­li­cher Intel­li­genz darf die Viel­falt in den Medi­en nicht beein­träch­ti­gen. Das bedeu­tet, dass sowohl bei der Erstel­lung als auch bei der Dis­tri­bu­ti­on von Medi­en durch KI-Systeme die Unter­schied­lich­keit von Mei­nun­gen und Per­spek­ti­ven sicht­bar blei­ben muss.

Ver­ant­wor­tung regeln:

Jour­na­lis­ti­sche Medi­en haben einen star­ken Ein­fluss auf die öffent­li­che Mei­nungs­bil­dung. Des­halb müs­sen sie bestimm­te Sorg­falts­pflich­ten wah­ren. Die­se Ver­ant­wor­tung gilt auch für den Ein­satz Künst­li­cher Intel­li­genz und liegt in letz­ter Kon­se­quenz immer beim Men­schen. Medi­en­schaf­fen­de und ‑anbie­ter haben des­halb beim Ein­satz von KI beson­de­re Prüf­pflich­ten. Auch aus medi­en­recht­li­cher Sicht müs­sen taug­li­che Kontroll- und Prüf­me­cha­nis­men auf­ge­setzt werden.

Ver­trau­en wahren:

Das Ver­trau­en in Medi­en­in­hal­te ist ent­schei­dend für die Viel­falt der Mei­nun­gen im demo­kra­ti­schen Dis­kurs. Um Ver­trau­en zu bewah­ren und KI als Chan­ce zu begrei­fen, sind medi­en­recht­li­che Prin­zi­pi­en wie Trans­pa­renz und Dis­kri­mi­nie­rungs­frei­heit auch auf KI anzu­wen­den. Maß­geb­lich ist hier­für ins­be­son­de­re die Kenn­zeich­nung des KI-Einsatzes durch die Medi­en­an­bie­ter. Und weil Ver­trau­en auch auf Ver­ste­hen grün­det, för­dern die Medi­en­an­stal­ten die Ver­mitt­lung von KI-Kompetenzen.

1.2 Der AI Act

Die EU gehört mit dem AI Act zu den globalen Vorreitern in der Regulierung von Künstlicher Intelligenz, da es sich um das erste weltweite Regelwerk handelt, das spezifische Vorschriften für KI festlegt. Ziel ist es, allen beteiligten Akteuren im privaten und öffentlichen Sektor beim Einsatz von KI-Systemen Rechtssicherheit zu bieten. Der AI Act soll die Einführung von menschenzentrierten und vertrauenswürdigen KI-Systemen fördern und gleichzeitig einen hohen Schutz für Gesundheit, Sicherheit und Grundrechte, einschließlich Demokratie und Rechtsstaatlichkeit, gewährleisten.

Der AI Act schreibt vor, dass KI-Anwendungen keine verbotenen Praktiken beinhalten dürfen, und verfolgt einen sogenannten risikobasierten Ansatz. Das heißt, je höher das Risiko bei der Anwendung eingeschätzt wird, desto strenger sind auch die Vorgaben. Ein inakzeptables Risiko stellen zum Beispiel KI-Systeme dar, die eingesetzt werden können, um das Verhalten von Personen gezielt zu beeinflussen und sie so zu manipulieren. Für sie gilt ein Verbot, genauso wie für KI-basiertes „Social Scoring“, also die Vergabe von Punkten nach erwünschtem Verhalten.

Der AI Act wurde entwickelt, um einen einheitlichen Rechtsrahmen für alle Aspekte im Zusammenhang mit KI-Systemen zu schaffen. Ziel des AI Acts ist es, den Binnenmarkt zu stärken und die Einführung einer menschenzentrierten und vertrauenswürdigen Künstlichen Intelligenz zu fördern. Gleichzeitig soll ein hohes Schutzniveau für Gesundheit, Sicherheit sowie die in der Charta verankerten Grundrechte gewährleistet werden, einschließlich der Bereiche Demokratie, Rechtsstaatlichkeit und Umweltschutz, um schädliche Auswirkungen von KI-Systemen innerhalb der Europäischen Union zu verhindern. Darüber hinaus soll der AI Act Innovationen unterstützen (Art. 1 Abs. 1 AI Act). Der AI Act umfasst:

  • Harmonisierte Vorschriften für die Markteinführung, Inbetriebnahme und Nutzung von KI-Systemen in der Europäischen Union
  • Verbote bestimmter Praktiken im Bereich der KI
  • Besondere Anforderungen und Verpflichtungen für Hochrisiko-KI-Systeme und deren Akteure
  • Einheitliche Transparenzvorschriften für bestimmte KI-Systeme
  • Harmonisierte Regelungen für die Vermarktung von KI-Modellen mit allgemeinem Verwendungszweck
  • Vorschriften zur Marktbeobachtung sowie zur „Governance“ und Durchsetzung der Marktaufsicht
  • Maßnahmen zur Förderung von Innovationen, mit einem besonderen Fokus auf kleine und mittlere Unternehmen (KMU) sowie Start-ups.

Bei der Umsetzung der genannten Zielsetzung berührt der AI Act originäre Aufgabenfelder der Medienanstalten im Bereich des Jugendmedienschutzes, der Werbung, der Vielfaltssicherung und der Meinungsfreiheit, also das gesamte Aufsichtsregime der Medienanstalten. Die Medienanstalten sind daher aufgrund ihrer staatsfernen Ausrichtung an der Umsetzung des AI Acts immer dann zu beteiligen, wenn Bereiche betroffen sind, die unter das Medienprivileg fallen. Bezüge des AI Acts zu den Aufgaben der Medienanstalten ergeben sich unter anderem:

KI-KompetenzArt. 4 AI Act, ErwG 20
Verbotene PraktikenArt. 5 AI Act, ErwG 28ff
Einstufungsvorschriften für Hochrisiko-KI-SystemeArt. 6 AI Act, ErwG 46 – 48, 50 – 63
Transparenz und Bereitstellung von Informationen
für Betreiber
Art. 13 AI Act, ErwG 66/72
Pflichten der Anbieter von Hochrisiko-KI-SystemArt. 16 AI Act, ErwG 79 – 80
Transparenzpflichten für Anbieter und Betreiber
bestimmter KI-Systeme
Art. 50 AI Act, ErwG 132 – 137
Pflichten für Anbieter von KI-Modellen
mit allgemeinem Verwendungszweck
Art. 53 AI Act, ErwG 114/116/169
PraxisleitfädenArt. 56 AI Act, ErwG 116/117/135
KI-ReallaboreArt. 57-63 AI Act, ErwG 138 – 146
Benennung von zuständigen nationalen Behörden
und zentrale Anlaufstelle
Art. 70 AI Act, ErwG 148/153f.
SanktionenArt. 99 AI Act

2. Unsere Angebote rund um KI

Künstliche Intelligenz (KI) hat mittlerweile ganz nebenbei Einzug in unser Leben gefunden: Alexa und Siri im Wohnzimmer, Navigationsgeräte im Auto oder Sprach- und Gesichtserkennungssysteme im Handy. KI vereint dabei verschiedenste Disziplinen wie Informatik, Statistik oder Mathematik, aber auch Psychologie und Linguistik. Die LMS und das Bundesamt für Sicherheit in der Informationstechnik (BSI) setzten sich in ihrer Vortragsreihe mit der KI-Transformation und deren Auswirkungen intensiv auseinander. Sie diskutierten sowohl die Chancen als auch die Risiken von Künstlicher Intelligenz. Potentiale für Innovation, Effizienzsteigerung und bessere Lebensqualität waren ebenso Themen wie Fragen der Regulierung, der Privatsphäre, der Verantwortung und der möglichen Auswirkungen auf die Gesellschaft. Die Aufzeichnungen finden Sie hier:

Die LMS spielt eine Schlüsselrolle bei der Förderung von Medienkompetenz im Saarland. Ihr vielfältiges Angebot an Veranstaltungen rund um Künstliche Intelligenz (KI) ist besonders wichtig, um Fachleuten, Unternehmen und der breiten Öffentlichkeit die Chancen und Herausforderungen dieser Technologie näherzubringen. Mit ihren Seminaren und Veranstaltungen sorgt die LMS dafür, dass die Region im digitalen Zeitalter nicht nur mithält, sondern aktiv mitgestaltet – und das in einem zunehmend KI-geprägten Umfeld. Hier gelangen Sie zu den Seminaren und Terminen rund um KI.

Die KI-Themenwelt bietet einen faszinierenden Einblick in die Zukunft der Technologie. Hier können Besucher:innen mehr über die neuesten Entwicklungen in der Künstlichen Intelligenz erfahren und lernen, wie diese Innovationen Medien und Gesellschaft verändern und für verschiedene Zwecke sinnvoll und sicher eingesetzt werden können.

KI & Medien gemeinsam gestalten: Das ist das Motto der Medien Triennale Südwest, ein gemeinsames, interdisziplinär ausgerichtetes Veranstaltungsformat der Landesanstalt für Kommunikation (LfK), der Medienanstalt Rheinland-Pfalz und der LMS, welche jährlich stattfindet. Die Stärkung des Wissenstransfers zwischen Medienaufsicht, Politik und Wissenschaft sowie die Schaffung von Sichtbarkeit für medienpolitische und gesellschaftliche Themen sind Ziele der Fachkonferenz. Die MTSW 2025 findet am 12.11.2025 in Saarbrücken statt.

Im Rahmen von MarKIeR wurde untersucht, wie Regulierungsbehörden durch KI-Systeme unterstützt werden können, die Einhaltung von Transparenzpflichten, die Medienintermediären (bspw. Suchmaschinen, Sozialen Medien oder Videoportalen) auferlegt sind, effektiv zu kontrollieren. Diese müssen offenlegen, was bei der Suche nach einer Information durch Nutzer:innen im Hintergrund passiert und sind dazu verpflichtet, transparent zu machen, nach welchen selbstgewählten algorithmischen Kriterien sie Inhalte auswählen. Darüber hinaus ist es ihnen verboten, Angebote journalistisch-redaktioneller Inhalte systematisch besser oder schlechter zu behandeln als andere und sie damit zu diskriminieren. Weitere Informationen zum Projekt:

Die Regelungen des Medienstaatsvertrags (MStV) stellen die Landesmedienanstalten vor neue, vielfältige Aufgaben im Bereich der Medienintermediäre. Daher führt das DFKI zusammen mit der LMS eine Machbarkeitsstudie zum Einsatz von KI-Werkzeugen für die Unterstützung der Landesmedienanstalten zur Verifizierung der gesetzeskonformen Umsetzung der Transparenzvorgaben des Medienstaatsvertrages durch Medienintermediäre durch.

PABeLA ist ein Kooperationsprojekt des DFKI und der LMS, das erforscht, wie große KI-Sprachmodelle wie zum Beispiel ChatGPT die Meinungsbildung und den Journalismus in unserer Demokratie beeinflussen. Ziel ist es, Prüfverfahren zu entwickeln, welche die Antworten von KI-basierten Diensten systematisch anhand eines Prüfkatalogs bewerten. Das Forschungsprojekt läuft bis Ende 2025. Die Ergebnisse sollen in der Praxis der Medienregulierung nutzbar sein. Das Saarland hatte im vergangenen Jahr als erstes Bundesland verbindliche Regeln für den Einsatz von KI im Rundfunk in sein Mediengesetz aufgenommen. Weitere Informationen zum Projekt:

Welche Auswirkungen hat Künstliche Intelligenz auf die Meinungsbildung in unserer Demokratie? Dieser Frage geht ein interdisziplinäres Forscherteam des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) und der Landesmedienanstalt Saarland (LMS) nach. Das gemeinsame Projekt mit dem Namen „PABeLA“ fördert die Staatskanzlei des Saarlandes mit 200.000 Euro.

3. Unsere Expertise: KI & Medien

Die LMS verantwortet im Kreis der Medienanstalten federführend das Schwerpunktthema Künstliche Intelligenz:

Innerhalb der Gemeinschaft der Landesmedienanstalten ist LMS-Direktorin Ruth Meyer seit 2023 die Themenbeauftragte für Künstliche Intelligenz. Sie ver­tritt damit die Inter­es­sen der 14 Lan­des­me­di­en­an­stal­ten bei einer trans­pa­ren­ten, dis­kri­mi­nie­rungs­frei­en und viel­falts­si­chern­den Aus­rich­tung, ins­be­son­de­re in der Medi­en­auf­sicht und ‑regu­lie­rung in die­sem Bereich.

INHALT

KONTAKT

Ruth Meyer
Direktorin
Telefon: 0681/38 988-41