Společné prohlášení EDPB k obrazovému obsahu generovaném AI a ochraně soukromí

Evropští regulátoři varují před zneužíváním generativní AI k tvorbě deepfake obrázků a videí. Nové prohlášení EDPB zdůrazňuje ochranu soukromí, dětí a práv jednotlivců.

Ilustrační foto: Generace obrazového obsahu pomocí AI (Zdroj: Adobe Stock)

Evropa formálně zesílila své obavy ze zneužívání generativní umělé inteligence k vytváření nevyžádaných deepfake materiálů. V koordinovaném mezinárodním kroku podepsal European Data Protection Board (EDPB) dne 23. února 2026 Společné prohlášení o obrazovém obsahu generovaném AI a ochraně soukromí, které vyjadřuje postoj 61 dozorových úřadů pro ochranu osobních údajů z celého světa.

Prohlášení bylo koordinováno pracovní skupinou pro mezinárodní spolupráci v oblasti vymáhání práva (IEWG) při Global Privacy Assembly a reaguje na závažné obavy týkající se systémů umělé inteligence, které vytvářejí realistické obrazy a videa zobrazující identifikovatelné osoby bez jejich vědomí a souhlasu.

Ačkoli dokument uznává přínosy AI pro společnost, upozorňuje, že integrace nástrojů pro generování obrazu a videa do široce dostupných platforem sociálních médií významně zvýšila riziko vytváření a šíření:

  • nevyžádaných intimních materiálů,

  • pomlouvačných a manipulovaných zobrazení,

  • sexualizovaných a vykořisťujících deepfake materiálů,

  • dalšího škodlivého obsahu zobrazujícího skutečné osoby.

Zvláštní obavy vyvolává dopad na děti a další zranitelné skupiny, které čelí zvýšenému riziku kyberšikany, obtěžování a vykořisťování.

Rostoucí politický a regulační tlak v Evropě

Společné prohlášení přichází v době sílícího tlaku evropských vlád a regulátorů.

  • Španělsko vyzvalo k prošetření společností Meta, X a TikTok kvůli údajnému šíření AI-generovaného dětského pornografického materiálu a digitálního sexuálního násilí.

  • Ve Velké Británii premiér Keir Starmer přislíbil nové pravomoci k omezení návykových designových prvků sociálních sítí a prohlásil, že „pokud to bude znamenat střet s velkými technologickými společnostmi, pak ať se tak stane“.

  • Irské regulační orgány vyzvaly k urychlenému přijetí legislativy proti deepfake poté, co chatbot Grok ze sítě X hromadně šířil sexualizované snímky dětí.

Tyto kroky naznačují koordinovaný evropský posun směrem k přísnější regulaci generativní AI a sociálních médií.

Kontroverze kolem Groku a tlak na platformu X

Ačkoli Společné prohlášení nejmenuje konkrétní společnosti, značná část pozornosti se soustředí na X a její AI chatbot Grok.

Problematika získala širokou publicitu poté, co Grok začal ve velkém generovat exploatační nahé deepfake snímky. Podle nizozemského deníku AD navíc nedávná aktualizace systému odstranila dřívější obsahová omezení.

Při testování verze 4.2 údajně investigativní novináři během několika sekund vytvořili manipulované video, na němž Tweede Kamer (dolní komora nizozemského parlamentu) provádí nacistický pozdrav a skanduje extremistická hesla. Incident posílil obavy nejen o ochranu soukromí, ale i o ochranu demokratických institucí.

Majitel platformy X Elon Musk však ve vývoji systému pokračuje.

Klíčová očekávání vůči vývojářům a provozovatelům AI

Signatáři připomínají, že systémy pro generování obsahu pomocí AI musí být vyvíjeny a používány v souladu s platnými právními předpisy, zejména s pravidly ochrany osobních údajů a soukromí. Výslovně zdůrazňují, že vytváření nevyžádaných intimních materiálů může v mnoha jurisdikcích představovat trestný čin.

Ačkoli konkrétní právní povinnosti se liší podle země, dokument stanoví základní principy:

1.     Robustní ochranná opatření

Organizace musí zavést technická a organizační opatření, která zabrání:

  • zneužití osobních údajů,

  • generování nevyžádaných intimních materiálů,

  • vytváření vykořisťujícího obsahu, zejména pokud jsou zobrazovány děti.

2.     Smysluplná transparentnost

Platformy mají jasně komunikovat:

  • schopnosti a omezení svých AI systémů,

  • zavedená ochranná opatření,

  • pravidla přijatelného užívání a důsledky jejich porušení.

3.     Rychlé a přístupné mechanismy nápravy

Jednotlivci musí mít k dispozici účinné a snadno dostupné postupy pro:

  • žádost o odstranění škodlivého obsahu,

  • uplatnění svých práv v případě zneužití osobních údajů.

 Reakce musí být rychlá a efektivní.

4.     Posílená ochrana dětí

 S ohledem na zvýšená rizika pro nezletilé se doporučuje:

  • zavedení posílených technických ochranných opatření,

  • poskytování věku přiměřených informací dětem,

  • jasné pokyny pro rodiče, opatrovníky a pedagogy.

Globální regulační odpověď

Škody vznikající v důsledku nevyžádaného generování intimního, pomlouvačného či jinak škodlivého obsahu zobrazujícího skutečné osoby jsou závažné a vyžadují naléhavou regulační pozornost, uvádí se v prohlášení.

61 zapojených úřadů se zavázalo ke sdílení informací o vymáhání práva, regulačních přístupech i vzdělávacích iniciativách v mezích platných právních předpisů. Zpráva je jednoznačná: zneužívání generativní AI představuje globální riziko, které vyžaduje koordinovanou reakci.

Inovace nesmí oslabit základní práva

Závěrem dokument vyzývá organizace, aby aktivně spolupracovaly s regulátory, zaváděly ochranná opatření již od počátku vývoje a zajistily, že technologický pokrok nebude probíhat na úkor soukromí, lidské důstojnosti, bezpečnosti a dalších základních práv — zejména práv dětí a dalších zranitelných osob.

Evropa tak vstupuje do nové fáze regulace generativní umělé inteligence, v níž se stále více propojují nástroje ochrany osobních údajů, trestní právo a odpovědnost digitálních platforem.

Loading...