Biely dom 23. júla 2025 zverejnil "víťazstvo v pretekoch AI: tkz. Americký akčný plán AI. Ide o 32 stranový plán a načrtáva strategický plán Trumpovej administratívy na presadenie globálnej dominancie USA v globálnych pretekoch o umelú inteligenciu.
V dokumente nie je priamo zmienka o Všeobecnom nariadení o ochrane údajov (GDPR), ktoré je právnym predpisom Európskej únie. Napriek tomu sa v pláne spomínajú súvisiace témy ako ochrana súkromia, dôvernosť údajov a bezpečnostné riziká. Žiaľ, tak ako to bolo predstavené, je to zárodok rodiaceho sa právneho konfliktu medzi EÚ a USA. EÚ bude stáť pred dilemou, či:
1. Odmietne americký benevolentný prístup k ochrane dát a pokúsi sa vyvinúť vlastné riešenia (málo kto považuje túto variantu v súčasnosti za reálnu), alebo
2. Zníži svoje nároky na ochranu dát a pripojí sa do amerického akčného plánu
Riziká súvisiace s umelou inteligenciou v pláne
Dokument podrobne popisuje rôzne riziká spojené s vývojom a používaním umelej inteligencie, pričom zdôrazňuje najmä tie, ktoré majú dopad na národnú bezpečnosť a spoločnosť:
• Národná bezpečnosť a zneužitie: AI má potenciál preformovať globálnu rovnováhu moci, a preto je národno-bezpečnostným imperatívom pre USA dosiahnuť globálnu technologickú dominanciu. Je nevyhnutné zabrániť zneužitiu alebo krádeži pokročilých technológií AI zlomyseľnými aktérmi, ako aj monitorovať vznikajúce a nepredvídané riziká.
• Syntetické médiá (deepfakes): Dokument identifikuje riziko zlomyseľných deepfakov (zvukové nahrávky, videá, fotografie). Uvádza, že médiá generované AI môžu predstavovať nové výzvy pre právny systém, napríklad falošné dôkazy, ktoré by mohli byť použité na popretie spravodlivosti. Odporúča sa rozvinúť program hodnotenia deepfakov do formálnych smerníc a forenzných kritérií.
• Vplyv na pracovný trh: AI transformuje spôsob práce vo všetkých odvetviach, čo si vyžaduje serióznu reakciu pracovnej sily. Vláda bude monitorovať vplyv AI na trh práce, vrátane vytvárania a zániku pracovných miest a mzdových efektov. Plán tiež navrhuje rýchle preškoľovanie pre jednotlivcov postihnutých stratou zamestnania súvisiacou s AI.
• Ideologické skreslenie a manipulácia: Systémy AI sa stávajú základnými nástrojmi, ktoré hlboko formujú to, ako Američania konzumujú informácie. Je nevyhnutné, aby tieto systémy boli navrhnuté tak, aby boli slobodné od ideologického skreslenia a aby sledovali objektívnu pravdu namiesto sociálno-inžinierskych agend. Vláda by mala zabezpečiť, aby AI systémy, ktoré obstaráva, objektívne odrážali pravdu.
• Nedostatočné pochopenie a nepredvídateľnosť AI: Vnútorné fungovanie špičkových AI systémov je dnes zle pochopené, čo môže sťažiť predpovedanie ich správania. Táto nepredvídateľnosť môže byť problémom pri použití pokročilej AI v oblasti obrany a národnej bezpečnosti, kde sú v stávke životy. Preto je dôležité investovať do výskumu interpretovateľnosti, kontroly a robustnosti AI.
• Kybernetické útoky a zraniteľnosti: Najvýkonnejšie AI systémy môžu v blízkej budúcnosti predstavovať nové riziká pre národnú bezpečnosť v oblastiach ako kybernetické útoky a vývoj chemických, biologických, rádiologických, jadrových alebo výbušných (CBRNE) zbraní. Systémy AI sú tiež náchylné na triedy útokov, ako je otravovanie dát alebo útoky s adversarial príkladmi, čo ohrozuje ich výkon.
• Biologická bezpečnosť (Biosecurity): Zatiaľ čo AI otvára obrovský potenciál v biológii, môže tiež vytvárať nové cesty pre zlomyseľných aktérov na syntézu škodlivých patogénov a iných biomolekúl.
Osobná dáta a ochrana súkromia
Hoci dokument nespomína GDPR, obsahuje pasáže týkajúce sa ochrany súkromia a dôvernosti údajov:
• Ochrana súkromia a dôvernosti pri dátach: Pri budovaní svetových vedeckých dátových súborov je zdôraznené udržiavanie rešpektu k individuálnym právam a zabezpečenie ochrany občianskych slobôd, súkromia a dôvernosti údajov.
• Pravidlá prístupu k federálnym dátam: Majú byť vydané nariadenia OMB (OMB je úrad, ktorý zohráva ústrednú úlohu pri vytváraní a revízii predpisov s cieľom ovplyvniť, ako federálne agentúry fungujú s AI), ktoré znížia bariéry a prekážky prístupu k federálnym dátam, a to pri ochrane dôverných dát pred nevhodným prístupom a použitím.
• Bezpečné výpočtové prostredia: Majú byť vytvorené v rámci NSF a DOE (NSF je federálna agentúra, ktorá sa zameriava na podporu základného výskumu a vzdelávania vo vede a inžinierstve a DOE je ministerstvo zodpovedné za energetickú politiku Spojených štátov a výskum v oblasti energie a jadrovej bezpečnosti) na umožnenie bezpečného použitia AI s kontrolovaným prístupom k obmedzeným federálnym dátam.
• Nástroje na obstarávanie AI: Nový systém nástrojov pre obstarávanie AI spravovaný GSA (General Services Administration) by mal uľahčiť jednotnosť a byť v súlade s príslušnými zákonmi o súkromí, správe údajov a transparentnosti.
• Bezpečnosť AI systémov: Odporúča sa používať "secure-by-design" (bezpečné už pri návrhu), robustné a odolné AI systémy, ktoré sú schopné detekovať zmeny výkonu a upozorňovať na potenciálne škodlivé aktivity, ako je otravovanie dát alebo útoky na súkromie (privacy attacks).
Transfer dát (najmä medzinárodný)
Zameranie dokumentu na transfer dát sa predovšetkým týka exportnej kontroly technológií AI a polovodičov s cieľom udržať si konkurenčnú výhodu voči protivníkom. Nešpecifikuje podrobnosti o transfere osobných údajov ako takých, ale skôr o prenose a zdieľaní technológií a dátových balíkov v širšom zmysle pre národnú bezpečnosť a hospodársku dominanciu.
• Export americkej AI spojencom: USA musia uspokojiť globálny dopyt po AI exportom svojho kompletného technologického balíka AI (hardvéru, modelov, softvéru, aplikácií a štandardov) do krajín, ktoré sú ochotné pripojiť sa k americkej AI aliancii. Cieľom je zabrániť strategickým rivalom, aby urobili spojencov závislými od zahraničných technológií protivníkov.
• Kontrola exportu výpočtovej techniky pre AI: Posilnenie presadzovania kontroly exportu pokročilej výpočtovej techniky pre AI je považované za záležitosť geostrategickej súťaže a národnej bezpečnosti. Navrhuje sa využiť lokalizačné overovacie funkcie na pokročilej výpočtovej technike AI, aby sa zabezpečilo, že čipy nie sú v krajinách, ktoré sú predmetom záujmu.
• Eliminácia medzier v exportných kontrolách polovodičov: USA a ich spojenci majú takmer monopol na mnohé kritické komponenty a procesy vo výrobe polovodičov. Je potrebné zabrániť protivníkom, aby tieto inovácie využívali spôsobom, ktorý by ohrozil národnú bezpečnosť, čo si vyžaduje nové opatrenia na riešenie medzier v exportných kontrolách polovodičov.
• Globálne zosúladenie ochranných opatrení: USA by mali povzbudzovať partnerov a spojencov, aby dodržiavali americké kontroly a nevykonávali ich "backfill" (t.j. neposkytovali technológie tam, kde ich USA obmedzujú). Cieľom je zabezpečiť, aby americkí spojenci nedodávali protivníkom technológie, na ktoré sa USA snažia uvaliť exportné kontroly.
• Zdieľanie informácií o zraniteľnostiach AI: Podporuje sa zodpovedné zdieľanie informácií o zraniteľnostiach AI ako súčasť úsilia o posilnenie národnej kybernetickej bezpečnosti.
• Zdieľanie vedeckých dát: Motivácia pre výskumníkov zverejňovať vysokokvalitné dátové súbory a požiadavka na federálne financovaných výskumníkov zverejňovať neproprietárne, nesenzitívne dátové súbory používané AI modelmi.
Zhrnúť by sa to teda dalo do 3 hlavných pilierov stratégie:
1. Pillar I: Accelerate AI Innovation – Urýchlenie AI inovácií prostredníctvom odstránenia regulačných prekážok, podpory open-source modelov a posilnenia amerických pracovníkov
2. Pillar II: Build American AI Infrastructure – Vybudovanie robustnej AI infraštruktúry vrátane dátových centier, polovodičovej výroby a energetickej infraštruktúry
3. Pillar III: Lead in International AI Diplomacy and Security – Vedenie v medzinárodnej AI diplomacii, export amerických AI technológií spojencom a kontrola exportu do nepriateľských krajín
Kľúčové ciele a prístupy
Deregulačný prístup: Dokument explicitne kritizuje Bidenovu administratívu za "nebezpečné kroky" v regulácii AI a presadzuje minimalizáciu regulačných bariér. Trump zrušil Bidenov Executive Order 14110 o AI už v prvý deň svojho úradovania.
Technologická dominancia: Plán zdôrazňuje potrebu dosiahnuť globálnu technologickú dominanciu" ako národnobezpečnostnú nevyhnutnosť.
Export kontroly: Dokument obsahuje rozsiahle opatrenia na kontrolu exportu pokročilých AI technológií, osobitne do Číny, pri súčasnom podporovaní exportu amerických AI riešení spojencom.
Riziká pre nariadenie GDPR
Americký AI Action Plan predstavuje významné riziká pre GDPR compliance v niekoľkých kľúčových oblastiach:
1. Fundamentálne rozdielne regulačné filozofie
USA: Presadzuje minimalizáciu regulácií, trhovo orientovaný prístup a podporu inovácií bez "byrokratických prekážok"
EÚ: Implementuje prísne regulácie (GDPR, AI Act) s dôrazom na ochranu základných práv a preventívny prístup k rizikám
Riziko: Môže dôjsť k fragmentácii globálnych štandardov a konfliktným požiadavkám na technologické spoločnosti.
2. Spracovanie osobných údajov pre AI tréning
Plán podporuje vytváranie "world-class scientific datasets" a využívanie federálnych dát pre tréning AI modelov s minimálnymi obmedzeniami. Toto predstavuje priamy konflikt s:
GDPR princípmi minimalizácie údajov (článok 5 GDPR)
Požiadavkami na právny základ pre spracovanie osobných údajov
Princípom účelovej viazanosti údajov
3. Konflikt pri spracovaní citlivých údajov
AI Act povoľuje spracovanie "special categories" osobných údajov (rasové, zdravotné údaje) na účel odstraňovania algoritmickej zaujatosti. GDPR však má prísnejšie obmedzenia pre takéto údaje (článok 9 GDPR), čo vytvára právnu neistotu.
4. Medzinárodné prenosy údajov
Export kontroly v americkom pláne môžu:
Obmedziť prenos AI technológií do EÚ
Kolidovať s princípmi voľného toku údajov v rámci adequacy decisions
Vytvoriť geopolitické napätie okolo transatlantických dátových tokov
5. Transparentnosť versus obchodné tajomstvo
USA zdôrazňuje "objektívnosť" AI systémov, ale súčasne chráni komerčné tajomstvá. GDPR však vyžaduje právo na vysvetlenie automatizovaných rozhodnutí (článok 22), čo môže byť v konflikte s ochranou proprietárnych algoritmov.
Špecifické rizikové scenáre
Export amerických AI modelov do EÚ: Modely trénované bez GDPR compliance môžu spôsobiť vysoké pokuty pre európskych používateľov
Transatlantické AI výskumné projekty: Rozdielne štandardy môžu prerušiť vedeckú spoluprácu
Globálne AI platformy: Spoločnosti ako Google, Microsoft, OpenAI budú musieť implementovať konfliktné compliance požiadavky
AI-powered surveillance: US národnobezpečnostné priority môžu byť v rozpore s európskymi privacy právami
Záver
Celkovo možno povedať, že "America's AI Action Plan" sa silne zameriava na ich vlastnú národnú bezpečnosť, ekonomickú dominanciu a technologický rozvoj AI, pričom ochranu súkromia a dôvernosti údajov vníma skôr ako súčasť širších bezpečnostných opatrení a podmienok pre rozvoj AI, než ako samostatný cieľ v kontexte individuálnych práv podľa štandardov GDPR. Transfer dát je v pláne primárne riešený z pohľadu kontroly technológií a budovania spojeneckých vzťahov na zabezpečenie dominantného postavenia USA v oblasti AI.
Americký AI Action Plan teda predstavuje systémové riziko pre GDPR compliance kvôli fundamentálnym rozdielom v regulačných filozofiách, prístupoch k súkromiu a geopolitickým prioritám. Bez aktívnej koordinácie môže dôjsť k značnej fragmentácii globálnych AI štandardov s negatívnymi dopadmi na práva európskych občanov.