Hlasová autentifikácia, kedysi považovaná za sľubný nástroj pre pohodlie a bezpečnosť vo finančnom sektore, čelí bezprecedentným výzvam v dôsledku rýchleho pokroku v oblasti umelej inteligencie (AI) a technológií deepfake audia.
Podľa Všeobecného nariadenia o ochrane údajov (GDPR) sú hlasové odtlačky klasifikované ako špeciálna kategória osobných údajov, čo si vyžaduje mimoriadne prísne podmienky spracovania a ochrany. Napriek tomu, že hlasová biometria ponúka značné pohodlie, jej spoľahlivosť ako samostatného autentifikátora je vážne narušená schopnosťou AI generovať vysoko realistické deepfake audio, ktoré je pre ľudské ucho často nerozoznateľné od originálu. To vedie k zvýšenému riziku sofistikovaných podvodov a erózii dôvery v digitálnu komunikáciu.
Súčasná situácia si vyžaduje naliehavú a strategickú reakciu finančných inštitúcií. Mnohé banky, lízingové spoločnosti a poisťovne sú stále v počiatočných fázach adaptácie AI, pričom len malá časť z nich sa považuje za lídrov v tejto oblasti. Existujúce opatrenia, hoci sa snažia zvýšiť bezpečnosť, často nedržia krok s rýchlosťou vývoja deepfake technológií.
Regulačné orgány EÚ, ako sú Európsky orgán pre bankovníctvo (EBA) a nová legislatíva ako AI Act (právna úprava umelej inteligencie), PSD3 (Payment Services Directive 3 - PSD3 európska smernica, ktorá aktualizuje doterajšie pravidlá pre platobné služby a elektronické peniaze) a FiDA (Financial Data Access Regulation - nariadenie EÚ, ktoré vytvára rozsiahly rámec pre prístup k finančným dátam a ich zdieľanie medzi inštitúciami), kladú nové požiadavky na riadenie rizík, overovanie identity a ochranu údajov, čím zvyšujú tlak na odvetvie, aby prehodnotilo svoje autentifikačné stratégie.
Hlavné odporúčania pre finančné inštitúcie zahŕňajú okamžité prijatie pokročilých technológií proti falšovaniu, povinnú implementáciu robustnej viacfaktorovej autentifikácie (MFA) a multimodálneho overovania, pestovanie kultúry neustáleho overovania a investovanie do komplexného školenia zamestnancov a osvety zákazníkov. Je nevyhnutné prejsť od reaktívnej obrany k proaktívnym, adaptívnym stratégiám, ktoré integrujú technické riešenia s ľudskou ostražitosťou a spoluprácou v celom ekosystéme.
Hlasová autentifikácia v digitálnom veku a jej výzvy
Digitálny vek priniesol revolúciu v spôsoboch, akými finančné inštitúcie interagujú so svojimi zákazníkmi. V snahe o zvýšenie pohodlia a bezpečnosti sa biometrické metódy autentifikácie stali čoraz populárnejšími. Hlasová autentifikácia, využívajúca jedinečné vokálne charakteristiky jednotlivca, sa javila ako obzvlášť atraktívna možnosť. Avšak, s nástupom pokročilej umelej inteligencie a technológií deepfake audia, sa spoľahlivosť tohto nástroja dostáva pod vážnu otázku.
Hlas ako biometrický identifikátor a jeho využitie vo finančnom sektore
Hlasová biometria funguje na princípe analýzy jedinečných vokálnych charakteristík jednotlivca, ako sú výška tónu, intonácia, rečové vzory a rytmus, s cieľom overiť jeho identitu. Táto technológia ponúka pohodlnú a často bezproblémovú alternatívu k tradičným metódam autentifikácie, ako sú heslá a PIN kódy.
Vo finančnom sektore našla hlasová biometria rôznorodé uplatnenie. Používa sa na zefektívnenie procesov overovania totožnosti zákazníkov (Know Your Customer – KYC), autentifikáciu transakcií, riadenie prístupu k citlivým systémom a zlepšenie schopností detekcie podvodov. Jej prijatie bolo motivované prísľubom zlepšenej používateľskej skúsenosti a prevádzkovej efektívnosti.
Pohodlie, ktoré hlasová biometria ponúka finančným inštitúciám, je značné, pretože eliminuje potrebu hesiel a zrýchľuje interakcie so zákazníkmi. Táto vylepšená používateľská skúsenosť je kľúčovým faktorom, ktorý poháňa jej prijatie v zákaznícky orientovaných finančných službách.
Avšak práve toto pohodlie, ak je kompromitované rastúcou sofistikovanosťou AI, sa mení na kritickú bezpečnostnú zraniteľnosť. Jednoduchosť použitia, ktorá robí hlasovú autentifikáciu atraktívnou, ju zároveň robí hlavným a ľahko dostupným cieľom pre sofistikované deepfake útoky. V dôsledku toho musia finančné inštitúcie kriticky prehodnotiť svoju závislosť na hlasovej biometrii.
Vzostup umelej inteligencie a Deepfake audia
Deepfake hlasová technológia, známa aj ako klonovanie hlasu, predstavuje prelomové spojenie umelej inteligencie a syntézy zvuku.
Tieto pokročilé technológie dokážu presvedčivo napodobniť hlasy konkrétnych jednotlivcov, syntetizujúc frázy alebo vety, ktoré nikdy v skutočnosti nepovedali. Dosahujú vysokú vernosť pri replikácii nuáns, ako sú intonácia, pauzy a emocionálny tón, čo sťažuje ľuďom spoľahlivo rozpoznať deepfake audio ako umelé.
Dostupnosť nástrojov na vytváranie deepfake audia sa stala široko rozšírenou, pričom mnohé sú ľahko dostupné na použitie dokonca aj na jednoduchých mobilných zariadeniach alebo osobných počítačoch. Audio deepfakes sú vo všeobecnosti rozdelené do troch hlavných typov:
na základe opakovania (reprodukcia nahrávky),
na základe syntézy (umelá produkcia ľudskej reči, často prostredníctvom systémov Text-to-Speech alebo TTS) a
na základe imitácie (konverzia pôvodnej reči tak).
Nariadenie GDPR a spracovanie hlasových biometrických údajov
Všeobecné nariadenie o ochrane údajov (GDPR) stanovuje prísne pravidlá pre spracovanie osobných údajov, pričom osobitnú pozornosť venuje citlivým kategóriám, medzi ktoré patria aj biometrické údaje. Pochopenie týchto pravidiel je pre finančné inštitúcie kľúčové pri implementácii a používaní hlasovej autentifikácie.
Klasifikácia hlasu ako špeciálnej kategórie osobných údajov
Podľa Všeobecného nariadenia o ochrane údajov (GDPR) sú hlasové odtlačky výslovne klasifikované ako „biometrické údaje“. To ich zaraďuje do „špeciálnej kategórie osobných údajov“, ktorá podlieha zvýšeným ochranným opatreniam.
Klasifikácia hlasových údajov ako „špeciálnej kategórie“ podľa GDPR nie je len byrokratickým označením; znamená to, že tento typ údajov, ak dôjde k ich narušeniu alebo zneužitiu, nesie inherentne a výrazne vyššie riziká pre základné práva a slobody jednotlivcov, vrátane súkromia, nediskriminácie a integrity identity.
Jedinečná identifikovateľnosť biometrických údajov z nich robí hlavný cieľ pre sofistikovanú krádež identity a podvody, čím sa zosilňujú potenciálne dôsledky akéhokoľvek zlyhania zabezpečenia. Finančné inštitúcie nemôžu zaobchádzať s hlasovými údajmi s rovnakou úrovňou zabezpečenia a súladu ako s bežnými osobnými údajmi. Sú zo zákona povinné implementovať preukázateľne lepšie technické a organizačné záruky a zaviesť robustné rámce súladu, aby splnili prísne požiadavky GDPR, najmä vzhľadom na všadeprítomnú deepfake hrozbu, ktorá priamo ohrozuje integritu týchto špeciálnych údajov.
Právne základy a požiadavky na explicitný súhlas
Spracovanie biometrických údajov je podľa GDPR vo všeobecnosti zakázané, pokiaľ nie je stanovený platný právny základ. „Explicitný súhlas“ dotknutej osoby je jednou z primárnych a najčastejšie používaných podmienok pre takéto spracovanie.
Aby bol súhlas považovaný za explicitný, musí byť slobodne daný, konkrétny, informovaný a jednoznačný. To si vyžaduje aktívny proces prihlásenia, pri ktorom dotknutá osoba plne rozumie, aké údaje sa zhromažďujú, presné dôvody ich zhromažďovania a ako sa budú používať.
Kľúčové je, že súhlas musí byť získaný pred začatím akéhokoľvek zhromažďovania údajov a organizácie sú zo zákona povinné uchovávať písomné záznamy o tomto súhlase používateľa na preukázanie súladu.
Hoci existujú aj iné právne základy pre spracovanie biometrických údajov bez explicitného súhlasu (napr. podstatný verejný záujem, životné záujmy, právna povinnosť, pracovné právo alebo zdravotná a sociálna starostlivosť), tieto sú zvyčajne menej použiteľné pre bežné účely autentifikácie zákazníkov vo finančnom sektore.
Vo viacjazyčnom operačnom prostredí získanie platného súhlasu znamená predloženie žiadosti v rodnom jazyku používateľa, poskytnutie jednoznačných možností na prijatie alebo odmietnutie a ponúknutie informácií o zhromažďovaní a spracovaní údajov v reálnom čase.
Aby bol súhlas skutočne „informovaný“, dotknuté osoby musia mať jasné pochopenie rizík spojených so spracovaním ich údajov. Deepfake technológia sa však vyznačuje rýchlym vývojom, často „predbieha vývoj detekčných metód“. Ak sa povaha, sofistikovanosť a potenciálne vektory zneužitia deepfake hrozby neustále menia, stáva sa pre finančné inštitúcie inherentne náročné poskytnúť skutočne „informovaný“ súhlas v momente zberu alebo zabezpečiť, aby súhlas zostal „informovaný“ počas celého životného cyklu údajov.
To vytvára nepretržitú zraniteľnosť súladu, kde súhlas, raz udelený, môže rýchlo zastarať s objavením sa nových deepfake schopností. Finančné inštitúcie preto potrebujú viac než len počiatočný explicitný súhlas. Vyžadujú si robustný mechanizmus pre nepretržitú transparentnosť a potenciálne dynamické modely súhlasu alebo pravidelné, proaktívne aktualizácie svojich oznámení o ochrane osobných údajov a podmienok služby.
Tieto aktualizácie musia jasne odrážať vyvíjajúcu sa deepfake hrozbu a súvisiace riziká, čím sa zabezpečí nepretržitá komunikácia rizík s dotknutými osobami na udržanie platnosti ich „informovaného“ súhlasu.
Napätie vo vzťahu k zásade minimalizácie údajov a transparentnosti
Zásada minimalizácie údajov podľa GDPR striktne vyžaduje, aby organizácie zhromažďovali len minimálne množstvo údajov potrebných na konkrétny účel. Avšak, účinná detekcia deepfake a techniky proti falšovaniu často závisia od analýzy jemných vokálnych nuáns, komplexných rečových vzorov a potenciálne si vyžadujú dlhšie zvukové vzorky alebo dodatočné kontextové údaje na presné rozlíšenie medzi skutočnými a syntetickými hlasmi.
To vytvára priame napätie: zhromažďovanie rozsiahlejších hlasových údajov môže zvýšiť presnosť a robustnosť modelov detekcie deepfake, ale zároveň môže byť v rozpore so zásadou minimalizácie údajov GDPR. Finančné inštitúcie musia túto citlivú rovnováhu nájsť presným definovaním toho, čo predstavuje „nevyhnutné“ údaje v kontexte pokročilých hrozieb AI. To si vyžaduje dôkladné posúdenie, aby sa zabezpečilo, že akékoľvek dodatočné údaje zhromaždené na detekciu deepfake sú skutočne nevyhnutné a primerané identifikovaným rizikám, pričom sa stále dodržiavajú ich povinnosti podľa GDPR.
Povinnosť posúdenia vplyvu na ochranu údajov (DPIA) pre hlasovú biometriu
Posúdenie vplyvu na ochranu údajov (DPIA) je povinnou požiadavkou podľa GDPR vždy, keď spracovanie údajov „pravdepodobne povedie k vysokému riziku pre práva a slobody fyzických osôb“. Toto je obzvlášť dôležité pri zavádzaní nových technológií spracovania údajov, ako je hlasová biometria, alebo keď spracovanie zahŕňa špeciálne kategórie údajov týkajúcich sa zraniteľných dotknutých osôb (napr. detí).
Kritickým aspektom vykonávania DPIA pre hlasovú biometriu konkrétne je posúdenie potenciálnych predsudkov v rámci algoritmov AI (napr. predsudky založené na veku, rase alebo pohlaví) a zabezpečenie, aby bol systém trénovaný na rôznorodých a reprezentatívnych súboroch údajov, aby sa minimalizovali diskriminačné výsledky.
DPIA nie je statické, jednorazové cvičenie súladu, ale skôr „prebiehajúci proces“, ktorý by sa mal „prehodnocovať alebo opakovať s pokrokom projektu“. Vzhľadom na rýchly a nepretržitý vývoj deepfake technológie, povaha a závažnosť rizík spojených s hlasovou biometriou sú inherentne dynamické a môžu sa často meniť. To si vyžaduje nepretržitý monitorovací a aktualizačný mechanizmus pre DPIA počas celého životného cyklu akéhokoľvek systému hlasovej autentifikácie.
Práva subjektov údajov a ich uplatňovanie
GDPR udeľuje jednotlivcom komplexné práva týkajúce sa ich biometrických údajov, ktoré zahŕňajú právo na prístup k svojim údajom, opravu nepresností, požiadavku na vymazanie (vymazanie), obmedzenie spracovania, uplatnenie prenosnosti údajov a námietku proti spracovateľským činnostiam.
Organizácie sú zo zákona povinné implementovať mechanizmy, ktoré používateľom umožňujú bezproblémové uplatňovanie týchto práv. To zahŕňa možnosť pre dotknuté osoby odvolať svoj súhlas so spracovaním údajov kedykoľvek a požiadať o vymazanie svojich hlasových nahrávok (hlasových odtlačkov).
„Právo na vymazanie“ hlasových odtlačkov predstavuje značné praktické komplikácie, najmä v rámci moderných, distribuovaných systémov AI. Hlasové údaje, raz zhromaždené, môžu byť použité na rôzne účely, ako je počiatočná registrácia, nepretržitá autentifikácia, detekcia podvodov a nepretržité trénovanie modelov AI. Tieto údaje by mohli byť potenciálne uložené v rámci viacerých prepojených systémov, cloudových prostredí alebo dokonca u rôznych tretích strán spracovávajúcich údaje.
Zabezpečenie úplného a overiteľného vymazania všetkých relevantných hlasových údajov „naprieč úložnými servermi“ v rámci napr. stanovenej jednomesačnej lehoty si vyžaduje vysoko sofistikované rámce správy údajov a robustnú technickú architektúru. Finančné inštitúcie musia investovať do komplexného mapovania údajov, zaviesť jasné a vynútiteľné zásady uchovávania údajov a rozvinúť pokročilé technické schopnosti (napr. automatizované plány uchovávania údajov, bezpečné riadenie kľúčov pre hašované biometrické šablóny), aby efektívne spravovali a vymazávali hlasové biometrické údaje v rámci celého svojho technologického ekosystému, vrátane všetkých interakcií s dodávateľmi tretích strán. Toto je kľúčové pre udržanie nepretržitého súladu s právami dotknutých osôb podľa GDPR.
Deepfake audio: Technologický pokrok a hrozba pre autentifikáciu
Rastúca sofistikovanosť deepfake audio technológií predstavuje zásadnú hrozbu pre tradičné metódy hlasovej autentifikácie, najmä vo finančnom sektore, kde je dôvera a bezpečnosť prvoradá.
Potenciálne riziká Deepfake audia: Dezinformácie, podvody a erózia dôvery
Podvody predstavujú obzvlášť kritické a eskalujúce riziko pre finančné služby. Deepfakes umožňujú sofistikované útoky hlasového phishingu (vishing), kde podvodníci presvedčivo imitujú dôveryhodné kontakty, ako sú generálni riaditelia alebo vysokí manažéri, aby manipulovali zamestnancov k prevodu veľkých súm peňazí alebo odhaleniu citlivých informácií.
Pamätáme si napr. robotické hovory využívajúce klonovaný hlas Joea Bidena v New Hampshire, alebo AI-generované hlasové klipy manipulujúce parlamentné voľby na Slovensku) alebo vyvolať paniku. Medzi významné príklady takýchto podvodov v reálnom svete patrí podvod s prevodom peňazí vo výške 35 miliónov dolárov v roku 2020, kde bol použitý AI hlasový klon na imitáciu riaditeľa spoločnosti, ktorý úspešne oklamal manažéra pobočky v Hongkongu.
Ďalší incident zahŕňal stratu 25 miliónov dolárov v dôsledku falošného videokonferenčného hovoru, kde bol imitovaný finančný riaditeľ. Pokusy o podvod na manažérov vo veľkých spoločnostiach ako Ferrari, LastPass, Wiz, Arup a WPP s použitím sofistikovaných hlasových a video deepfakes zdôrazňujú rozšírenú povahu týchto útokov, ktoré často zneužívajú ľudskú dôveru a zraniteľnosti sociálneho inžinierstva. Deepfakes môžu tiež uľahčiť „obchádzanie hlasového bankovníctva“, kde sa AI-klonované hlasy používajú na oklamanie systémov Know Your Customer (KYC) a umožnenie neoprávnených transakcií
Deepfake útoky, napriek ich technologickej sofistikovanosti, sú v podstate navrhnuté tak, aby zneužívali ľudské zraniteľnosti. „Využívajú ľudskú dôveru“ a sú vytvorené tak, aby manipulovali emócie. Výskum výslovne uvádza, že dokonca „dobre vyškolení zamestnanci môžu mať problém identifikovať deepfake hlas, ktorý znie identicky ako hlas vysokého manažéra“. To poukazuje na kritický bod: zatiaľ čo pokročilá AI vytvára presvedčivý deepfake, konečný úspech podvodu často závisí od úspešného sociálneho inžinierstva a inherentnej ľudskej tendencie dôverovať známym hlasom alebo autoritám, najmä pod tlakom.
Varovania lídrov v oblasti umelej inteligencie
Keď prominentná osobnosť ako Sam Altman, ktorého spoločnosť je na špičke vývoja AI, verejne vyhlási, že existujúce bezpečnostné opatrenia, ako sú hlasové odtlačky, sú „šialené“ a „zastarané“ , signalizuje to kritické uznanie zraniteľnosti pochádzajúce zvnútra samotnej komunity AI.
Toto nie je ale regulačné varovanie; je to silný signál od tvorcov technológie, že jej potenciál na zneužitie už prekonal súčasné obranné mechanizmy. Toto vnútorné uznanie vytvára silný imperatív pre priemysel, aby proaktívne vyvíjal a prijímal nové, odolnejšie bezpečnostné riešenia.
Finančné inštitúcie by mali tieto varovania interpretovať nie ako dôvod na opustenie AI, ale ako jasnú a naliehavú výzvu k akcii, aby zásadne prehodnotili svoje autentifikačné stratégie. Zameranie by sa malo presunúť na uprednostňovanie „budúcich“ metód, ktoré predpokladajú nepretržitý pokrok AI, namiesto spoliehania sa na zastarané biometrické systémy, ktoré sú preukázateľne zraniteľné. To tiež silne naznačuje, že úzka spolupráca medzi poprednými vývojármi AI a finančným sektorom je kľúčová pre budovanie skutočne odolných a adaptívnych bezpečnostných systémov.
Reakcia finančných inštitúcií a regulačný dohľad EÚ
Finančný sektor je obzvlášť citlivý na hrozby deepfake audia vzhľadom na jeho závislosť od dôvery a bezpečnej komunikácie. Reakcia inštitúcií a regulačné prostredie EÚ sa vyvíjajú v snahe čeliť týmto novým výzvam.
Súčasné prístupy bánk, lízingových spoločností a poisťovní
Mnohé európske finančné inštitúcie sú v súčasnosti v počiatočných, experimentálnych fázach prijímania AI. Len 9 % z nich sa považuje za „predbehnutých“ v integrácii AI, pričom väčšina súčasných prípadov použitia AI sa sústreďuje na back-office operácie, a nie na aplikácie orientované na zákazníka.
Napriek rastúcej hrozbe deepfake podvodov, len malé percento firiem má komplexné protokoly na riešenie deepfake útokov. Avšak, existuje posun smerom k viacvrstvovým overovacím metódam, ktoré idú nad rámec tradičného rozpoznávania hlasu. Finančné inštitúcie a poisťovne implementujú multimodálne overovacie metódy, uznávajúc, že biometrické informácie – hoci sú kľúčové – sú nedostatočné na ochranu pred hrozbami podvodov s AI. Biometrické systémy sa nestávajú zastaranými, ak sú posilnené detekciou hlasu AI, overovaním verejných údajov zákazníkov a inými opatreniami.
Prijatie AI vo finančnom sektore je stále v ranom štádiu, s významnými rozdielmi medzi jednotlivými sektormi; 40 % bankových respondentov a 36 % firiem pre správu majetku sa cíti pozadu za svojimi konkurentmi. To naznačuje, že hoci si hrozbu uvedomujú, implementácia komplexných riešení na úrovni celého odvetvia je stále v počiatočnej fáze.
Relevantné európske nariadenia a ich vplyv na audio identifikáciu
Európska únia aktívne reaguje na výzvy digitálnej transformácie a umelej inteligencie prostredníctvom viacerých regulačných rámcov, ktoré majú priamy vplyv na používanie hlasovej identifikácie vo finančnom sektore.
GDPR (Všeobecné nariadenie o ochrane údajov): Ako už bolo podrobne uvedené, GDPR klasifikuje hlasové odtlačky ako špeciálnu kategóriu biometrických údajov, čo si vyžaduje explicitný súhlas, minimalizáciu údajov, transparentnosť a povinnosť vykonať DPIA. Toto je základný kameň pre akékoľvek spracovanie hlasových údajov.
Akt o AI (AI Act): Tento komplexný legislatívny rámec, navrhnutý Európskou úniou, má za cieľ regulovať technológie umelej inteligencie a zabezpečiť, aby systémy AI používané v EÚ boli bezpečné, transparentné a rešpektovali základné práva.
Klasifikácia rizík: Akt o AI definuje štyri úrovne rizika pre systémy AI: neprijateľné riziko (zakázané, napr. škodlivá manipulácia, sociálne bodovanie), vysoké riziko (prísne povinnosti, napr. AI v kritických infraštruktúrach, prístup k základným službám, biometrická identifikácia), obmedzené riziko (povinnosti transparentnosti, napr. chatboti, deepfakes) a minimálne riziko.
Deepfakes: Akt o AI špecificky rieši deepfakes kvôli ich potenciálnym rizikám. Ukladá povinnosti transparentnosti, vyžadujúc od vývojárov a používateľov deepfake technológií jasné zverejnenie, že obsah je AI-generovaný. Cieľom je zabrániť dezinformáciám a zabezpečiť, aby si publikum bolo vedomé umelej povahy obsahu, ktorý sleduje. Deepfakes používané v kontextoch, ktoré môžu významne ovplyvniť práva jednotlivcov alebo spoločnosť (napr. politická manipulácia, ohováranie), môžu byť klasifikované ako vysoké riziko a podliehajú prísnejším regulačným požiadavkám. Akt o AI tiež zabezpečuje zodpovednosť a sledovateľnosť pri tvorbe a šírení deepfakes.
Biometrická identifikácia: Systémy AI používané na vzdialenú biometrickú identifikáciu sú klasifikované ako vysoké riziko a podliehajú prísnym povinnostiam. Akt o AI zakazuje určité typy otvoreného biometrického dohľadu, ako je masové scanovanie tvárí vládnou mocou.
PSD3 (Tretia smernica o platobných službách) a PSR (Nariadenie o platobných službách): Tieto navrhované právne predpisy majú za cieľ modernizovať existujúci režim platobných služieb a posilniť ochranu spotrebiteľov pred podvodmi.
Silná autentifikácia zákazníka (SCA): PSD3/PSR posilňuje SCA, ktorá vyžaduje overenie identity používateľa pomocou aspoň dvoch z troch nezávislých faktorov: vedomosť (niečo, čo vie len používateľ), držba (niečo, čo má len používateľ) a inherencia (niečo, čím je používateľ, napr. odtlačok prsta, hlas, scan tváre).
Delegovaná autentifikácia (DA): PSD3/PSR výslovne umožňuje delegovanú autentifikáciu, kde poskytovateľ platobných služieb platiteľa môže povoliť tretej strane vykonať SCA v jeho mene. To je klasifikované ako outsourcing a podlieha prísnym pokynom EBA pre outsourcingové dohody, ktoré zahŕňajú dôkladnú kontrolu, posúdenie rizík, zmluvné požiadavky a nepretržité monitorovanie. To má významné dôsledky pre biometrickú autentifikáciu, pretože zabezpečuje, že aj keď je biometrická autentifikácia delegovaná, zodpovednosť a prísne bezpečnostné požiadavky zostávajú.
FiDA (Nariadenie o prístupe k finančným údajom): Cieľom FiDA je uľahčiť prístup k finančným údajom a výrazne zmeniť výmenu údajov medzi finančnými inštitúciami a poisťovňami v Európe.
Zdieľanie údajov: FiDA ukladá nové právne povinnosti držiteľom údajov (ako sú banky, poisťovne), aby na požiadanie okamžite, bezplatne, nepretržite a v reálnom čase poskytovali svojim zákazníkom ich údaje. To je aj v súlade s novým Data Act.
Bezpečnosť a autentifikácia: Centrálnym prvkom FiDA je Finančný systém zdieľania údajov (FDSS), ktorý definuje technické štandardy, rozhrania, protokoly a autentifikačné postupy pre bezpečný výmenu údajov. Hoci konkrétne podrobnosti o biometrickej autentifikácii v rámci FiDA nie sú v dostupných informáciách podrobne uvedené, dôraz na bezpečný prístup k údajom a silné autentifikačné postupy je zrejmý.
DORA (Nariadenie o digitálnej prevádzkovej odolnosti): Platné od 17. januára 2025, DORA stanovuje harmonizované pravidlá pre riadenie rizík v oblasti informačných a komunikačných technológií (IKT) vo finančnom sektore. Priamo sa vzťahuje na finančné subjekty delegujúce SCA a veľkí poskytovatelia technických služieb (TSP) ponúkajúci DA služby by mohli byť označení za kritických poskytovateľov IKT tretích strán (CTPP), čím by spadali pod priamy dohľad EÚ. PSD3/PSR výslovne odkazuje na DORA, čo znamená, že dohody o DA musia byť v súlade s jej štandardmi pre riadenie rizík IKT, hlásenie incidentov, testovanie odolnosti a riadenie rizík tretích strán.
Tieto nariadenia spoločne vytvárajú komplexný a prísny regulačný rámec, ktorý finančné inštitúcie musia dodržiavať pri používaní hlasovej identifikácie. Dôraz je kladený na ochranu údajov, transparentnosť, robustné bezpečnostné opatrenia a schopnosť odolávať novým hrozbám, ako sú deepfakes.
Zabezpečenie hlasových autentifikátorov v ére Deepfakes
Vzhľadom na rastúcu hrozbu deepfake audia je nevyhnutné, aby finančné inštitúcie prehodnotili a posilnili svoje stratégie zabezpečenia hlasovej autentifikácie. Samotná detekcia už nestačí; kľúčom je prevencia a viacvrstvový prístup.
Technické opatrenia proti Deepfake útokom
Na efektívne zabezpečenie hlasových autentifikátorov proti deepfake útokom je potrebná kombinácia pokročilých technických opatrení.
Viacfaktorová autentifikácia (MFA) a multimodálne overovanie: Zavedenie MFA je kľúčové pre zvýšenie bezpečnosti. To znamená, že okrem hlasu sa na overenie identity používateľa vyžaduje aj ďalší nezávislý faktor, ako je niečo, čo používateľ vie (napr. heslo, PIN), alebo niečo, čo má (napr. mobilný telefón, hardvérový token). Multimodálne overovanie ide ešte ďalej a kombinuje hlasovú biometriu s inými biometrickými metódami (napr. rozpoznávanie tváre, odtlačok prsta) alebo behaviorálnou biometriou (analýza vzorcov správania, ako je spôsob písania alebo pohyby myši). Tým sa vytvára robustnejšia obrana, pretože útočník by musel kompromitovať viacero nezávislých faktorov.
Detekcia živosti (Liveness Detection) a Anti-spoofing: Systémy hlasovej biometrie musia zahŕňať pokročilé algoritmy detekcie živosti, ktoré dokážu rozlíšiť medzi živou ľudskou rečou a podvodnými pokusmi, ako sú vopred nahrané zvuky, syntetické hlasy alebo klonované hlasy. Tieto technológie analyzujú jemné vokálne charakteristiky, ktoré dokáže produkovať len ľudský hlasový trakt, ako sú prirodzené variácie v tóne, výške a kadencii, a hľadajú anomálie, ktoré naznačujú syntetický pôvod. Niektoré riešenia, ako napríklad Pindrop® Pulse, sa zameriavajú na analýzu hlasu v reálnom čase, identifikujúc znaky manipulácie, ako sú neprirodzené pauzy alebo tonálne nekonzistencie.
Šifrovanie a riadenie prístupu: Biometrické údaje musia byť spracované bezpečne, s implementáciou opatrení ako šifrovanie, kontrola prístupu a pseudonymizácia, aby sa údaje chránili pred neoprávneným prístupom alebo narušením. Šifrovanie by sa malo aplikovať na ochranu biometrických údajov počas ukladania aj prenosu. Prístup k citlivým biometrickým údajom by mal byť prísne kontrolovaný a obmedzený len na oprávnený personál prostredníctvom riadenia prístupu na základe rolí (RBAC). Namiesto ukladania samotných hlasových nahrávok sa môžu ukladať ich hašované šablóny, čo zvyšuje bezpečnosť.
Nepretržité monitorovanie a adaptabilita: Vzhľadom na rýchly vývoj deepfake technológií musia byť detekčné systémy neustále monitorované a aktualizované. To zahŕňa trénovanie modelov strojového učenia na rozpoznávanie nových vzorov spojených s deepfake hlasmi a pravidelné penetračné testy na identifikáciu zraniteľností.
Organizačné a procesné opatrenia
Okrem technických riešení sú pre komplexnú obranu nevyhnutné aj robustné organizačné a procesné opatrenia.
Kultúra kybernetickej bezpečnosti a neustále overovanie: Finančné inštitúcie musia rozvíjať robustnú kultúru kybernetickej bezpečnosti, ktorá povzbudzuje zamestnancov k ostražitosti a fungovaniu ako „ľudské firewally“. To zahŕňa implementáciu modelu nulovej dôvery (zero-trust), kde sa implicitná dôvera nahrádza nepretržitým overovaním.
Školenie zamestnancov a osveta zákazníkov: Ako už bolo spomenuté, ľudský prvok je známy svojou častou zraniteľnosťou. Komplexné a nepretržité školiace programy pre zamestnancov sú nevyhnutné na zvýšenie povedomia o taktikách sociálneho inžinierstva, rozpoznávanie červených vlajok (napr. neobvyklé požiadavky, zvukové skreslenia, neprirodzené pauzy) a posilňovanie prísnych overovacích protokolov. Zákazníci by mali byť tiež informovaní o rizikách deepfakes a dôležitosti overovania komunikácie mimo bežných kanálov.
Písomné protokoly a riadenie rizík: Jasne zdokumentované protokoly pre zber, ukladanie, spracovanie a zabezpečenie hlasových údajov sú nevyhnutné pre súlad s normami ochrany súkromia. Organizácie musia zlepšiť svoju organizačnú inteligenciu v oblasti rizík, identifikovať kľúčové ukazovatele rizík a kvantifikovať finančný dopad bezpečnostných rizík a hrozieb, ktoré predstavuje manipulovaný obsah.
Plány reakcie na incidenty: Finančné firmy musia aktualizovať svoje plány reakcie na incidenty tak, aby zahŕňali scenáre zahŕňajúce deepfake útoky. To zabezpečí rýchlu a efektívnu reakciu v prípade narušenia.
Odporúčania pre finančné inštitúcie
Na základe analýzy regulačného prostredia a hrozieb deepfake audia sa finančným inštitúciám odporúčajú nasledujúce kľúčové kroky:
Prioritizovať multimodálne overovanie a MFA: Prejsť od samostatnej hlasovej autentifikácie k viacvrstvovým systémom, ktoré kombinujú hlas s inými biometrickými (napr. tvár, odtlačok prsta) a nebiometrickými faktormi (napr. tokeny, behaviorálna biometria). To výrazne zvyšuje odolnosť proti deepfake útokom.
Investovať do pokročilej detekcie živosti a anti-spoofingu: Implementovať špičkové technológie, ktoré dokážu rozlíšiť medzi živou rečou a syntetickým audiom v reálnom čase. Tieto systémy musia byť adaptívne a neustále aktualizované, aby držali krok s vývojom deepfake technológií.
Zaviesť prísne zásady „Safety By Design“ a „Privacy By Design“: Zabezpečiť, aby sa bezpečnostné a ochranné opatrenia integrovali do všetkých fáz životného cyklu hlasových autentifikačných systémov, od návrhu až po dodanie.
Posilniť školenie a povedomie: Vyvinúť komplexné a nepretržité školiace programy pre všetkých zamestnancov, najmä pre tých, ktorí pracujú v call centrách a na oddeleniach pre styk so zákazníkmi, aby rozpoznali a reagovali na deepfake a sociálne inžinierske útoky. Zároveň aktívne vzdelávať zákazníkov o rizikách a odporúčaných overovacích postupoch.
Zabezpečiť súlad s GDPR a Aktom o AI: Vykonávať pravidelné a dynamické posúdenia vplyvu na ochranu údajov (DPIA) pre hlasovú biometriu, zabezpečiť explicitný a informovaný súhlas a implementovať robustné opatrenia na ochranu údajov, vrátane šifrovania a prísnych kontrol prístupu.
Zaviesť prísne protokoly pre riadenie údajov a právo na vymazanie: Vzhľadom na výzvy spojené s vymazaním hlasových odtlačkov v distribuovaných systémoch je nevyhnutné mať jasné zásady uchovávania údajov a technické možnosti na úplné a overiteľné vymazanie údajov na požiadanie.
Spolupráca a zdieľanie informácií: Finančné inštitúcie by mali aktívne spolupracovať s regulačnými orgánmi, technologickými spoločnosťami a inými subjektmi v odvetví na zdieľaní informácií o hrozbách a osvedčených postupoch. Spoločné úsilie je kľúčové pre budovanie odolnejšieho ekosystému.
Závery a Odporúčania
Varovania od lídrov v oblasti AI, ako je Sam Altman, zdôrazňujú naliehavú potrebu prehodnotenia existujúcich autentifikačných systémov.
Pre zabezpečenie hlasových autentifikátorov a dodržanie regulačných požiadaviek je nevyhnutný viacvrstvový a proaktívny prístup. To zahŕňa technické inovácie, ako sú multimodálne overovanie, pokročilá detekcia živosti a robustné šifrovanie. Rovnako dôležité sú organizačné opatrenia, vrátane nepretržitého školenia zamestnancov, osvety zákazníkov a vývoja komplexných plánov reakcie na incidenty.