Pohled do roku 2024: Využití AI pro prevenci finanční kriminality

Na prahu roku 2024 čelí svět stále složitějším výzvám. V roce 2023 nejčastěji rezonovalo téma umělé inteligence. Byť , jak by klasik řekl, není vůbec umělá, a už vůbec ne inteligentní. Zatím.

Pohled do roku 2024: Využití AI pro prevenci finanční kriminality

Umělá inteligence: Zlomový krok

Rok 2022 se stal významným mezníkem v historii umělé inteligence (AI), zvláště pro laickou veřejnost. Listopad tohoto roku zahájil novou éry. Společnost OpenAI zpřístupnila široké veřejnosti svůj chatbot ChatGPT, což vyvolalo lavinu zájmu o AI. Následovalo šílenství kolem aplikací na tvorbu obrazů, jako jsou Midjourney a DALL·E 2. Od té doby se téměř každý týden objevovaly stovky či tisíce nových modelů AI.

AI ale nepozorovaně prorostla naši společnost již dávno. Ovládá vše od našich mobilních telefonů až po automobily. Moderní svět se bez ní prakticky neobejde. Usnadňuje mnoho operací, zejména analytických nebo automatizovaných.

S rychlým vývojem AI ale přicházejí i obavy, že může být autonomní a vymknout se jakékoliv kontrole.

Nejde jenom o ChatGPT

Veřejné rozšíření AI vyvolalo vášnivé diskuse o etice a ochraně informací, stejně jako obavy o budoucnost pracovních míst.

Co to však umělá inteligence je?

Laická veřejnost si pod tímto pojmem umělá inteligence představí především zmiňovaný chatGPT. Avšak ChatGPT je jazykový model, nikoli skutečná umělá inteligence s vědomím nebo porozuměním. Jedná se o nástroj vyvinutý společností OpenAI na základě architektury GPT (Generative Pre-trained Transformer), konkrétně GPT-4. Jako jazykový model byl ChatGPT trénován na obrovském datasetu, který obsahuje texty z knih, webových stránek a dalších písemných materiálů. Takový trénink umožňuje generovat odpovědi, které napodobují lidský text na základě vzorců a informací, jež se daný model naučil.

Je důležité pochopit, že ChatGPT neprojevuje inteligenci v lidském slova smyslu. Nedokáže porozumět konceptům, emocím nebo kontextu tak, jak to dokážou lidé. Procesuje vstupní informace a generuje odpovědi na základě statistických vzorců v datech, na kterých byl trénován.

Odpovědi generované ChatGPT jsou výsledkem složitých algoritmů, které zpracovávají vstup a hledají nejlepší shodu z tréninkových dat. Model „neví“ nic v pravém slova smyslu, ale spíše načítá informace, na kterých byl trénován.

Účinnost a přesnost modelu závisí na jeho tréninku. Pokud se setká s tématy mimo svá tréninková data nebo s velmi nedávnými událostmi, jeho odpovědi mohou být omezené nebo méně přesné.

ChatGPT by měl být vnímán jako sofistikovaný nástroj. Může být nesmírně užitečný pro generování textu, odpovídání na otázky na základě existujících znalostí a pomáhání s řadou spíše opakujících se úkolů. Nicméně jeho odpovědi by vždy měly být kriticky hodnoceny, zejména v komplexních, citlivých nebo velmi specifických kontextech.

Je také rozdíl mezi úzkou umělou inteligencí (Narrow AI) a obecnou umělou inteligencí (AGI).

Pojmem úzká umělá inteligence se označuje program  zahrnující učenlivý algoritmus, který dokáže splnit konkrétní úkol nezávisle na programátorovi, a který má specifický cíl určený externě.

Obecná umělá inteligence může dosáhnout jakéhokoli cíle a definovat si své vlastní cíle. AGI, která se učí učit a může napodobovat lidskou inteligenci, by mohla vzniknout již v tomto desetiletí. Toto by představovalo jeden z největších technologických průlomů v dějinách lidstva, neboť AGI nebude omezena biologickými limity a nevznikla klasickým evolučním procesem. Avšak lidstvo na tento průlom podle mě není připraveno.

Umělá inteligence: Nový fenomén a nová regulace

Rok 2022 tak představuje zásadní bod v našem chápání a interakci s umělou inteligencí. Je to rok, kdy se AI stala nejen technologickým fenoménem, ale i klíčovým prvkem společenské a etické debaty. Jako společnost musíme nalézt způsoby, jak se s těmito výzvami vypořádat, abychom zabezpečili, že vývoj AI povede k prospěchu lidstva, a ne k jeho škodě.

Rok 2023 pak znamenal nejen debaty, ale také finalizaci snah o vytvoření regulace ať již umělé inteligence samotné (AI Act), nebo zpřísnění v oblasti kybernetické bezpečnosti (NIS2, DORA...).

Eskalující výzvy finančního světa

Finanční svět čelí stále složitější výzvě: nárůstu sofistikované finanční kriminality. Tradiční metody detekce a prevence podvodů se snaží udržet krok se stále se vyvíjejícími se hrozbami. Tento kontext předurčuje využití umělé inteligence (AI) jako klíčového nástroje v arzenálu proti finanční kriminalitě.

Podle zprávy společnosti Kroll o podvodech a finanční kriminalitě z roku 2023, očekává 68 % respondentů v příštích 12 měsících nárůst finanční kriminality, přičemž se vyvíjející technologie představuje jednu z největších výzev. V bankovním a finančním sektoru bylo v roce 2022 prostřednictvím podvodů ukradeno více než 1,2 miliardy britských liber (více než 2.300 librám za minutu), což jen zdůrazňuje, jak závažným problémem se stala tato otázka.

V této neustálé bitvě se AI ukázala jako maják naděje. Její síla spočívá ve schopnosti analyzovat obrovské množství dat s bezprecedentní rychlostí, úkol, který je pro manuální procesy stále obtížnější. Algoritmy AI jsou zejména schopné identifikovat vzory a anomálie v datech a pomáhají odhalovat potenciálně podvodné transakce nebo aktivity, které by jinak zůstaly nepovšimnuté.

Klíčovou výhodou AI je její schopnost monitorování a vyhodnocování informací v reálném čase. To je zásadní pro rychlé identifikování a řešení hrozeb, zvyšuje bezpečnost a slouží jako odrazující prostředek pro potenciální zločince. AI také prokázala svou výjimečnost při použití v behaviorální analýze. Z historie transakcí a chování může rychle vytvořit přesné profily klientů, což usnadňuje identifikaci odchylek od běžného stavu. Například pokud uživatel obvykle provádí malé, domácí transakce, ale náhle iniciuje velké výběry nebo převody do zemí s vysokým rizikem, AI systémy spustí upozornění pro okamžitou kontrolu. A to i v případě, kdy by takovýto scénář nebyl manuálně nastaven.

Pro prevenci (finanční) kriminality se rovněž používá systémů pro zpracování přirozeného jazyka (NLP). Jedná se o podskupinu AI, jejíž využití prokázalo obrovský potenciál při procházení textových dat, jako jsou e-maily a chatovací záznamy, za účelem identifikace podezřelých nebo inkriminujících konverzací. Tyto algoritmy dokážou detekovat klíčová slova, fráze nebo vzory spojené s finančními trestnými činy, a pomáhají vyšetřovatelům odhalit nelegální aktivity a skrytá spojení.

Kromě toho, schopnost AI vytvářet prediktivní analýzy, poháněné strojovým učením a učením se z historických dat finančních trestných činů, je ideální k vytvoření modelů, které mohou identifikovat vznikající hrozby a nové se kriminální taktiky. Toto nejen pomáhá předvídat potenciální rizika, ale držet náskok před zločinci, kteří se neustále snaží využít systémové zranitelnosti.

Jak využít AI pro prevenci finanční kriminality?

Pro účinnou implementaci AI se nejen finanční instituce mohou soustředit na několik klíčových oblastí:

  • Integrace dat je zásadní, zajišťuje, že všechny relevantní zdroje dat jsou sjednoceny pro komplexní analýzu.

  • Výběr vhodných nástrojů AI a kontinuální trénink modelů jsou nezbytnými kroky k zajištění, aby tyto systémy zůstaly efektivní a relevantní. Navíc, instituce věnují pozornost dodržování předpisů, aby se ujistily, že jejich AI systémy odpovídají finančním předpisům a zákonům o ochraně údajů.

  • Dalším kritickým aspektem je spolupráce. Finanční instituce se stále více snaží spolupracovat, sdílet přehledy, osvědčené postupy a zpravodajství s ostatními institucemi a s orgány činnými v trestním řízení. Tento kolektivní přístup se ukázal být v boji proti finanční kriminalitě účinnější.

Je jasné, že AI samo o sobě není zázračným řešením. Chytré využití AI prvků ale výrazně zvyšuje schopnost finančního průmyslu a dalších sektorů bojovat proti finanční kriminalitě.

Poptávka po odbornících na finanční kriminalitu stoupá. To ostatně odráží i potřebu lidského odborného poradenství k doplnění systémů AI. Tito odborníci hrají klíčovou roli v tréninku AI modelů, jemném ladění algoritmů a interpretaci výsledků. Synergie lidského odborného poradenství a nástrojů řízených AI může vytvořit robustní obranu proti finanční kriminalitě, kde lidská intuice a analytické dovednosti doplňují rychlost a schopnosti systémů AI.

Umělá inteligence z pohledu České národní banky

S novým rokem 2024 se stává využití umělé inteligence v prevenci podvodů a dalších trestných činů pro finanční sektor nejen možností, ale i nutností. Právě udržováním kroku s technologickým pokrokem a využíváním potenciálu umělé inteligence mohou finanční instituce nejen chránit samy sebe a svoje klienty, ale také významně přispět ke stabilitě globální ekonomiky. Budoucnost prevence finančního zločinu spočívá v symbiotickém vztahu mezi umělou inteligencí a lidskou odborností, partnerství, které slibuje posílení finančního světa proti neustále se vyvíjejícímu finančnímu zločinu.

Některé informace k využití AI nástrojů v České republice lze najít na stránkách České národní banky (ČNB), která např. vydává dohledový benchmark k provádění kontroly klienta prostřednictvím systému k monitoringu transakcí.

ČNB vyjadřuje postoj technologické neutrality, což znamená, že nebrání zavádění systémů s využitím umělé inteligence ani v oblasti proti praní špinavých peněz (AML). V případě implementace AI systémů ČNB zdůrazňuje význam obezřetného přístupu, který zahrnuje několik klíčových aspektů:

  • ČNB považuje za nezbytné ověřit kvalitu vstupních, tzv. učících dat, která jsou základem pro prvotní kalibraci AI. Tato data musí být pečlivě vybrána a analyzována, aby se zajistilo, že systém AI se učí z přesných a relevantních informací.

  • Dále je kladen důraz na srozumitelnost a rekonstruovatelnost rozhodovacích procesů AI. Výsledky, které systém poskytuje, například důvody pro vyhodnocení určitého alertu, musí být zpětně vysledovatelné a srozumitelné. Tento koncept je často označován jako „self-explainable AI“, což znamená AI schopnou sama sebe vysvětlit.

  • ČNB také zdůrazňuje důležitost průběžné kalibrace (úprav) modelu AI. To je zvláště důležité v případech, kdy dojde k rychlým změnám v chování nebo okolnostech v daném segmentu. Modely AI by měly být flexibilní a schopné adaptace na nové situace a trendy.

  • Při implementaci AI systémů je klíčová spolupráce mezi IT týmy a útvary řízení rizik. Je nezbytné, aby systémy AI měly jasnou projektovou dokumentaci, která popisuje postup zavedení a implementace nástrojů. Tato dokumentace by měla zahrnovat informace o testování a průběžných aktualizacích.

  • Dalším důležitým aspektem je řešení tzv. „programové předpojatosti“ v rozhodování systému. ČNB si je vědoma rizika, že AI systémy se mohou učit ze souborů dat, které mohou odrážet určité předsudky nebo předpoklady. Tyto předsudky mohou pak ovlivnit rozhodování systému a vést k neoprávněné diskriminaci.

  • ČNB také zdůrazňuje potřebu maximální transparentnosti systému. Uživatelé systému by měli být schopni vysvětlit a průběžně ověřovat pravidla fungování AI, aby se zabránilo situaci, kdy systém působí jako tzv. „black box“, tedy systém, jehož vnitřní fungování není zřejmé. Ani klientům, ani finančním institucím jako takovým.