umela inteligencia, robot
Ilustračné PHOTO: © European Union.

Komisia víta politickú dohodu o akte o umelej inteligencii

Komisia víta politickú dohodu, ktorú Európsky parlament a Rada dosiahli pri akte o umelej inteligencii, ktorý Komisia navrhla v apríli 2021.

Predsedníčka Európskej komisie Ursula von der Leyenová v tejto súvislosti uviedla: „Umelá inteligencia už mení náš každodenný život. A toto je iba začiatok. Rozumne a široko používaná umelá inteligencia sľubuje obrovské výhody pre naše hospodárstvo a spoločnosť. Preto veľmi vítam dnešnú politickú dohodu Európskeho parlamentu a Rady o akte o umelej inteligencii. Akt EÚ o umelej inteligencii je vôbec prvým komplexným právnym rámcom pre umelú inteligenciu na celom svete. Čiže toto je historický moment. Aktom o umelej inteligencii sa európske hodnoty transponujú do novej éry. Tým, že sa regulácia zameria na identifikovateľné riziká, dnešná dohoda podporí zodpovedné inovácie v Európe. Zaručením bezpečnosti a základných práv ľudí a podnikov podporí rozvoj, zavádzanie a využívanie dôveryhodnej umelej inteligencie v EÚ. Náš akt o umelej inteligencii významne prispeje k rozvoju celosvetových pravidiel a zásad pre umelú inteligenciu sústredenú na človeka.“ 

Európska koncepcia dôveryhodnej umelej inteligencie

Nové pravidlá sa budú uplatňovať priamo vo všetkých členských štátoch. Základom bude nadčasové vymedzenie umelej inteligencie. Sú orientované na koncepciu rizika:

Minimálne riziko: Prevažná väčšina systémov umelej inteligencie spadá do kategórie s minimálnym rizikom. Na aplikácie s minimálnym rizikom, ako sú odporúčacie systémy na základe umelej inteligencie alebo spamové filtre, sa nebudú vzťahovať žiadne obmedzenia ani povinnosti, pretože nepredstavujú žiadne alebo len minimálne riziko pre práva či bezpečnosť občanov. Spoločnosti sa môžu napriek tomu dobrovoľne zaviazať uplatňovať pri nich dodatočné kódexy správania.

Vysoké riziko: Systémy umelej inteligencie identifikované ako vysokorizikové budú musieť dodržiavať prísne požiadavky vrátane povinných systémov na zmierňovanie rizika, vysokokvalitných dátových súborov, logovania činností, podrobnej dokumentácie, jednoznačných informácií pre používateľov, ľudského dohľadu a vysokej úrovne spoľahlivosti, presnosti a kybernetickej bezpečnosti. Experimentálne regulačné prostredie uľahčí zodpovednú inováciu a vývoj systémov umelej inteligencie spĺňajúcich pravidlá.

Medzi takéto vysokorizikové systémy umelej inteligencie patria okrem iných určité kritické infraštruktúry napríklad v oblasti vody, plynu a elektriny, zdravotnícke pomôcky, systémy na určovanie prístupu do vzdelávacích zariadení alebo na nábor pracovníkov do zamestnania, či určité systémy používané v oblasti presadzovania práva, kontroly hraníc, výkonu spravodlivosti a demokratických procesov. Aj systémy biometrickej identifikácie, kategorizácie a rozpoznávania emócií sa považujú za vysokorizikové.

Neprijateľné riziko: Systémy umelej inteligencie považované za jednoznačné ohrozenie základných ľudských práv ľudí budú zakázané. Do tejto kategórie patria systémy alebo aplikácie umelej inteligencie, ktoré manipulujú ľudské správanie s cieľom obísť slobodnú vôľu používateľa (napr. hračky s hlasovým asistentom, ktoré nabádajú neplnoletých k nebezpečnému správaniu), alebo systémy, ktoré vládam alebo podnikom umožňujú „spoločenské bodovanie“ a určité aplikácie na prediktívne vykonávanie policajných funkcií. Okrem toho niektoré použitia biometrických systémov však budú zakázané: napríklad systémy rozpoznávania emócií používané na pracoviskách a niektoré systémy kategorizácie ľudí alebo biometrická identifikácia na diaľku v reálnom čase na účely presadzovania práva vo verejnom priestore (s niekoľkými výnimkami).

Osobitné riziko pri transparentnosti: používatelia systémov umelej inteligencie, ako sú chatboty by si mali byť vedomí, že ich interakcia prebieha so strojom. Deepfake a iný obsah, ktorý generuje umelá inteligencia, budú musieť ako také byť označené. Rovnako bude povinné informovať používateľov v prípadoch, keď sa používa biometrická kategorizácia alebo rozpoznávanie emócií. Okrem toho budú poskytovatelia musieť navrhnúť systémy tak, aby syntetický obsah (napr. audio, video, texty a obrázky) bol označený v strojovo čitateľnom formáte a identifikovateľný ako umelo vygenerovaný alebo manipulovaný.

Pokuty

Spoločnosti, ktoré nebudú dodržiavať pravidlá, budú pokutované. Pokuty sa budú pohybovať od 35 miliónov EUR alebo 7 % celosvetového ročného obratu (podľa toho, ktorá suma je vyššia) za porušenie zakázaných aplikácií umelej inteligencie, 15 miliónov EUR alebo 3 % za porušenie iných povinností a 7,5 milióna EUR alebo 1,5 % za poskytnutie nesprávnych informácií. Pre MSP a startupy sa stanovujú proporcionálnejšie stropy správnych pokút v prípade porušenia aktu o umelej inteligencii.

Umelá inteligencia na všeobecné použitie

Akt o umelej inteligencii zavádza špecializované pravidlá pre modely umelej inteligencie na všeobecné použitie, ktoré zaručia transparentnosť v celom hodnotovom reťazci. Pri veľmi silných modeloch, ktoré by mohli predstavovať systémové riziko, budú platiť dodatočné záväzné povinnosti súvisiace s riadením rizík a monitorovaním vážnych incidentov, vykonávaním modelového hodnotenia a kontradiktórnym testovaním. Tieto nové povinnosti budú fungovať na základe kódexov postupov, ktoré zostaví sektor, vedecká obec, občianska spoločnosť a iné zainteresované strany spolu s Komisiou.

Viac..  Europarlament prijal smernicu o práci pre digitálne platformy

Pokiaľ ide o riadenie, na dodržiavanie nových pravidiel na vnútroštátnej úrovni budú dohliadať vnútroštátne príslušné orgány dohľadu nad trhom. Koordináciu na európskej úrovni zabezpečí novo vytvorený európsky úrad pre umelú inteligenciu v rámci Európskej komisie. Nový úrad pre umelú inteligenciu bude dohliadať aj na vykonávanie a presadzovanie nových pravidiel týkajúcich sa modelov umelej inteligencie na všeobecné použitie. Úrad pre umelú inteligenciu bude spolu s vnútroštátnymi orgánmi dohľadu nad trhom prvým orgánom na celom svete, ktorý presadzuje záväzné pravidlá týkajúce sa umelej inteligencie, a preto sa očakáva, že sa stane medzinárodnou referenciou. V prípade modelov na všeobecné použitie bude ústrednú úlohu zohrávať vedecká skupina nezávislých odborníkov, ktorá bude vydávať varovania o systémových rizikách a prispievať ku klasifikácii a testovaniu modelov.

Ďalšie kroky

Politickú dohodu teraz formálne schváli Európsky parlament a Rada a nadobudne účinnosť 20 dní po uverejnení v úradnom vestníku. Akt o umelej inteligencii sa začne uplatňovať dva roky po nadobudnutí jeho účinnosti, s výnimkou niektorých osobitných ustanovení: zákazy sa budú uplatňovať už po šiestich mesiacoch, zatiaľ čo pravidlá o umelej inteligencii na všeobecné použitie sa budú uplatňovať po 12 mesiacoch.

S cieľom preklenúť prechodné obdobie, než sa nariadenie stane všeobecne uplatniteľným, Komisia zavedie pakt o umelej inteligencii. Zvolá vývojárov umelej inteligencie z Európy a celého sveta, ktorí sa dobrovoľne zaviažu k dodržiavaniu kľúčových povinností aktu o umelej inteligencii už pred oficiálnym dátumom začiatku ich platnosti.

V záujme presadzovania pravidiel dôveryhodnej umelej inteligencie na medzinárodnej úrovni bude Európska únia naďalej pracovať na fórach, ako sú G7, OECD, Rada Európy, G20 a OSN. Práve nedávno sme podporili dohodu vedúcich predstaviteľov skupiny G7 v rámci procesu umelej inteligencie v Hirošime o medzinárodných základných zásadách a dobrovoľnom kódexe správania pre pokročilé systémy umelej inteligencie.

Súvislosti

Komisia už roky uľahčuje a posilňuje spoluprácu v oblasti umelej inteligencie v celej EÚ v snahe zlepšiť jej konkurencieschopnosť a zabezpečiť dôveru založenú na hodnotách EÚ.

Po uverejnení európskej stratégie v oblasti umelej inteligencie v roku 2018 a po rozsiahlych konzultáciách so zainteresovanými stranami expertná skupina na vysokej úrovni pre umelú inteligenciu vypracovala v roku 2019 usmernenia pre dôveryhodnú umelú inteligenciu a v roku 2020 zoznam bodov na posudzovanie dôveryhodnej umelej inteligencie. Súčasne sa v decembri 2018 uverejnil prvý koordinovaný plán v oblasti umelej inteligencie ako spoločný záväzok s členskými štátmi.

Biela kniha Komisie o umelej inteligencii uverejnená v roku 2020 vytýčila jednoznačnú víziu umelej inteligencie v Európe ako ekosystému excelentnosti a dôvery a vytvorila tak predpoklady dnešnej politickej dohody. Verejná konzultácia k bielej knihe o umelej inteligencii zaznamenala širokú účasť respondentov z celého sveta. Sprievodný dokument k bielej knihe tvorila „Správa o vplyve umelej inteligencie, internetu vecí a robotiky na bezpečnosť a zodpovednosť“, ktorej záver tvorí konštatovanie, že aktuálne právne predpisy o bezpečnosti výrobkov obsahujú viaceré medzery, ktoré treba riešiť, a to predovšetkým v smernici o strojových zariadeniach.

Nezávislý výskum založený na dôkazoch, ktorý vypracovalo Spoločné výskumné centrum (JRC), má zásadný význam pri formovaní politík EÚ v oblasti umelej inteligencie a zabezpečovaní ich účinného vykonávania. JRC pomocou dôkladného výskumu a analýzy podporuje vývoj aktu o umelej inteligencii, poskytuje vstupy k terminológii umelej inteligencie, klasifikácii rizík, technickým požiadavkám a prispieva k stálemu vývoju harmonizovaných noriem.

O mam

Odporúčame pozrieť

Michal Wiezik: Umelá inteligencia je nový fenomén, s ktorým sa musíme naučiť žiť

Na bezplatný odber spravodajstva z EÚ do vášho emailu sa môžete prihlásiť tu: PRIHLÁSENIE. Umelá …

Consent choices