Politická dohoda o akte o umelej inteligencii

Domov Veda v EÚ Novinky vedy a techniky v EÚ Politická dohoda o akte o umelej inteligencii

Európska koncepcia dôveryhodnej umelej inteligencie
Komisia víta politickú dohodu, ktorú Európsky parlament a Rada dosiahli pri akte o umelej inteligencii, ktorý Komisia navrhla v apríli 2021.

Nové pravidlá sa budú uplatňovať priamo vo všetkých členských štátoch. Základom bude nadčasové vymedzenie umelej inteligencie.
Sú orientované na koncepciu rizika:

Minimálne riziko: Prevažná väčšina systémov umelej inteligencie spadá do kategórie s minimálnym rizikom. Na aplikácie s minimálnym rizikom, ako sú odporúčané systémy na základe umelej inteligencie alebo spamové filtre, sa nebudú vzťahovať žiadne obmedzenia ani povinnosti, pretože nepredstavujú žiadne alebo len minimálne riziko pre práva či bezpečnosť občanov. Spoločnosti sa môžu napriek tomu dobrovoľne zaviazať uplatňovať pri nich dodatočné kódexy správania.

Vysoké riziko: Systémy umelej inteligencie identifikované ako vysokorizikové budú musieť dodržiavať prísne požiadavky vrátane povinných systémov na zmierňovanie rizika, vysokokvalitných dátových súborov, logovania činností, podrobnej dokumentácie, jednoznačných informácií pre používateľov, ľudského dohľadu a vysokej úrovne spoľahlivosti, presnosti a kybernetickej bezpečnosti. Experimentálne regulačné prostredie uľahčí zodpovednú inováciu a vývoj systémov umelej inteligencie spĺňajúcich pravidlá.

Medzi takéto vysokorizikové systémy umelej inteligencie patria okrem iných určité kritické infraštruktúry napríklad v oblasti vody, plynu a elektriny, zdravotnícke pomôcky, systémy na určovanie prístupu do vzdelávacích zariadení alebo na nábor pracovníkov do zamestnania, či určité systémy používané v oblasti presadzovania práva, kontroly hraníc, výkonu spravodlivosti a demokratických procesov. Aj systémy biometrickej identifikácie, kategorizácie a rozpoznávania emócií sa považujú za vysokorizikové. 

Neprijateľné riziko: Systémy umelej inteligencie považované za jednoznačné ohrozenie základných ľudských práv ľudí budú zakázané. Do tejto kategórie patria systémy alebo aplikácie umelej inteligencie, ktoré manipulujú ľudské správanie s cieľom obísť slobodnú vôľu používateľa (napr. hračky s hlasovým asistentom, ktoré nabádajú neplnoletých k nebezpečnému správaniu), alebo systémy, ktoré vládam alebo podnikom umožňujú „spoločenské bodovanie“ a určité aplikácie na prediktívne vykonávanie policajných funkcií. Okrem toho niektoré použitia biometrických systémov však budú zakázané: napríklad systémy rozpoznávania emócií používané na pracoviskách a niektoré systémy kategorizácie ľudí alebo biometrická identifikácia na diaľku v reálnom čase na účely presadzovania práva vo verejnom priestore (s niekoľkými výnimkami).

Osobitné riziko pri transparentnosti: používatelia systémov umelej inteligencie, ako sú chatboty by si mali byť vedomí, že ich interakcia prebieha so strojom. Deepfake a iný obsah, ktorý generuje umelá inteligencia, budú musieť ako také byť označené. Rovnako bude povinné informovať používateľov v prípadoch, keď sa používa biometrická kategorizácia alebo rozpoznávanie emócií. Okrem toho budú poskytovatelia musieť navrhnúť systémy tak, aby syntetický obsah (napr. audio, video, texty a obrázky) bol označený v strojovo čitateľnom formáte a identifikovateľný ako umelo vygenerovaný alebo manipulovaný.

Umelá inteligencia na všeobecné použitie

Akt o umelej inteligencii zavádza špecializované pravidlá pre modely umelej inteligencie na všeobecné použitie, ktoré zaručia transparentnosť v celom hodnotovom reťazci. Pri veľmi silných modeloch, ktoré by mohli predstavovať systémové riziko, budú platiť dodatočné záväzné povinnosti súvisiace s riadením rizík a monitorovaním vážnych incidentov, vykonávaním modelového hodnotenia a kontradiktórnym testovaním. Tieto nové povinnosti budú fungovať na základe kódexov postupov, ktoré zostaví sektor, vedecká obec, občianska spoločnosť a iné zainteresované strany spolu s Komisiou.

Celá správa

Zdroj: ec.europa.eu