Root NationRakstiAnalyticsKāpēc ES vēlas kļūt par AI regulatoru un kā tā plāno to darīt

Kāpēc ES vēlas kļūt par AI regulatoru un kā tā plāno to darīt

-

Eiropas Parlaments ir apstiprinājis likumprojektu, kas kļūs par pamatu topošajam AI regulēšanas noteikumu likumam. Mēģināsim noskaidrot, kas tas ir ES AI akts.

Pirmkārt, ES AI likumam jākļūst par pirmo likumu pasaulē, kas vispusīgi regulē ar AI saistītās problēmas. Pagaidām apstiprināts tikai projekts, nevis pats likums. Tagad tas tiks iesniegts 27 ES dalībvalstu parlamentiem galīgās versijas pieņemšanai. Tas ir, ES cenšas kļūt par sava veida AI regulatoru, lai izveidotu noteiktus ietvarus un ierobežojumus AI algoritmu un mašīnmācīšanās izstrādē un ieviešanā.

Interesanti arī: Nākotnes roboti: vai mākslīgais intelekts iegūs ķermeni?

Eiropas Savienība vēlas regulēt mākslīgo intelektu

Eiropas Savienības mērķis ir izbeigt haosu mākslīgā intelekta algoritmu izmantošanas tirgū un sāk regulēt jaunas mākslīgā intelekta šķirnes. Eiropas Parlaments ir paātrinājis darbu pie ierosinātā Mākslīgā intelekta likuma, kurā būtu jāievieš noteikumi jaunu AI programmu ieviešanai un pat jāaizliedz to izmantošana noteiktās dzīves jomās.

Pašlaik notiek diskusijas par šāda regulējuma formu, ņemot vērā pašreizējo AI attīstību. Būtībā deputāti vēlas likumā ierakstīt atšķirību starp vispārējas nozīmes mākslīgo intelektu un fundamentālajiem modeļiem, un paredzams, ka uz pēdējiem likumi attieksies stingrāk. Šo iepriekš ierosināto noteikumu grozījumu izraisījusi AI straujā attīstība pēdējos mēnešos. Abas mākslīgā intelekta formas atšķiras viena no otras ar apmācību datu mērogu, pielāgošanās spēju un izmantošanas iespējamību neparedzētiem mērķiem.

ES AI akts

Visi šie parametri ir augstāki tieši fundamentālajos modeļos, īpaši ģeneratīvajā AI, kas ir tādu modeļu kā GPT-3 un GPT-4 pamatā. Viņi apstrādā milzīgu datu apjomu, kas darba procesā nepārtraukti paplašinās. Tāpēc viņi var ātri apgūt jaunus datus, kurus var izmantot pavisam citādi, nekā to veidotāji bija iecerējuši.

Pamatojoties uz jaunajām vadlīnijām, tiks izstrādāta trīspakāpju grupu klasifikācija, pamatojoties uz iespējamiem draudiem, ko var izraisīt AI. Augstākā riska pakāpe nozīmēs mašīnmācīšanās tehnoloģiju izmantošanas ierobežošanu jutīgās nozarēs un dažos gadījumos pat pilnīgu to aizliegšanu.

Pēc Mākslīgā intelekta likuma ieviešanas tehnoloģijas izstrādātājam pirms tās laišanas tirgū būs jāizpilda vairāki nosacījumi, piemēram, tā jāpārbauda attiecībā uz demokrātijas vai drošības apdraudējumiem neatkarīgu ekspertu uzraudzībā, jāatbilst caurspīdīguma prasībām, vai modeļa skaitļošanas jaudas atklāšana. Tajā pašā laikā fundamentālos modeļus nevar izmantot, lai izveidotu sociālās vērtēšanas sistēmas (kā Ķīnā) vai biometrisko identifikāciju.

Interesanti arī: Kas ir 6G tīkli un kāpēc tie ir nepieciešami?

- Reklāma -

Kas ir ES likums par mākslīgo intelektu?

ES AI likums ir Eiropas Savienības ierosinātais mākslīgā intelekta likums, un tas ir pirmais AI likums, ko ir pieņēmusi liela regulatīvā iestāde. Likums regulē AI piemērošanu atbilstoši trīs risku kategorijām. Pirmkārt, tiks aizliegtas programmas un sistēmas, kas rada nepieņemamus sociālos riskus, piemēram, Ķīnā izmantotais valdības sociālais novērtējums. Otrkārt, ir augsta riska programmas, piemēram, CV skenēšanas rīki, kas sarindo darba pretendentus, kuriem jāatbilst noteiktām juridiskajām prasībām. Visbeidzot, programmas, kas nav skaidri aizliegtas vai iekļautas augsta riska sarakstā un kuras lielākoties nav regulētas.

ES AI akts

Eiropas Savienība strādā pie AI likuma, t.i., likumiem un noteikumiem par mākslīgā intelekta izmantošanu, lai ierobežotu kaitējumu, ko tas var radīt cilvēkiem.

Tā ir pieeja, kas balstīta uz kopīgām ētiskām vērtībām, kas ir svarīgas Savienībai, un pretstatā Ķīnas pieejai, kuras pamatā ir pilnīga valsts kontrole un maza uzmanība pret indivīda tiesībām, un amerikāņu modeli, kas ignorē visneaizsargātāko pilsoņu tiesības.

Eiropas Komisijas mērķis ir izveidot Eiropas normatīvo vidi mākslīgā intelekta principiem. Mākslīgā intelekta likuma mērķis ir regulēt tehnoloģiju tirgu nevis pēc pakalpojuma vai produkta veida, bet gan pēc riska līmeņa, ko AI var radīt.

Interesanti arī: Kašķīga veca džeka dienasgrāmata: Bing pret Google

Kāpēc mums ir vajadzīgi noteikumi par AI?

Ierosinātā AI regula nodrošina, ka eiropieši var uzticēties tam, ko AI piedāvā. Lai gan vairums mākslīgā intelekta sistēmu rada nelielu risku vai nekādu risku un var palīdzēt atrisināt daudzas sabiedrības problēmas, dažas mākslīgā intelekta sistēmas rada draudus, kas mums jāņem vērā, lai izvairītos no nevēlamiem rezultātiem.

Piemēram, bieži vien nav iespējams noskaidrot, kāpēc mākslīgā intelekta sistēma pieņēma noteiktu lēmumu, sniedza prognozi vai veica atbilstošu darbību. Tādējādi var kļūt grūti novērtēt, vai persona ir bijusi netaisnīgi nelabvēlīgā situācijā, piemēram, pieņemot lēmumu par pieņemšanu darbā vai piesakoties labklājības programmai.

ES AI akts

Lai gan pašreizējie tiesību akti nodrošina zināmu aizsardzību, ar tiem nepietiek, lai risinātu specifiskās problēmas, ko AI sistēmas var radīt.

Tika ierosināti šādi noteikumi:

  • novērst riskus, ko īpaši rada AI programmas
  • ieteikt augsta riska programmu sarakstu
  • noteikt skaidras prasības AI sistēmām augsta riska lietojumprogrammām
  • noteikt īpašus pienākumus AI lietotājiem un augsta riska programmatūras nodrošinātājiem
  • piedāvāt atbilstības novērtējumu pirms AI sistēmas nodošanas ekspluatācijā vai laišanas tirgū
  • ieteikt pielietojuma jomas pēc šādas mākslīgā intelekta sistēmas laišanas tirgū;
  • ierosināt pārvaldības struktūru Eiropas un valstu līmenī.

Interesanti arī: Labākie instrumenti, kuru pamatā ir mākslīgais intelekts

Četri riska līmeņi AI

Eiropas Savienības juristi definēja tiesisko regulējumu, kas nosaka 4 AI riska līmeņus:

  • Nepieņemams risks
  • Augsta riska
  • Ierobežots risks
  • Minimāls vai bez riska

Analizēsim katru no tiem sīkāk.

ES AI akts

- Reklāma -

Nepieņemams risks

Kā norāda nosaukums, šāda riska pakāpe ir nepieņemama, izstrādājot un izmantojot AI algoritmus. Tas nozīmē, ka tiks aizliegtas visas mākslīgā intelekta sistēmas, kas uzskatāmas par nepārprotamu draudu cilvēku drošībai, iztikai un tiesībām, sākot no valdību sociālajiem novērtējumiem un beidzot ar rotaļlietām ar balss palīdzību, kas veicina bīstamu uzvedību.

Augsta riska

AI sistēmas, ko izmantoja šādās jomās, tika klasificētas kā augsta riska sistēmas:

  • kritiskā infrastruktūra (piemēram, transports), kas var apdraudēt iedzīvotāju dzīvību un veselību
  • izglītības vai profesionālā apmācība, kas var noteikt izglītības pieejamību un personas profesionālo ceļu (piemēram, eksāmenu rezultātu aprēķināšana)
  • produktu drošības komponenti vai mākslīgā intelekta pielietojums, piemēram, ķirurģijā
  • nodarbinātība, darbaspēka vadība un piekļuve pašnodarbinātībai (piemēram, CV pārbaudes programmatūra darbā pieņemšanas procedūrām)
  • pamata privātie un sabiedriskie pakalpojumi (piemēram, kredīta novērtējums, kas liedz iedzīvotājiem iespēju saņemt aizdevumu)
  • tiesībaizsardzības darbības, kas var ierobežot cilvēku pamattiesības tieslietu jomā (piemēram, pierādījumu ticamības izvērtēšana)
  • migrācijas pārvaldība, patvērums un robežkontrole (piemēram, ceļošanas dokumentu autentiskuma pārbaude)
  • tieslietu administrēšana un demokrātiskie procesi (piemēram, tiesību piemērošana noteiktam faktu kopumam).

Ir noteikts, ka augsta riska AI sistēmas atbildīs stingrām prasībām, pirms tās varēs laist tirgū:

  • atbilstošas ​​riska novērtēšanas un mazināšanas sistēmas
  • augstas kvalitātes datu kopas, kas nodrošina sistēmu, lai samazinātu riskus un diskriminējošus rezultātus
  • darbību reģistrēšana, lai nodrošinātu rezultātu izsekošanu
  • detalizētu dokumentāciju, kurā ir visa nepieciešamā informācija par sistēmu un tās mērķi, lai iestādes varētu novērtēt tās atbilstību prasībām
  • skaidra un adekvāta informācija lietotājam
  • piemērotus cilvēku uzraudzības pasākumus, lai samazinātu riskus
  • augsts uzticamības, drošības un precizitātes līmenis.

Tagad par vienu no svarīgākajiem aspektiem, kas nobiedēja gandrīz visus. Visas attālinātās biometriskās identifikācijas sistēmas tiek uzskatītas par augsta riska sistēmām un uz tām attiecas stingras prasības. Attālinātās biometriskās identifikācijas izmantošana publiskās vietās tiesībaizsardzības nolūkos principā ir aizliegta.

Stingri noteikti un reglamentēti izņēmumi paredzēti, piemēram, kad nepieciešams meklēt pazudušu bērnu, novērst konkrētus un tūlītējus terorisma draudus vai atklāt, atrast, identificēt vai saukt pie atbildības noziedznieku vai aizdomās turamo par smagu noziedzīgu nodarījumu.

Šādai izmantošanai ir nepieciešama tiesu vai citas neatkarīgas iestādes atļauja, un tai ir atbilstoši ierobežojumi attiecībā uz laiku, ģeogrāfisko pārklājumu un meklētajām datubāzēm.

Ierobežots risks

Ierobežots risks attiecas uz AI sistēmām ar noteiktiem pārredzamības pienākumiem. Izmantojot mākslīgā intelekta sistēmas, piemēram, tērzēšanas robotus, lietotājiem ir jāzina, ka viņi mijiedarbojas ar mašīnu, lai viņi varētu pieņemt apzinātu lēmumu turpināt vai atkāpties.

Tas nozīmē, ka neviens negrasās aizliegt ChatGPT, taču izstrādātājiem ir jāatklāj sava darba detaļas un nākotnes plāni. Lietotājiem ir jāsaprot riski, kas viņus sagaida, ja viņi paļaujas uz no tērzēšanas robotiem saņemtās informācijas uzticamību.

Minimāls vai bez riska

Eiropas Komisija atļauj bez maksas izmantot mākslīgo intelektu ar minimālu risku. Tas ietver tādas lietojumprogrammas kā mākslīgā intelekta iespējotas videospēles vai surogātpasta filtri. Lielākā daļa AI sistēmu, kas pašlaik tiek izmantotas ES, ietilpst šajā kategorijā.

ES AI akts

Kad AI sistēma nonāk tirgū, iestādes ir atbildīgas par tirgus uzraudzību, lietotāji nodrošina cilvēku uzraudzību un uzraudzību, un piegādātājiem ir pēcpārdošanas uzraudzības sistēma. Piegādātāji un lietotāji ziņos arī par nopietniem incidentiem un darbības traucējumiem.

Lasi arī: 7 stilīgākie ChatGPT lietojumi

Kāpēc jums tas būtu jārūpējas?

Mākslīgā intelekta programmas ietekmē to, kādu informāciju jūs redzat tiešsaistē, prognozē, kāds saturs jūs interesē, apkopo un analizē datus, lai īstenotu likumus vai personalizētu reklāmas, un tiek izmantotas, lai diagnosticētu un ārstētu tādas lietas kā vēzis. Citiem vārdiem sakot, AI ietekmē daudzas jūsu dzīves jomas.

ES AI akts

Līdzīgi kā 2018. gada ES Vispārējā datu aizsardzības regula (GDPR), ES AI likums varētu kļūt par globālu standartu, kas nosaka, vai mākslīgais intelekts ietekmēs jūsu dzīvi, lai kur jūs atrastos, nevis negatīvi. Mākslīgā intelekta regulējums ES jau rada zināmu starptautisku rezonansi. 2021. gada septembra beigās Brazīlijas Kongress arī pieņēma likumprojektu, kas rada tiesisko regulējumu mākslīgā intelekta izmantošanai. Tas vēl jāapstiprina valsts Senātam.

Uz nākotni vērsta likumdošana

Tā kā mākslīgais intelekts ir strauji attīstās tehnoloģija, priekšlikumā ir izmantota uz nākotni vērsta pieeja, kas ļauj noteikumus pielāgot tehnoloģiskajām izmaiņām. AI lietojumprogrammām jāsaglabā uzticamība pat pēc to laišanas tirgū. Tas no piegādātājiem prasa nepārtrauktu kvalitātes un riska pārvaldību.

ES AI akts

Šādam likumam vajadzētu likt AI algoritmu ražotājiem un piegādātājiem būt atbildīgākiem par savu izstrādi. Būt sabiedriskākam, nedomāt tikai par ieņēmumu pieaugumu un nekontrolētiem eksperimentiem.

ES AI likums ir pirmais mākslīgā intelekta regulējums

ES tiesību aktiem par mākslīgo intelektu jākļūst par pirmo likumu pasaulē, kas vispusīgi regulē ar mākslīgo intelektu saistītos jautājumus.

Šis ir revolucionārs risinājums mākslīgā intelekta regulēšanai, pamatojoties uz tā potenciālu nodarīt kaitējumu. To būs aizliegts izmantot, piemēram, sociālās vērtēšanas sistēmās, reāllaika biometriskajā identifikācijā vai zemapziņas manipulācijās. Tika noteikta arī augsta riska programmu grupa, piemēram, medicīniskajā diagnostikā vai tiesu sistēmā. Sistēmu grupā ar ierobežotu risku būtu jānosaka tikai pārredzamības pienākumi.

ES AI akts

Ierosinātajā likumprojektā ir vairākas nepilnības un izņēmumi. Šie trūkumi ierobežo likuma spēju nodrošināt, lai mākslīgais intelekts jūsu dzīvē paliktu par labu. Pašlaik, piemēram, policijai ir aizliegta sejas atpazīšana, ja vien attēls netiek uzņemts ar kavēšanos vai ja tehnoloģija tiek izmantota, lai atrastu pazudušus bērnus.

Turklāt likums ir neelastīgs. Ja pēc diviem gadiem bīstama AI lietotne tiek izmantota neparedzētā jomā, likums neparedz mehānismu, kā to atzīmēt kā "augsta riska".

AI akts galvenokārt ir caurspīdīgums, spēja izskaidrot notikumus un spēja būt par tiem atbildīgam, tas ir, spēja noteikt, kurš vai kas ir atbildīgs par šo vai citu notikumu. AI likumam ir arī jākļūst par juridisko pamatu jaunas mākslīgā intelekta iestādes izveidei, kas palīdzētu dalībvalstīm tehniskos jautājumos.

Lasi arī: No CUDA līdz AI: veiksmes noslēpumi NVIDIA

Tehnoloģiju giganti maksās dārgi par ES tiesību aktu pārkāpumiem mākslīgā intelekta jomā

Ierosinātā direktīva attiektos tikai uz prasībām par zaudējumiem, kas radušies mākslīgā intelekta izmantošanas rezultātā vai gadījumos, kad AI sistēma nevarēja radīt rezultātu kādas personas, piemēram, piegādātāja vai lietotāja, vainas dēļ. Tomēr direktīva neattiecas uz civiltiesiskās atbildības prasībām, ja kaitējumu izraisījis cilvēka novērtējums un tai sekojošas darbības vai bezdarbība, savukārt AI sistēma sniedza tikai informāciju vai padomu, ko attiecīgais dalībnieks ņēmis vērā. Pēdējā gadījumā var izsekot cilvēka darbības vai bezdarbības radītajiem zaudējumiem, jo ​​AI sistēmas izvade netiek iejaukta starp cilvēka darbībām vai bezdarbību un kaitējumu.

ES AI akts

Par aizlieguma pārkāpšanu noteiktu tehnoloģiju piegādātājiem tiks piemērotas finansiālas sankcijas. Tie var sasniegt 30 miljonus eiro jeb 6 procentus no uzņēmuma gada globālajiem ieņēmumiem.

Protams, šādu lēmumu pieņemšana būs atkarīga no Eiropas Savienības dalībvalstu lēmumiem, taču jau tagad varam teikt, ka tas ir patiesi vēsturisks solis. Mākslīgā intelekta tehnoloģijām ir milzīgs potenciāls, ko var pozitīvi izmantot ekonomikas attīstībai. Tajā pašā laikā pastāv daudzi riski. Tāpēc likumdošana mēģina tās ierobežot, bet ne aizliegt.

Papildus tam, ka tiek pieņemti jauni tiesību akti par mākslīgo intelektu, ES plāno arī sadarboties ar ASV, lai izstrādātu brīvprātīgu rīcības kodeksu attiecībā uz šo tehnoloģiju, kas drīzumā būs gatavs un varētu tikt piedāvāts citām valstīm, kuras ievēro līdzīgus principus.

Mākslīgā intelekta likumam vajadzētu būt arī par pamatu Mākslīgā intelekta biroja izveidei. Paredzēts ar tehnisko ekspertīžu palīdzību atbalstīt dalībvalstis un to iestādes jaunā regulējuma ieviešanā, kā arī veicināt risinājumu saskaņošanu, ja rodas problēmas, kas skars vairāk nekā vienu valsti.

Lasi arī:

Yuri Svitlyk
Yuri Svitlyk
Karpatu kalnu dēls, neatzīts matemātikas ģēnijs, "jurists"Microsoft, praktiskais altruists, kreisais-labais
- Reklāma -
Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus