Root NationRakstiAnalyticsSeši mākslīgā intelekta baušļi

Seši mākslīgā intelekta baušļi

-

Turpmākie gadi būs raksturīgi straujai mākslīgā intelekta tehnoloģiju attīstībai. Varbūt ir jāievieš skaidri definēti ietvari mākslīgā intelekta radīšanai un izmantošanai? Vai pietiek ar 6 mēnešu pieredzi, lai regulētu tehnoloģiju, kas vēl pat nav izgājusi no laboratorijas? Šis jautājums arvien biežāk izskan no ekspertu un žurnālistu mutēm, kad runa ir par mākslīgo intelektu. Aizvien biežāk izskan balsis un aicinājumi veikt pasākumus mākslīgā intelekta regulēšanai – gan lietotāju līmenī, gan projektu izstrādes līmenī. Šādu aicinājumu vēsture sākās diezgan sen.

Mākslīgā intelekta visuresošā klātbūtne digitālajā telpā un, galvenais, modeļi, kas spēj radīt saturu, kas neatšķirsies no cilvēku radītā, raisa ļoti dažādas emocijas. No vienas puses, mums ir entuziastu grupa, kas AI redz nākotni un, neskatoties uz tā salīdzinoši ierobežotajām iespējām (jo AI nedomā, un bieži vien tikai ņem informāciju no interneta), nebaidās tam uzticēt daudzus uzdevumus. . Barikāžu otrā pusē ir grupa, kas pauž skepsi un bažas par pašreizējām tendencēm mākslīgā intelekta attīstībā.

AI postulāts

Tilts starp abām grupām ir mākslīgā intelekta pētnieki, kuri, no vienas puses, min daudzus piemērus, kā mākslīgais intelekts ir pozitīvi ietekmējis apkārtējo realitāti. Tajā pašā laikā viņi saprot, ka ir pāragri gulēt uz lauriem, un milzīgs tehnoloģiskais lēciens nes daudzus izaicinājumus un lielu atbildību. Spilgts piemērs šādai attieksmei ir starptautiska mākslīgā intelekta un mašīnmācīšanās pētnieku grupa, kuru vada Dr. Ozlem Garibay no Centrālās Floridas universitātes. 47 lappušu garajā publikācijā, ko sarakstījuši 26 zinātnieki no visas pasaules, ir identificēti un aprakstīti seši izaicinājumi, kas pētniecības iestādēm, uzņēmumiem un korporācijām jārisina, lai padarītu savus modeļus (un programmatūru, kas tos izmanto) drošus.

Jā, šis ir nopietns zinātnisks darbs ar svarīgiem skaidrojumiem mākslīgā intelekta nākotnes izpratnei. Kam interesē, var patstāvīgi izlasiet šo zinātnisko ziņojumu un izdariet savus secinājumus. Vienkāršiem vārdiem sakot, zinātnieki ir identificējuši 6 mākslīgā intelekta baušļus. Visām mākslīgā intelekta izmaiņām un darbībām ir jāatbilst tiem, lai tā būtu droša cilvēkiem un pasaulei.

AI postulāts

Savā rakstā, kas rakstīts tieši uz šī zinātniskā darba pamata, mēģināšu formulēt galvenos postulātus, likumus, saskaņā ar kuriem mākslīgajam intelektam vajadzētu pastāvēt un attīstīties. Jā, tā ir mana gandrīz brīva zinātnieku secinājumu interpretācija par mākslīgā intelekta attīstību un mēģinājums tos pasniegt, tā teikt, Bībeles versijā. Bet tā es gribēju jūs iepazīstināt ar šo cienījamo zinātnieku zinātnisko darbu.

Interesanti arī: AI veidošana: kurš vada sacensības?

Pirmais likums: Cilvēka labklājība

Pirmais pētnieku postulāts ir koncentrēt mākslīgā intelekta darbu uz cilvēka labklājību. "Cilvēcisko vērtību, veselā saprāta un ētikas" trūkuma dēļ mākslīgais intelekts var darboties tā, ka tas izraisīs būtisku cilvēka labklājības pasliktināšanos. Problēmas var būt mākslīgā intelekta pārcilvēcisko spēju rezultāts (piemēram, tas, cik viegli AI pārspēj cilvēkus – un ne tikai šahā), bet arī tas, ka mākslīgais intelekts nedomā pats un tāpēc nespēj "filtrēt" aizspriedumus vai acīmredzamas kļūdas.

AI postulāts

- Reklāma -

Pētnieki atzīmē, ka pārmērīga uzticēšanās mākslīgā intelekta tehnoloģijām var negatīvi ietekmēt cilvēku labklājību. Sabiedrība, kurai ir maz izpratnes par mākslīgā intelekta algoritmu darbību, mēdz tai pārāk uzticēties vai, gluži pretēji, negatīvi izturas pret noteikta modeļa radīto saturu, jo īpaši tērzēšanas robotiem. Ņemot vērā šos un citus faktorus, Garibay komanda aicina likt cilvēka labklājību nākotnes AI un cilvēka mijiedarbības centrā.

Lasi arī: ChatGPT: vienkārša lietotāja rokasgrāmata

Otrais likums: Atbildība

Atbildība ir termins, kas AI pasaulē arvien parādās saistībā ar to, kam mēs izmantojam mašīnmācīšanos un kā tieši AI modeļi un algoritmi tiek izstrādāti un apmācīti. Starptautiskā komanda uzsver, ka mākslīgā intelekta projektēšana, izstrāde un ieviešana būtu jāveic tikai ar labiem nodomiem.

AI postulāts

Viņuprāt, atbildība jāskata ne tikai tehniskā, bet arī juridiskā un ētiskā kontekstā. Tehnoloģija ir jāaplūko ne tikai no to efektivitātes viedokļa, bet arī to izmantošanas kontekstā.

"Ieviešot uzlabotas mašīnmācīšanās metodes, kļūst arvien svarīgāk saprast, kā tika pieņemts lēmums un kurš par to ir atbildīgs.”- raksta pētnieki.

Trešais likums: Konfidencialitāte

Privātums ir tēma, kas bumerangs iekļaujas katrā diskusijā par tehnoloģijām. It īpaši, ja viss tiek apspriests sociālajos tīklos. Tomēr tas ir ārkārtīgi svarīgi mākslīgajam intelektam, jo ​​tas neeksistē bez datu bāzes. Un kas ir datu bāzes?

Zinātnieki tos raksturo kā "pamatelementu abstrakciju, kas veido veidu, kā mēs redzam pasauli". Šie bloki parasti ir ikdienišķas vērtības: krāsas, formas, faktūras, attālumi, laiks. Lai gan šaurais AI koncentrējas uz vienu mērķi, piemēram, uz pakāpi, kādā aizvars atveras pie noteiktas gaismas intensitātes, izmanto publiski pieejamus objektīvus datus, savukārt AI plašākās lietojumprogrammās (šeit, piemēram, teksta pārveides modeļi, piemēram, Midjourney , vai valodu modeļos, piemēram, ChatGPT ), var izmantot datus par cilvēkiem un tos, kurus ir izveidojuši cilvēki. Jāpiemin arī raksti presē, grāmatas, ilustrācijas un internetā publicētās fotogrāfijas. Mākslīgā intelekta algoritmiem ir pieejams viss, jo mēs paši viņiem to iedevām. Pretējā gadījumā viņš neko nezinās un nesniegs atbildes uz nevienu jautājumu.

AI postulāts

Lietotāju dati būtiski ietekmē gan cilvēkus, par kuriem šie dati tiek vākti, gan cilvēkus sistēmā, kurā tiks ieviesti mākslīgā intelekta algoritmi.

Tāpēc trešais izaicinājums ir saistīts ar plašu izpratni par privātumu un tādu tiesību nodrošināšanu kā tiesības palikt vienam, tiesības ierobežot pieeju sev, tiesības uz savas personīgās dzīves vai uzņēmējdarbības noslēpumu, tiesības kontrolēt personas. informāciju, tas ir, tiesības aizsargāt savu personību, individualitāti un cieņu. Tas viss ir jāieraksta algoritmos, pretējā gadījumā privātums vienkārši nepastāvēs, un AI algoritmi var tikt izmantoti krāpnieciskās shēmās, kā arī noziedzīgos nodarījumos.

Lasi arī: 7 stilīgākie veidi, kā izmantot ChatGPT

Ceturtais likums: Projekta struktūra

Mākslīgais intelekts var būt ārkārtīgi vienkāršs un paredzēts vienam mērķim, taču lielāku modeļu gadījumā ar plašu un daudzuzdevumu raksturu problēma ir ne tikai datu privātums, bet arī dizaina struktūra.

Piemēram, GPT-4, OpenAI jaunākajam mākslīgā intelekta modelim, neskatoties uz tā lielumu un ietekmi uz AI pasauli (un ne tikai), nav pilnībā publiskas dokumentācijas. Tas ir, mums nav izpratnes par to, kādi ir izstrādātāju gala mērķi, ko viņi vēlas iegūt gala rezultātā. Tāpēc mēs nevaram pilnībā novērtēt riskus, kas saistīti ar šī AI modeļa izmantošanu. No otras puses, GPT-3, kas apmācīts, izmantojot 4chan foruma datus, ir modelis, ar kuru jūs noteikti nevēlaties sazināties. 4chan forums ir viena no interesantākajām parādībām internetā. Šis ir absolūtas, totālas anarhijas piemērs, kuru praksē neierobežo nekādi ietvari. Šeit tika izveidotas uzlaušanas grupas, piemēram, Anonymous vai LulzSec. Tas ir daudzu populārāko mēmu avots, vieta, kur apspriest strīdīgas tēmas un publicēt vēl pretrunīgākus viedokļus. Lai gan angļu valodas attēlu panelī ir norādīts, ka "līdz šim tas ir likumīgi", tas ir nedaudz apšaubāms, ņemot vērā, ka 4chan laiku pa laikam sadarbojas ar plašsaziņas līdzekļiem, tostarp rasistisku, nacistu un seksistisku saturu.

AI postulāts

- Reklāma -

Profesora Garibay komanda vēlas, lai katrs mākslīgā intelekta modelis darbotos skaidri definētā sistēmā. Ne tikai tās personas labklājības dēļ, ar kuru AI mijiedarbojas, bet arī spējas novērtēt ar modeļa izmantošanu saistītos riskus. Jebkura projekta struktūrā jāiekļauj cieņa pret dažādu kultūras grupu un ieinteresēto pušu vajadzībām, vērtībām un vēlmēm. AI izveides, apmācības un precizēšanas procesam jābūt vērstam uz cilvēka labklājību, un gala produktam – AI modelim – jābūt vērstam uz pašas cilvēku kopienas produktivitātes uzlabošanu un uzlabošanu. Modeļiem, kuros riskus nevar identificēt, jābūt ierobežotai vai kontrolētai piekļuvei. Tiem nevajadzētu apdraudēt cilvēci, bet, gluži pretēji, veicināt cilvēka un visas sabiedrības attīstību.

Lasi arī: Twitter Īlona Maska rokās - drauds vai "uzlabošana"?

Piektais likums: pārvaldība un neatkarīga uzraudzība

Mākslīgā intelekta algoritmi burtiski mainīja pasauli tikai viena gada laikā. Bard by Google un Bing pirmizrādes no Microsoft būtiski ietekmēja abu gigantu akcijas biržā. Starp citu, tie veicināja šo uzņēmumu akciju pieaugumu pat uz akciju fona Apple. ChatGPT ir sākuši aktīvi izmantot skolas skolēni, viņi sazinās ar to, pārbauda to un uzdod jautājumus. Pats galvenais, lai viņam ir spēja pašam mācīties, labot savas kļūdas. Mākslīgais intelekts pat sāk darboties dažu valstu valdībās. Tas ir Rumānijas premjerministra Nikolaja Čukas gadījums nolīga virtuālo palīgs, kas viņu informēs par sabiedrības vajadzībām. Tas nozīmē, ka mākslīgais intelekts ieņem arvien lielāku lomu mūsu dzīvē.

AI

Ņemot vērā arvien pieaugošo mākslīgā intelekta, cilvēku un vides savstarpējo atkarību, zinātnieki uzskata par nepieciešamu izveidot pārvaldes institūcijas un neatkarīgu uzraudzību pār tā attīstību. Šīs struktūras kontrolēs visu mākslīgā intelekta dzīves ciklu: no idejas līdz izstrādei un ieviešanai. Varas iestādes pareizi definēs dažādus mākslīgā intelekta modeļus un izskatīs lietas, kas saistītas ar mākslīgo intelektu un sociālās dzīves priekšmetiem. Tas ir, mākslīgais intelekts var kļūt par tiesas lietu, kā arī tiesas prāvu priekšmetu. Lai gan, protams, ne viņš personīgi, bet gan viņa izstrādātāji.

Lasi arī: Viss par Neuralink: kiberpanka trakuma sākums?

Sestais likums: cilvēka un mākslīgā intelekta mijiedarbība

Mākslīgā intelekta programmās ikviens var atrast kaut ko sev: ģenerēt tekstu, noteikt saturu attēlos, atbildēt uz jautājumiem, ģenerēt attēlus, atpazīt cilvēkus fotogrāfijās, analizēt datus. Šie daudzveidīgie lietojumi rada bažas ne tikai cilvēkiem, kuri cenšas pielāgot mākslīgo intelektu juridiskajiem un ētiskajiem standartiem. Daudzi baidās, ka mākslīgā intelekta modeļi varētu tikt izspiesti no darba tirgus. Jo mākslīgā intelekta algoritmi to pašu spēs izdarīt ātrāk, lētāk un varbūt pat labāk nekā cilvēks. Tajā pašā laikā ir cilvēki, kuri savā darbā paļaujas uz AI, t.i., mākslīgais intelekts viņiem jau šodien ir neaizstājams palīgs.

AI

Taču no zinātnieku minētajiem pētījumiem ir skaidrs, ka līdz cilvēku aizstāšanai ar lētu mākslīgo darbaspēku vēl ir diezgan tālu. Neskatoties uz to, viņi jau uzstāj uz nepieciešamību izveidot stingru mijiedarbības hierarhiju starp cilvēkiem un mākslīgo intelektu. Pēc viņu domām, cilvēki ir jānovieto augstāk par mākslīgo intelektu. Mākslīgais intelekts jāveido, respektējot cilvēka kognitīvās spējas, ņemot vērā viņa emocijas, sociālo mijiedarbību, idejas, plānošanu un mijiedarbību ar objektiem. Tas ir, visās situācijās cilvēkam ir jāstāv pāri mākslīgajam intelektam, jākontrolē modeļa radītā uzvedība un saturs un jāatbild par to. Vienkāršiem vārdiem sakot, pat vismodernākajam AI ir jāpakļaujas cilvēkam un nedrīkst pārsniegt atļauto, lai nekaitētu tā radītājam.

Lasi arī: Kā Ukraina izmanto un pielāgo Starlink kara laikā

Višnovki

Jā, kāds teiks, ka zinātnieki savā ziņojumā nav norādījuši neko svarīgu un jaunu. Visi par to runā jau ilgu laiku. Bet jau tagad vajag AI ielikt kaut kādā likumu ietvarā. Sniegt roku pēc GPT-4 ir kā akli ķerties pie naža. Viņi no mums slēpj galveno informāciju. Visas mākslīgā intelekta attīstības tendences, jo īpaši Open AI projekts ChatGPT, man bieži atgādina par maza bērna audzināšanu. Dažreiz šķiet, ka tas ir svešas izcelsmes bērns. Jā, citplanētietis, bet viņš tomēr ir bērns, kurš mācās, kļūdās, reizēm uzvedas neadekvāti, ir aizkaitināms, strīdas ar vecākiem. Lai gan tas aug un attīstās ļoti ātri.

AI

Cilvēce var nesekot līdzi savai attīstībai, un lietas var izkļūt no kontroles. Tāpēc cilvēcei jau tagad ir jāsaprot, kāpēc mēs to visu attīstām, jāzina galīgie mērķi, jābūt "atbildīgiem vecākiem", jo pretējā gadījumā "bērns" var vienkārši iznīcināt savus "vecākus".

Lasi arī: 

Yuri Svitlyk
Yuri Svitlyk
Karpatu kalnu dēls, neatzīts matemātikas ģēnijs, "jurists"Microsoft, praktiskais altruists, kreisais-labais
- Reklāma -
Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus