Root NationJaunumiIT laikrakstsNebūs iespējams pārvaldīt superinteliģentu mākslīgo intelektu

Nebūs iespējams pārvaldīt superinteliģentu mākslīgo intelektu

-

Ideja par mākslīgā intelekta gāšanu cilvēcei ir apspriesta gadu desmitiem, un 2021. gada janvārī zinātnieki izteica savu spriedumu par to, vai mēs varam kontrolēt augsta līmeņa datora superintelektu. Atbildēt? Gandrīz noteikti nē.

Problēma ir tāda, ka, lai kontrolētu superprātu, kas ir tālu ārpus cilvēka izpratnes, būtu nepieciešama šī superprāta simulācija, ko mēs varētu analizēt. Bet, ja mēs to nespējam saprast, nav iespējams izveidot šādu simulāciju.

Noteikumus, piemēram, "nekaitēt cilvēkiem", nevar noteikt, ja mēs nesaprotam, kādus scenārijus izdomās mākslīgais intelekts (AI), uzskata 2021. gada dokumenta autori. Tiklīdz datorsistēma strādās tādā līmenī, kas pārsniedz mūsu programmētāju iespējas, mēs vairs nevarēsim noteikt ierobežojumus.

Mākslīgais intelekts

"Superinteliģence ir principiāli atšķirīga problēma, nekā parasti tiek pētīta zem "robotu ētikas" karoga," raksta pētnieki. "Tas ir tāpēc, ka superprāts ir daudzšķautņains un tāpēc potenciāli spēj mobilizēt dažādus resursus, lai sasniegtu mērķus, kas cilvēkiem ir potenciāli neaptverami, nemaz nerunājot par kontrolējamiem."

Daļa no komandas argumentācijas nāk no apstāšanās problēmas, ko ierosināja Alans Tjūrings 1936. gadā. Izaicinājums ir izdomāt, vai datorprogramma nonāks pie secinājuma un atbildēs (un apstāsies), vai arī vienkārši pakavēsies mūžīgi, cenšoties atrast atbildi.

Kā Tjūrings pierādīja ar palīdzību inteliģentā matemātika, lai gan mēs to zinām par dažām īpašām programmām, loģiski nav iespējams atrast veidu, kas ļautu mums to uzzināt par katru potenciālo programmu, kas jebkad varētu tikt uzrakstīta. Tas mūs atgriež pie AI, kas superinteliģentā stāvoklī vienlaikus varētu saglabāt visas iespējamās datorprogrammas savā atmiņā.

Interesanti arī:

Jebkura programma, kas rakstīta, piemēram, lai apturētu AI no kaitējuma cilvēkiem un pasaules iznīcināšanas, var nonākt pie secinājuma (un apstāties) vai arī nenonākt - matemātiski nav iespējams būt pilnīgi pārliecinātam abos virzienos, kas nozīmē, ka to nevar ierobežot. "Tas būtībā padara atturēšanas algoritmu nelietojamu," janvārī sacīja datorzinātnieks Ijads Rahvans no Maksa Planka Cilvēka attīstības institūta Vācijā.

Alternatīva mākslīgā intelekta ētikas un pasaules iznīcināšanas aizliegumu mācīšanai, par ko neviens algoritms nevar būt pilnīgi pārliecināts, norāda pētnieki, ir ierobežot superprāta spējas. Piemēram, tas var būt atdalīts no interneta daļas vai noteiktiem tīkliem.

Arī nesenā pētījuma autori noraida šo ideju, uzskatot, ka tā ierobežos mākslīgā intelekta darbības jomu – viņi saka, ja mēs to negrasāmies izmantot tādu problēmu risināšanai, kas pārsniedz cilvēka iespējas, tad kāpēc to vispār radīt?

Mākslīgais intelekts

Ja mēs gatavojamies attīstīt mākslīgo intelektu, mēs varam pat nezināt, kad parādīsies superinteliģents, kas ir ārpus mūsu kontroles, un tas ir tik neaptverami. Tas nozīmē, ka mums jāsāk uzdot nopietnus jautājumus par to, kurp mēs virzāmies.

"Superinteliģenta mašīna, kas vada pasauli, izklausās pēc zinātniskās fantastikas," saka datorzinātnieks Manuels Kebrians no Maksa Planka Cilvēka attīstības institūta. Bet jau ir mašīnas, kas patstāvīgi veic dažus svarīgus uzdevumus, savukārt programmētāji pilnībā nesaprot, kā viņi to iemācījās.

Tāpēc rodas jautājums, vai tas kādā brīdī var kļūt nekontrolējams un cilvēcei bīstams...

Lasi arī:

Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus