Root NationRakstiTehnoloģijasOpenAI Project Q*: kas tas ir un kāpēc projekts rada bažas

OpenAI Project Q*: kas tas ir un kāpēc projekts rada bažas

-

Noslēpumaina Projekts Q* no OpenAI rada bažas ekspertu vidū. Vai viņš tiešām var būt bīstams cilvēcei? Kas par viņu ir zināms? Pēc tam, kad Sems Altmans sākotnēji tika atlaists pagājušajā nedēļā un viņš un komanda gandrīz pārcēlās uz Microsoft, tad viņš atgriezās savā darba vietā (par to mēs rakstījām šeit), OpenAI atkal ir ziņās. Šoreiz sakarā ar to, ko daži pētnieki dēvē par iespējamu draudu cilvēcei. Jā, jūs izlasījāt pareizi, drauds cilvēcei.

Patieso apvērsumu tehnoloģiju pasaulē izraisīja Project Q* – neizpaužams vispārējā mākslīgā intelekta (AGI) projekts – izteiktā Q-Star. Lai gan šis projekts ir sākuma stadijā, tas tiek uzskatīts par patiesi revolucionāru AGI attīstībā. Tomēr daži to uzskata par bīstamību cilvēcei.

OpenAI Project Q

Slepenajam mākslīgā intelekta projektam, ko izstrādājusi slavenā mākslīgā intelekta laboratorija OpenAI, ir potenciāls revolucionizēt tehnoloģiju un sabiedrību kopumā. Taču tas rada arī dažus ētiskus jautājumus par riskiem. Parādoties informācijai par projekta Q* pārsteidzošajām spējām, parādās arvien vairāk spekulāciju par to, ko tas varētu nozīmēt cilvēces nākotnei.

Interesanti arī: OpenAI vēsture: kas tas bija un kas uzņēmumam sagaida

Kas ir mākslīgais vispārējais intelekts (AGI)?

Lai saprastu ažiotāžu ap Project Q* (Q-Star), vispirms mēģināsim saprast, kas ir mākslīgā vispārējā intelekta (AGI) jēdziens. Lai gan pašreizējās mākslīgā intelekta sistēmas izceļas ar šauriem, specifiskiem uzdevumiem, piemēram, šaha spēlēšanu vai attēlu ģenerēšanu, vispārējais mākslīgais intelekts attiecas uz mašīnām, kas daudzās jomās spēj mācīties un domāt cilvēka līmenī. Tas ir, viņi var mācīties kā mazi bērni skolā, piemēram, matemātikas, ķīmijas, bioloģijas u.c.

Vispārējais mākslīgais intelekts (AGI) ir mašīninteliģences veids, kas var hipotētiski atdarināt cilvēka intelektu vai uzvedību ar spēju mācīties un izmantot šo potenciālu dažādu problēmu risināšanai. AGI sauc arī par spēcīgu mākslīgo intelektu, pilnu mākslīgo intelektu vai cilvēka līmeņa mākslīgo intelektu. Vispārējais AI atšķiras no vāja vai šaura AI, kas spēj veikt tikai konkrētus vai specializētus uzdevumus noteikto parametru ietvaros. ZHI spēs patstāvīgi risināt dažādas sarežģītas problēmas no dažādām zināšanu jomām.

OpenAI Project Q

Mākslīgā intelekta radīšana ir galvenā uzmanība mākslīgā intelekta pētījumos, ko veic tādi uzņēmumi kā DeepMind un Anthropic. CSI ir ļoti populārs temats zinātniskās fantastikas literatūrā, un tas var ietekmēt turpmākos pētījumus. Daži apgalvo, ka UCI ir iespējams izveidot gadu vai gadu desmitu laikā, savukārt citi apgalvo, ka tas varētu aizņemt gadsimtu vai vairāk. Bet ir tādi, kas uzskata, ka tas nekad netiks sasniegts. Daži ir redzējuši URI pirmsākumus GPT-3, taču šķiet, ka tas joprojām ir tālu no pamatkritēriju atbilstības.

Pētnieki uzskata, ka mākslīgā vispārējā intelekta (AGI) radīšana ir mākslīgā intelekta svētais grāls, teorētiska iespēja, kas jau sen ir aizrāvusi viņu iztēli. Tāpēc tāda projekta kā OpenAI Project Q* parādīšanās radīja lielu rezonansi mākslīgā intelekta algoritmu izpētes pasaulē. Lai gan visi saprot, ka tie ir tikai pirmie soļi gandrīz akli uz pasauli, kurā mākslīgajam intelektam būs tādas pašas iespējas kā cilvēkiem vai pat augstākas.

- Reklāma -

Interesanti arī: Viss par Microsoft Otrais pilots: nākotne vai nepareizs ceļš?

Kas ir projekts Q*?

Projekts Q* nav tipisks algoritms, jo tas ir mākslīgā intelekta modelis, kas arvien vairāk tuvojas mākslīgā vispārējā intelekta (AGI) modelim. Tas nozīmē, ka atšķirībā no ChatGPT Project Q* parāda labākas domāšanas un izziņas prasmes, salīdzinot ar citiem algoritmiem. ChatGPT pašlaik atbild uz vaicājumiem, kuru pamatā ir liels daudzums faktu materiāla, taču, izmantojot AGI, AI modelis apgūs argumentāciju un spēju domāt un saprast pats. Jau zināms, ka Project Q* spēj atrisināt vienkāršas matemātiskas problēmas, kas nebija iekļautas tā mācību materiālā. Daži pētnieki saskata nozīmīgu soli vispārējā mākslīgā intelekta (AGI) radīšanā. OpenAI definē AGI kā mākslīgā intelekta sistēmas, kas ir gudrākas par cilvēkiem.

OpenAI Project Q

Projekta Q* izstrādi vada OpenAI galvenais zinātnieks Iļja Suckevers, un tā pamatu pamatoja pētnieki Jakub Pakhotsky un Šimons Sidors.

Algoritma spēja patstāvīgi atrisināt matemātiskas problēmas, pat ja šīs problēmas nebija daļa no apmācības datu kopas, tiek uzskatīta par izrāvienu mākslīgā intelekta jomā. Domstarpības komandā saistībā ar šo projektu ir saistītas ar OpenAI izpilddirektora Sema Altmena pagaidu atcelšanu. Ir zināms, ka pirms Altmana atlaišanas uzņēmuma pētnieku grupa nosūtīja vēstuli direktoru padomei, brīdinot par AI atklāšanu, kas varētu radīt draudus cilvēcei. Šī vēstule, kurā tika apspriests Project Q* algoritms, tika minēts kā viens no faktoriem, kas noveda pie Altmana atlaišanas. Tomēr projekta Q* iespējas un iespējamie riski, ko tas var radīt, nav pilnībā izprotamas, jo detaļas nav zināmas. Plašākai sabiedrībai nekas nav nodots.

OpenAI Project Q

Projekta Q* pamatā ir bezmodeļu pastiprināšanas mācību metode, kas atšķiras no tradicionālajiem modeļiem, neprasot priekšzināšanas par vidi. Tā vietā tā mācās caur pieredzi, pielāgojot darbības, kuru pamatā ir atlīdzības un sodi. Tehniskie eksperti uzskata, ka Project Q* spēs iegūt izcilas spējas, apgūstot cilvēka kognitīvajām spējām līdzīgas spējas.

Tomēr tieši šī īpašība ir visiespaidīgākā jaunajā mākslīgā intelekta modelī, kas satrauc pētniekus un kritiķus un rada bažas par tehnoloģiju pielietojumu reālajā pasaulē un ar to saistītajiem riskiem. No kā tik ļoti baidās zinātnieki un pētnieki? Izdomāsim.

Interesanti arī: Kā atjaunināt mājas ierīces, lai tās atbalstītu Wi-Fi 6

Viņi baidās no nezināmā

Cilvēki vienmēr ir baidījušies no nezināmā, nezināmā. Tā ir cilvēka būtība, mūsu rakstura un dzīvesveida iezīme.

Tehnoloģiju pasaule par projektu Q* uzzināja 2023. gada novembrī pēc Reuters ziņots par iekšējo vēstuli, ko uzrakstījuši satraukti OpenAI pētnieki. Vēstules saturs bija neskaidrs, taču tika ziņots, ka tajā tika nopietni analizētas projekta Q* iespējas. Kā jau minēju iepriekš, pastāv pat pieņēmumi, ka tieši šī vēstule izraisīja Sema Altmena atkāpšanos.

OpenAI Project Q

Šis sprādzienbīstamais atklājums ir izraisījis dažādas hipotēzes par projekta Q* būtību. Zinātnieki ir ierosinājuši, ka tas varētu būt revolucionārs mākslīgā intelekta dabiskās valodas modelis. Sava veida jaunu algoritmu izgudrotājs, kurš tos radīs citiem AI veidiem vai kaut kam pavisam citam šajā jomā.

Altmana provokatīvie komentāri par vispārējo mākslīgo intelektu kā "vidējo darbinieku" jau ir radījuši bažas par darba drošību un AI ietekmes neapturamo paplašināšanos. Šis noslēpumainais algoritms ir definēts kā pagrieziena punkts mākslīgā vispārējā intelekta (AGI) attīstībā. Tomēr visi saprot, ka šis pavērsiens ir dārgs. Un tagad runa nav par naudu. Kognitīvo prasmju līmenis, ko sola jaunais AI modelis, rada nenoteiktību. OpenAI zinātnieki sola, ka mākslīgajam intelektam būs cilvēka līmeņa domāšana. Un tas nozīmē, ka mēs nevaram zināt daudzas lietas un paredzēt sekas. Un jo vairāk nezināmā, jo grūtāk ir sagatavoties to kontrolēt vai labot. Tas ir, jaunais algoritms spēj sevi pilnveidot un attīstīt. To mēs jau kaut kur esam redzējuši...

Interesanti arī: Windows 12: kāda būs jaunā OS

- Reklāma -

Pārsteidzoša informācija par projekta Q iespējām*

Kad sāka parādīties vairāk informācijas, tas šokēja daudzus pētniekus. Agrīnās pazīmes liecināja, ka projektam Q* bija pārsteidzošas matemātikas prasmes. Atšķirībā no kalkulatora, kas veic mehāniskus aprēķinus, Project Q* var izmantot loģiku un argumentāciju, lai atrisinātu sarežģītas matemātikas problēmas. Šī matemātiskā spēja vispārināt liecina par plaša intelekta attīstību.

OpenAI Project Q

Projekta Q* autonomā apmācība bez īpašām datu kopām, ko izmanto tipisku AI apmācīšanai, arī būs milzīgs solis uz priekšu. Joprojām nav zināms, vai Project Q* ir apguvis kādas citas prasmes. Taču viņa matemātiskās spējas pašas par sevi ir tik pārsteidzošas, ka tās mulsina pat pieredzējušus pētniekus.

Lasi arī: Cilvēka smadzeņu projekts: mēģinājums atdarināt cilvēka smadzenes

Projekta Q* ceļš uz dominējošo stāvokli?

Šajā jautājumā ir gan optimistiski, gan pesimistiski scenāriji. Optimisti sacīs, ka projekts Q* varētu būt tā dzirkstele, kas noved pie tehnoloģiskā izrāviena. Sistēmai rekursīvi pilnveidojoties, tās pārdabiskais intelekts varētu palīdzēt atrisināt dažas no cilvēces vissvarīgākajām problēmām, sākot no klimata pārmaiņām līdz slimību kontrolei. Projekts Q* var automatizēt garlaicīgu darbu un atbrīvot mūsu brīvo laiku citām aktivitātēm.

OpenAI Project Q

Lai gan ir daudz pesimistiskāku variantu. Dažreiz tie ir diezgan saprātīgi un tiem ir noteikta nozīme.

Darba vietu zaudēšana

Straujas pārmaiņas tehnoloģiju attīstībā var apsteigt cilvēku individuālo pielāgošanos. Tas novedīs pie vienas vai vairāku paaudžu zaudēšanas, kas nespēs apgūt nepieciešamās prasmes vai zināšanas, lai pielāgotos jaunajai realitātei. Tas, savukārt, nozīmē, ka mazāk cilvēku varēs saglabāt savu darbu. Tā vietā to veiks mašīnas, automatizētas sistēmas un roboti. Tomēr atbilde nav tik viennozīmīga, ja runa ir par kvalificētiem speciālistiem. Turklāt var parādīties jaunas profesijas, kas saistītas tieši ar mākslīgā intelekta algoritmu izstrādi. Bet joprojām pastāv riski, un cilvēcei nav tiesību tos ignorēt.

Nekontrolētas varas briesmas

Ja tik spēcīgs mākslīgais intelekts kā projekts Q* nonāks to cilvēku rokās, kuriem ir nelietīgi nodomi, tas riskē ar katastrofālām sekām cilvēcei. Pat bez potenciāli ļaunprātīga nolūka projekta Q* lēmumu pieņemšanas līmenis var izraisīt kaitīgus rezultātus, uzsverot, cik svarīgi ir rūpīgi izvērtēt tā piemērošanu.

Ja projekts Q* ir slikti optimizēts cilvēku vajadzībām, tas var radīt kaitējumu, jo tas spēj maksimāli palielināt dažus patvaļīgus rādītājus. Vai arī tai var būt politiska dimensija, piemēram, to izmanto valsts uzraudzībai vai represijām. Atklātas debates par projekta Q* ietekmes analīzi palīdzēs definēt iespējamos ZHI attīstības scenārijus.

Vai mūs gaida kāršu cīņa "Cilvēks pret mašīnu"?

Holivuda savās filmās jau ir radījusi daudzus šādas konfrontācijas scenārijus. Mēs visi atceramies slaveno SkyNet un šāda atklājuma sekas. Varbūt OpenAI pētniekiem vajadzētu vēlreiz noskatīties šo filmu?

Cilvēcei ir jāpieņem signāli un izaicinājumi un jābūt gatavai tam, kas var notikt. Mākslīgā intelekta modelis, kas spēj domāt kā cilvēks, kādreiz var kļūt par mūsu ienaidnieku. Daudzi apgalvotu, ka nākotnē zinātnieki precīzi zinās, kā kontrolēt situāciju. Bet, runājot par mašīnām, nevar pilnībā izslēgt iespēju, ka tās mēģinās pārņemt cilvēkus.

Interesanti arī: Ne viss, ko mēs saucam par AI, patiesībā ir mākslīgais intelekts. Lūk, kas jums jāzina

Kāpēc OpenAI klusē?

Neskatoties uz sabiedrības neprātīgo interesi par Project Q*, OpenAI vadība klusē par algoritma specifiku. Taču iekšējā noplūde liecina par pieaugošu spriedzi laboratorijā par prioritātēm un notikumu atklātību. Lai gan daudzi OpenAI darbinieki atbalsta Project Q* izveidi, kritiķi apgalvo, ka caurspīdīgums ir aizņēmis aizmuguri zinātnes progresa paātrināšanai par katru cenu. Un daži pētnieki ir nobažījušies, ka sistēmām, kuru mērķi ne vienmēr sakrīt ar cilvēka vērtībām un ētiku, tiek piešķirts neticams spēks. Šie pētnieki uzskata, ka diskusijas par pārraudzību un atbildību ir bīstami apslāpētas. Tie prasa lielāku publicitāti un sīkāku informāciju.

OpenAI Project Q

Kā Project Q* veidotājiem OpenAI ir jāsaprot, ka viņu rīcībā ir tehnoloģija, kas var vai nu ļoti paplašināt sabiedrības attīstības iespējas, vai arī to nežēlīgi iznīcināt. Šādi nozīmīgi jauninājumi ir pelnījuši daudz lielāku pārredzamību, lai veidotu sabiedrības uzticību. Jebkuriem mašīnas vecuma prognozētājiem rūpīgi jāizvērtē riski un ieguvumi. Un projekta Q* izstrādātājiem ir jāpierāda pietiekami daudz gudrības un rūpes, lai droši ievestu sabiedrību jaunā vispārējā mākslīgā intelekta ērā, kas var nākt ātrāk, nekā mēs jebkad esam iedomājušies.

Lai vispārējais mākslīgais intelekts būtu cilvēcei noderīgs un drošs, ir jānodrošina, lai tas darbotos droši, ētiski un saskaņā ar cilvēces vērtībām un mērķiem. Tam nepieciešams izstrādāt un ieviest atbilstošus normatīvos aktus, standartus, noteikumus un protokolus, kas kontrolēs un ierobežos CSI darbības un uzvedību. Turklāt ir jānovērš iespējamie draudi un riski, kas saistīti ar ļaunprātīgu izmantošanu, negadījumiem, nesaderību, manipulācijām un konfliktiem, kas varētu izraisīt cilvēces iznīcināšanu. Tikmēr investori un Microsoft ar nepacietību gaida tirgojamu produktu, kas varētu gūt peļņu, kas neapšaubāmi ir pretrunā ar nepieciešamību rīkoties atbildīgi. Cerēsim, ka veselais saprāts uzvarēs.

Lasi arī: 

Yuri Svitlyk
Yuri Svitlyk
Karpatu kalnu dēls, neatzīts matemātikas ģēnijs, "jurists"Microsoft, praktiskais altruists, kreisais-labais
- Reklāma -
Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus