Kategorijas: IT laikraksts

Tehnoloģiju eksperti pieprasa apturēt AI eksperimentus

Tehnoloģiju vadītāji un ievērojamie AI pētnieki ir parakstījuši līgumu atklāta vēstule, kas aicina AI laboratorijas un uzņēmumus "nekavējoties apturēt" savu darbu.

Parakstītāji, tostarp Stīvs Vozņaks un Elons Masks, piekrīt, ka riskiem ir nepieciešams vismaz sešu mēnešu pārtraukums tādu tehnoloģiju ražošanā, kas pārsniedz darbības jomu. GPT-4. Tas ir paredzēts, lai gūtu prieku un gandarījumu no tagad esošajām AI sistēmām un ļautu cilvēkiem pielāgoties tām un redzēt, ka tās ir noderīgas.

Vēstulē piebilsts, ka, lai nodrošinātu mākslīgā intelekta sistēmu drošību, nepieciešama piesardzība un apdomība, taču tās tiek ignorētas. Atsauce uz GPT-4, jaunu OpenAI modeli, kas var atbildēt ar tekstu uz rakstītiem vai vizuāliem ziņojumiem, nāk, uzņēmumiem sacenšoties izveidot sarežģītas tērzēšanas sistēmas, izmantojot šo tehnoloģiju. Piemērs, Microsoft nesen apstiprināja, ka tā atjauninātā Bing meklētājprogramma ir darbojusies GPT-4 modelī vairāk nekā 7 nedēļas, un Google nesen oficiāli iepazīstināja Dziesminieks – sava ģeneratīvā mākslīgā intelekta sistēma, kuras pamatā ir LaMDA.

Bažas par AI pastāv jau ilgu laiku, taču ir acīmredzamas sacensības par vismodernāko tehnoloģiju ieviešanu. mākslīgais intelekts pirmais jau ir satraucošs. "Pēdējos mēnešos mākslīgā intelekta laboratorijas ir iesaistījušās nekontrolētā sacensībā, lai izstrādātu un ieviestu arvien jaudīgākus digitālos prātus, kurus neviens – pat ne to autori – nevar saprast, paredzēt vai droši kontrolēt," teikts vēstulē.

Vēstuli publicēja bezpeļņas organizācija Future of Life Institute (FLI), kas strādā, lai līdz minimumam samazinātu globālos katastrofālos un eksistenciālos riskus un jaunu tehnoloģiju, jo īpaši AI, ļaunprātīgu izmantošanu. Iepriekš Musks ziedoja 10 miljonus ASV dolāru FLI AI drošības izpētei. Papildus viņam un Vozņakam parakstītāju vidū ir arī vairāki pasaules līderi AI jomā, piemēram, AI centra un digitālās politikas prezidents Marks Rotenbergs, MIT fiziķis un FLI prezidents Makss Tegmarks un autors Juvals Noa Harari.

Harari arī bija līdzautors izdevumam New York Times pagājušajā nedēļā, brīdinot par riskiem, kas saistīti ar mākslīgais intelekts, kurā kopā ar viņu strādāja Humāno tehnoloģiju centra dibinātāji un citi atklātās vēstules parakstītāji Tristans Heriss un Aza Raskina.

Šis aicinājums sekoja pagājušajā gadā veiktajai aptaujai, kurā piedalījās vairāk nekā 700 mašīnmācības pētnieku, kurā gandrīz puse apgalvoja, ka mākslīgā intelekta izraisītas "ārkārtīgi sliktas sekas", tostarp cilvēku izzušana, ir aptuveni 10%. Jautāti par drošību mākslīgā intelekta pētījumos, 68% respondentu atbildēja, ka ir jādara vairāk vai daudz vairāk.

Lasi arī:

Share
Svitlana Anisimova

Biroja ķēms, traks lasītājs, Marvel Cinematic Universe fans. Es esmu 80% vainīgs prieks.

Atstāj atbildi

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti ar*