Root NationJaunumiIT laikrakstsTehnoloģiju eksperti pieprasa apturēt AI eksperimentus

Tehnoloģiju eksperti pieprasa apturēt AI eksperimentus

-

Tehnoloģiju vadītāji un ievērojamie AI pētnieki ir parakstījuši līgumu atklāta vēstule, kas aicina AI laboratorijas un uzņēmumus "nekavējoties apturēt" savu darbu.

Parakstītāji, tostarp Stīvs Vozņaks un Elons Masks, piekrīt, ka riskiem ir nepieciešams vismaz sešu mēnešu pārtraukums tādu tehnoloģiju ražošanā, kas pārsniedz darbības jomu. GPT-4. Tas ir paredzēts, lai gūtu prieku un gandarījumu no tagad esošajām AI sistēmām un ļautu cilvēkiem pielāgoties tām un redzēt, ka tās ir noderīgas.

Tehnoloģiju vadītāji un eksperti aicina apturēt AI eksperimentus

Vēstulē piebilsts, ka, lai nodrošinātu mākslīgā intelekta sistēmu drošību, nepieciešama piesardzība un apdomība, taču tās tiek ignorētas. Atsauce uz GPT-4, jaunu OpenAI modeli, kas var atbildēt ar tekstu uz rakstītiem vai vizuāliem ziņojumiem, nāk, uzņēmumiem sacenšoties izveidot sarežģītas tērzēšanas sistēmas, izmantojot šo tehnoloģiju. Piemērs, Microsoft nesen apstiprināja, ka tā atjauninātā Bing meklētājprogramma ir darbojusies GPT-4 modelī vairāk nekā 7 nedēļas, un Google nesen oficiāli iepazīstināja Dziesminieks – sava ģeneratīvā mākslīgā intelekta sistēma, kuras pamatā ir LaMDA.

Bažas par AI pastāv jau ilgu laiku, taču ir acīmredzamas sacensības par vismodernāko tehnoloģiju ieviešanu. mākslīgais intelekts pirmais jau ir satraucošs. "Pēdējos mēnešos mākslīgā intelekta laboratorijas ir iesaistījušās nekontrolētā sacensībā, lai izstrādātu un ieviestu arvien jaudīgākus digitālos prātus, kurus neviens – pat ne to autori – nevar saprast, paredzēt vai droši kontrolēt," teikts vēstulē.

Tehnoloģiju vadītāji un eksperti aicina apturēt AI eksperimentus

Vēstuli publicēja bezpeļņas organizācija Future of Life Institute (FLI), kas strādā, lai līdz minimumam samazinātu globālos katastrofālos un eksistenciālos riskus un jaunu tehnoloģiju, jo īpaši AI, ļaunprātīgu izmantošanu. Iepriekš Musks ziedoja 10 miljonus ASV dolāru FLI AI drošības izpētei. Papildus viņam un Vozņakam parakstītāju vidū ir arī vairāki pasaules līderi AI jomā, piemēram, AI centra un digitālās politikas prezidents Marks Rotenbergs, MIT fiziķis un FLI prezidents Makss Tegmarks un autors Juvals Noa Harari.

Harari arī bija līdzautors izdevumam New York Times pagājušajā nedēļā, brīdinot par riskiem, kas saistīti ar mākslīgais intelekts, kurā kopā ar viņu strādāja Humāno tehnoloģiju centra dibinātāji un citi atklātās vēstules parakstītāji Tristans Heriss un Aza Raskina.

Šis aicinājums sekoja pagājušajā gadā veiktajai aptaujai, kurā piedalījās vairāk nekā 700 mašīnmācības pētnieku, kurā gandrīz puse apgalvoja, ka mākslīgā intelekta izraisītas "ārkārtīgi sliktas sekas", tostarp cilvēku izzušana, ir aptuveni 10%. Jautāti par drošību mākslīgā intelekta pētījumos, 68% respondentu atbildēja, ka ir jādara vairāk vai daudz vairāk.

Lasi arī:

JereloEngadget
Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus