Root NationJaunumiIT laikrakstsMicrosoft paziņoja par aizsargājošu AI risinājumu, kura pamatā ir GPT-4 Security Copilot

Microsoft paziņoja par aizsargājošu AI risinājumu, kura pamatā ir GPT-4 Security Copilot

-

Mākslīgā intelekta (AI) sistēmas jau tiek izmantotas, lai izveidotu grafiku, tērzēšanas robotus un pat kontrolētu viedās mājas. Uzņēmums Microsoft AI uzticēja vienu no svarīgākajām mūsdienu dzīves sfērām – aizsardzību pret kiberdraudiem. Drošības kopilota rīks ļauj atpazīt kiberuzbrukumu pat tad, ja nav acīmredzamu pazīmju, un palīdz to novērst.

Situācijās, kad kāda iemesla dēļ jūsu datora drošība ir apdraudēta, Security Copilot palīdzēs noteikt, kas noticis, ko darīt un kā novērst līdzīgus incidentus ar citiem. Uzņēmums ieviesa jaunu risinājumu, kas balstīts uz GPT-4 modeli – Security Copilot palīdz korporatīvajiem klientiem tikt galā ar draudiem.

Microsoft Drošības kopilots

Pagaidām rīks ir pieejams tikai korporatīvajiem klientiem. Aiz Security Copilot ir tas pats lielais valodas modelis, kas darbina tādas lietotnes kā Bing Chat. Tomēr šajā gadījumā mēs runājam par iespēju, kas īpaši apmācīta IT speciālistu izmantotajos materiālos un terminoloģijā. Papildus, Microsoft jau ir integrējis Copilot ar citiem drošības rīkiem. Uzņēmums sola, ka laika gaitā varēs izmantot trešo pušu programmatūras risinājumus.

Lai gan lielākā daļa uz GPT-4 balstītu pielāgoto lietojumprogrammu tika apmācītas par nedaudz novecojušām datu kopām, Security Copilot iegūst jaunu informāciju reāllaikā, pētot burtiski triljoniem draudu signālu, kas Microsoft saņem katru dienu. Tā ir modeļa priekšrocība – Security Copilot spēj atpazīt slēptos signālus pat pirms uzbrukuma fakts ir kļuvis acīmredzams. Pateicoties tam, rīku var izmantot, lai atpazītu un savlaicīgi novērstu draudus.

Microsoft Drošības kopilots

Tajā pašā laikā jau pirms neilga laika kļuva skaidrs, ka tādiem AI kā ChatGPT, Bing Chat vai Google Bard var būt "halucinācijas", kuru laikā par pamatu "spriešanai" tiek izmantoti pilnīgi neuzticami fakti. Drošības jomā tas var kļūt par ļoti bīstamu parādību. IN Microsoft jau ir apstiprinājuši, ka Security Copilot "ne vienmēr izdodas pareizi." Par laimi, produkta gadījumā Microsoft tiek nodrošināts lietotāju atgriezeniskās saites mehānisms, lai sniegtu arvien atbilstošākas atbildes.

Tomēr Microsoft neziņoja par to, kas varētu notikt, kad aizsardzības AI saduras ar ļaunprātīgu AI, piemēram, tādu, kas paredzēts, lai uzbruktu lietotājiem un uzņēmumiem. Jebkurā gadījumā uzņēmums teica, ka uzņēmuma klienti jau var pārbaudīt Security Copilot nelielā lietotāju segmentā. Ja eksperiments būs veiksmīgs, tas, iespējams, nākotnē varēs palīdzēt parastajiem lietotājiem.

Interesanti arī:

Jerelomicrosoft
Pierakstīties
Paziņot par
viesis

0 komentāri
Iegultās atsauksmes
Skatīt visus komentārus