Quando gli strumenti di AI generativi divennero ampiamente disponibili alla advantageous del 2022, non erano solo i tecnologi a prestare attenzione. I dipendenti di tutti i settori hanno immediatamente riconosciuto il potenziale dell’intelligenza artificiale generativa per aumentare la produttività, semplificare la comunicazione e accelerare il lavoro. Come così tante ondate di innovazione IT shopper prima di essa-condivisione di zecche, piattaforme di archiviazione e collaborazione di cloud-Ai è atterrato nell’impresa non attraverso i canali ufficiali, ma attraverso le mani di dipendenti desiderosi di lavorare in modo più intelligente.
Di fronte al rischio che i dati sensibili vengano alimentati nelle interfacce di intelligenza artificiale pubbliche, molte organizzazioni hanno risposto con urgenza e forza: hanno bloccato l’accesso. Sebbene comprensibile come misura difensiva iniziale, bloccare le app pubbliche di intelligenza artificiale non è una strategia a lungo termine, è un tappo. E nella maggior parte dei casi, non è nemmeno efficace.
Shadow AI: il rischio invisibile
Il workforce di Zscaler Minaillabz ha monitorato Traffico AI e Machine Studying (ML) attraverso le imprese e i numeri raccontano una storia avvincente. Solo nel 2024, minacciò 36 volte più traffico di intelligenza artificiale e ML rispetto all’anno precedente, identificando oltre 800 various applicazioni di intelligenza artificiale in uso.
Il blocco non ha impedito ai dipendenti di usare l’IA. Electronic mail dei file su account personali, usano i loro telefoni o dispositivi domestici e acquisiscono schermate per inserire nei sistemi di intelligenza artificiale. Queste soluzioni various spostano interazioni sensibili nelle ombre, fuori dalla vista dal monitoraggio e dalle protezioni aziendali. Il risultato? Un punto cieco in crescita è noto come Shadow AI.
Bloccare le app di intelligenza artificiale non approvate può far sembrare l’utilizzo a zero sui rapporti di segnalazione, ma in realtà la tua organizzazione non è protetta; È solo cieco a ciò che sta realmente accadendo.
Lezioni dall’adozione di SaaS
Siamo stati qui prima. Quando sono emersi i primi software program come strumento di servizio, i workforce IT hanno rimescolato per controllare l’uso non consultato delle applicazioni di archiviazione di file basate su cloud. La risposta non è stata quella di vietare la condivisione dei file; Piuttosto period offrire un’alternativa sicura, senza soluzione di continuità, che corrispondeva alle aspettative dei dipendenti per comodità, usabilità e velocità.
Tuttavia, questa volta intorno alla posta in gioco sono ancora più alti. Con SaaS, la perdita di dati spesso significa un file fuori posto. Con AI, potrebbe significare una formazione inavvertitamente di un modello pubblico sulla proprietà intellettuale senza alcun modo per eliminare o recuperare tali dati una volta che se ne sono andati. Non esiste un pulsante “Annulla” sulla memoria di un modello di lingua grande.
Visibilità prima, poi politica
Prima che un’organizzazione possa governare in modo intelligente l’utilizzo dell’IA, deve capire cosa sta realmente accadendo. Bloccare il traffico senza visibilità è come costruire una recinzione senza sapere dove sono le linee di proprietà.
Abbiamo risolto problemi come questi prima. La posizione di Zscaler nel flusso del traffico ci dà un punto di vista senza pari. Vediamo a quali app si accedono, da chi e dalla frequenza. Questa visibilità in tempo reale è essenziale per valutare il rischio, modellare la politica e consentire un’adozione più intelligente e più sicura.
Successivamente, abbiamo evoluto il modo in cui affrontiamo la politica. Molti supplier forniranno semplicemente le opzioni in bianco e nero di “consenti” o “blocco”. L’approccio migliore è la governance basata sul contesto, basata sulle politiche che si allinea ai principi a zero belief che non assumono fiducia implicita e richiedono una valutazione continua e contestuale. Non tutti gli uso dell’IA presenta lo stesso livello di rischio e politiche dovrebbero riflettere questo.
Advert esempio, possiamo fornire l’accesso a un’applicazione AI con cautela per l’utente o consentire la transazione solo in modalità di isolamento del browser, il che significa che gli utenti non sono in grado di incollare dati potenzialmente sensibili nell’app. Un altro approccio che funziona bene è il reindirizzare gli utenti a un’app alternativa approvata dall’azienda che è gestita on-premise. Ciò consente ai dipendenti di ottenere benefici per la produttività senza rischiare l’esposizione ai dati. Se i tuoi utenti hanno un modo sicuro, veloce e sanzionato per usare l’IA, non dovranno aggirarti.
Infine, gli strumenti di protezione dei dati di Zscaler significano che possiamo consentire ai dipendenti di utilizzare determinate app pubbliche di intelligenza artificiale, ma impedire loro di inviare inavvertitamente informazioni sensibili. La nostra ricerca mostra oltre 4 milioni di violazioni di prevenzione della perdita di dati (DLP) nel cloud Zscaler, che rappresentano istanze in cui i dati sensibili aziendali – come dati finanziari, informazioni di identificazione personale, codice sorgente e dati medici – erano destinati a essere inviati a un’applicazione di intelligenza artificiale e che la transazione è stata bloccata dalla politica di Zscaler. La perdita di dati reali si sarebbe verificata in queste app AI senza l’applicazione DLP di Zscaler.
Bilanciamento dell’abilitazione con protezione
Non si tratta di fermare l’adozione dell’IA, si tratta di modellarlo in modo responsabile. La sicurezza e la produttività non devono essere in contrasto. Con gli strumenti e la mentalità giusti, le organizzazioni possono ottenere sia: potenziare gli utenti e proteggere i dati.
Ulteriori informazioni su zscaler.com/safety