• About
  • Privacy Policy
  • Disclaimer
  • Contact
TomorrowPosT
  • Home
  • Computers
    • Gaming
  • Gear
    • Apple
    • Mobile
  • Microsoft
    • Software & Apps
  • Review
    • Security
  • Tech for Business
  • Tech News
  • News
  • Termini e condizioni
No Result
View All Result
  • Home
  • Computers
    • Gaming
  • Gear
    • Apple
    • Mobile
  • Microsoft
    • Software & Apps
  • Review
    • Security
  • Tech for Business
  • Tech News
  • News
  • Termini e condizioni
No Result
View All Result
TomorrowPost
No Result
View All Result

Responsabilizzare gli utenti e proteggere dalla perdita di dati di Genai

Michele by Michele
07/06/2025
Home Security
Condividi su FacebookCondividi su WhatsappCondividi su Twitter


06 giugno 2025Le notizie di hackerIntelligenza artificiale / zero fiducia

Perdita di dati di Genai

Quando gli strumenti di AI generativi divennero ampiamente disponibili alla advantageous del 2022, non erano solo i tecnologi a prestare attenzione. I dipendenti di tutti i settori hanno immediatamente riconosciuto il potenziale dell’intelligenza artificiale generativa per aumentare la produttività, semplificare la comunicazione e accelerare il lavoro. Come così tante ondate di innovazione IT shopper prima di essa-condivisione di zecche, piattaforme di archiviazione e collaborazione di cloud-Ai è atterrato nell’impresa non attraverso i canali ufficiali, ma attraverso le mani di dipendenti desiderosi di lavorare in modo più intelligente.

Di fronte al rischio che i dati sensibili vengano alimentati nelle interfacce di intelligenza artificiale pubbliche, molte organizzazioni hanno risposto con urgenza e forza: hanno bloccato l’accesso. Sebbene comprensibile come misura difensiva iniziale, bloccare le app pubbliche di intelligenza artificiale non è una strategia a lungo termine, è un tappo. E nella maggior parte dei casi, non è nemmeno efficace.

Shadow AI: il rischio invisibile

Il workforce di Zscaler Minaillabz ha monitorato Traffico AI e Machine Studying (ML) attraverso le imprese e i numeri raccontano una storia avvincente. Solo nel 2024, minacciò 36 volte più traffico di intelligenza artificiale e ML rispetto all’anno precedente, identificando oltre 800 various applicazioni di intelligenza artificiale in uso.

Il blocco non ha impedito ai dipendenti di usare l’IA. Electronic mail dei file su account personali, usano i loro telefoni o dispositivi domestici e acquisiscono schermate per inserire nei sistemi di intelligenza artificiale. Queste soluzioni various spostano interazioni sensibili nelle ombre, fuori dalla vista dal monitoraggio e dalle protezioni aziendali. Il risultato? Un punto cieco in crescita è noto come Shadow AI.

Bloccare le app di intelligenza artificiale non approvate può far sembrare l’utilizzo a zero sui rapporti di segnalazione, ma in realtà la tua organizzazione non è protetta; È solo cieco a ciò che sta realmente accadendo.

Lezioni dall’adozione di SaaS

Siamo stati qui prima. Quando sono emersi i primi software program come strumento di servizio, i workforce IT hanno rimescolato per controllare l’uso non consultato delle applicazioni di archiviazione di file basate su cloud. La risposta non è stata quella di vietare la condivisione dei file; Piuttosto period offrire un’alternativa sicura, senza soluzione di continuità, che corrispondeva alle aspettative dei dipendenti per comodità, usabilità e velocità.

Tuttavia, questa volta intorno alla posta in gioco sono ancora più alti. Con SaaS, la perdita di dati spesso significa un file fuori posto. Con AI, potrebbe significare una formazione inavvertitamente di un modello pubblico sulla proprietà intellettuale senza alcun modo per eliminare o recuperare tali dati una volta che se ne sono andati. Non esiste un pulsante “Annulla” sulla memoria di un modello di lingua grande.

Visibilità prima, poi politica

Prima che un’organizzazione possa governare in modo intelligente l’utilizzo dell’IA, deve capire cosa sta realmente accadendo. Bloccare il traffico senza visibilità è come costruire una recinzione senza sapere dove sono le linee di proprietà.

Abbiamo risolto problemi come questi prima. La posizione di Zscaler nel flusso del traffico ci dà un punto di vista senza pari. Vediamo a quali app si accedono, da chi e dalla frequenza. Questa visibilità in tempo reale è essenziale per valutare il rischio, modellare la politica e consentire un’adozione più intelligente e più sicura.

Successivamente, abbiamo evoluto il modo in cui affrontiamo la politica. Molti supplier forniranno semplicemente le opzioni in bianco e nero di “consenti” o “blocco”. L’approccio migliore è la governance basata sul contesto, basata sulle politiche che si allinea ai principi a zero belief che non assumono fiducia implicita e richiedono una valutazione continua e contestuale. Non tutti gli uso dell’IA presenta lo stesso livello di rischio e politiche dovrebbero riflettere questo.

Advert esempio, possiamo fornire l’accesso a un’applicazione AI con cautela per l’utente o consentire la transazione solo in modalità di isolamento del browser, il che significa che gli utenti non sono in grado di incollare dati potenzialmente sensibili nell’app. Un altro approccio che funziona bene è il reindirizzare gli utenti a un’app alternativa approvata dall’azienda che è gestita on-premise. Ciò consente ai dipendenti di ottenere benefici per la produttività senza rischiare l’esposizione ai dati. Se i tuoi utenti hanno un modo sicuro, veloce e sanzionato per usare l’IA, non dovranno aggirarti.

Infine, gli strumenti di protezione dei dati di Zscaler significano che possiamo consentire ai dipendenti di utilizzare determinate app pubbliche di intelligenza artificiale, ma impedire loro di inviare inavvertitamente informazioni sensibili. La nostra ricerca mostra oltre 4 milioni di violazioni di prevenzione della perdita di dati (DLP) nel cloud Zscaler, che rappresentano istanze in cui i dati sensibili aziendali – come dati finanziari, informazioni di identificazione personale, codice sorgente e dati medici – erano destinati a essere inviati a un’applicazione di intelligenza artificiale e che la transazione è stata bloccata dalla politica di Zscaler. La perdita di dati reali si sarebbe verificata in queste app AI senza l’applicazione DLP di Zscaler.

Bilanciamento dell’abilitazione con protezione

Non si tratta di fermare l’adozione dell’IA, si tratta di modellarlo in modo responsabile. La sicurezza e la produttività non devono essere in contrasto. Con gli strumenti e la mentalità giusti, le organizzazioni possono ottenere sia: potenziare gli utenti e proteggere i dati.

Ulteriori informazioni su zscaler.com/safety

Hai trovato questo articolo interessante? Questo articolo è un pezzo contribuito da uno dei nostri stimati associate. Seguici Twitter  E LinkedIn Per leggere più contenuti esclusivi che pubblichiamo.



Tags: dalladatiGenAIgliperditaproteggereResponsabilizzareutenti
Michele

Michele

Next Post

PowerColor introduce le schede grafiche AMD Radeon RX 9060 XT

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Recommended.

Satya Nadella su LinkedIn: annunciare la disponibilità del modello di ragionamento O3-Mini in Microsoft …

17/02/2025
Tutto ciò che si cube per la Serie 11 Apple Watch del 2025

Tutto ciò che si cube per la Serie 11 Apple Watch del 2025

25/04/2025

Trending.

I tagli di finanziamento NIH sembrano attingere al rapporto della Fondazione Heritage che fa esplodere lo “workers Dei”

I tagli di finanziamento NIH sembrano attingere al rapporto della Fondazione Heritage che fa esplodere lo “workers Dei”

11/02/2025

TomorrowPost

Welcome to Tomorrow Post – your trusted source for the latest in computers, gaming, tech gear, Microsoft, software, cybersecurity, and much more! Our mission is simple: to provide technology enthusiasts, professionals, and business leaders with accurate, insightful, and up-to-date information that helps them navigate the ever-evolving world of technology.

Categorie

  • Apple
  • Computers
  • Gaming
  • Gear
  • Microsoft
  • Mobile
  • News
  • Review
  • Security
  • Software & Apps
  • Tech for Business
  • Tech News

Recent News

PowerColor introduce le schede grafiche AMD Radeon RX 9060 XT

08/06/2025
Invoice Atkinson, Pioneer Macintosh e inventore di Hypercard, muore a 74

Invoice Atkinson, Pioneer Macintosh e inventore di Hypercard, muore a 74

08/06/2025
  • About
  • Privacy Policy
  • Disclaimer
  • Contact

© 2025- https://tomorrowpost.net- All Rights Reserved

No Result
View All Result
  • Home
  • Computers
    • Gaming
  • Gear
    • Apple
    • Mobile
  • Microsoft
    • Software & Apps
  • Review
    • Security
  • Tech for Business
  • Tech News
  • News
  • Termini e condizioni

© 2025- https://tomorrowpost.net- All Rights Reserved