Da Chatgpt Per prima cosa è diventato virale e ha reso l’intelligenza artificiale generativo uno strumento indispensabile, ho detto che non sono preoccupato per un’apocalisse di intelligenza artificiale o l’IA che prende il nostro lavoro. Questi sono problemi reali che dobbiamo affrontare, sì, ma c’period un problema di intelligenza artificiale più urgente che doveva risolvere – e lo fa ancora.
Nella loro fretta di corteggiare il mondo con nuovi trucchi di intelligenza artificiale, le compagnie di intelligenza artificiale a sinistra e a destra hanno trovato tutti i tipi di funzionalità di AI generative, compresi gli strumenti che ti consentono di modificare immagini, creare foto false e generare audio e video con un immediate di testo. La maggior parte di loro ha trovato queste caratteristiche senza risolvere il problema evidente: le immagini e i video generati dall’IA possono essere abusi per fuorviare l’opinione pubblica.
Abbiamo visto le aziende tecnologiche sviluppare commonplace per l’etichettatura dei contenuti generati dall’IA, ma le loro soluzioni non sono ancora all’altezza. Il contenuto di intelligenza artificiale non è immediatamente ovvio e non è sempre filmato. Potrebbe essere necessario ispezionare un file per vedere se i metadati menziona l’IA.
La facilità d’uso dei prodotti Genai per modificare le immagini e creare video da zero significa che chiunque può fare contenuti senza avere conoscenza del software program avanzato, che period un prerequisito nell’period Pre-Chatgpt. È così che finiamo con i profondi come La clip anti-kanye È diventato virale poche settimane fa. La clip è presente Un profondo Faux di Scarlett Johanssonche l’attrice ha rapidamente criticato, esortando il governo degli Stati Uniti a approvare la legislazione per prevenire tali abusi. Quella clip è diventata virale pochi giorni dopo che gli Stati Uniti hanno rifiutato di firmare una dichiarazione di sicurezza AI al vertice di AI Motion di Parigi.
Mentre l’amministrazione Trump ha chiarito che non è interessata a regolare fortemente l’intelligenza artificiale, altri paesi stanno adottando un approccio diverso. La Spagna ha una nuova legge che colpirà le società con multe fino a $ 38 milioni, ovvero il 7% della loro affluenza annuale, per i contenuti di intelligenza artificiale che non sono correttamente etichettati come tali.
Secondo Reutersil governo spagnolo ha approvato il disegno di legge martedì nel tentativo di frenare l’uso di DeepFakes.
“L’intelligenza artificiale è uno strumento molto potente che può essere utilizzato per migliorare la nostra vita … o per diffondere disinformazione e attaccare la democrazia”, ha detto ai giornalisti il ministro della trasformazione digitale Oscar Lopez. Ha anche detto che il disegno di legge adotta le linee guida della legge AI dell’UE.
Il funzionario ha aggiunto che tutti erano suscettibili agli attacchi di DeepFake, sia video, foto o audio generati dai programmi di intelligenza artificiale.
La legislazione proposta vieta anche altre pratiche di intelligenza artificiale, come l’uso di tecniche subliminali per manipolare le persone. Lopez ha menzionato chatbot che incoraggerebbero le persone con dipendenze a giocare d’azzardo o giocattoli che dicono ai bambini di esibirsi per pericolose sfide.
Sono anche importanti le disposizioni del disegno di legge che impediscono alle aziende di classificare le persone attraverso i loro dati biometrici utilizzando l’IA. Secondo la legge, le aziende sarebbero anche vietate valutare le persone con l’aiuto di AI in base al loro comportamento e ai tratti personali per garantire loro l’accesso ai benefici o valutare il rischio di commettere crimini.
Solo le autorità sarebbero autorizzate a utilizzare la sorveglianza biometrica in tempo reale in luoghi pubblici e solo per motivi di sicurezza.
Il disegno di legge deve ancora essere approvato dalla Digicam bassa in Spagna. Una volta che diventa legge, le aziende che distribuiscono strumenti di intelligenza artificiale in Spagna rischiano di tali multi milioni di multe per non etichettare i contenuti di intelligenza artificiale.
Il disegno di legge non vieterà DeepFakes – non è questo il punto qui. Invece, prenderà in pressione le aziende di intelligenza artificiale per elaborare una tecnologia migliore per etichettare automaticamente i contenuti generati dall’IA.
Sarà interessante vedere che tipo di etichettatura che i cani da guardia spagnoli vogliono vedere implementati e come reagiranno i giganti tecnologici. Inoltre, non posso non chiedermi se la legge sarebbe ispirata alla nuova legislazione dell’UE che copre i profondi e gli abusi di intelligenza artificiale in tutta la regione.
Come promemoria, le più rigorose leggi sulla tecnologia dell’UE hanno impedito a aziende come Openai, Google e Apple di rilasciare nuovi prodotti di intelligenza artificiale nella regione con la stessa velocità con cui gli Stati Uniti e altri mercati internazionali. La pressione della legge spagnola potrebbe portare a maggiori ritardi in futuro.
Ancora una volta, preferirei le leggi dei regolatori che costringono le aziende a etichettare i contenuti di intelligenza artificiale in modo più evidente rispetto all’accesso immediato a nuovi strumenti di intelligenza artificiale. Dico che come qualcuno che ha dovuto aspettare molte caratteristiche di GATGPT da lanciare nell’UE negli ultimi anni.
Tornando in Spagna, il governo ha anche creato una nuova agenzia chiamata Aesia per far rispettare le nuove regole. Ciò si aggiunge advert altri cani da guardia che potrebbero monitorare l’uso dell’IA in casi specifici che coinvolgono la privateness dei dati, il crimine, le elezioni e altri.