Il Nationwide Institute of Requirements and Expertise (NIST) ha emesso nuove istruzioni per gli scienziati che collaborano con il US Synthetic Intelligence Security Institute (AISI) che eliminano la menzione della “sicurezza di intelligenza artificiale”, “AI responsabile” e “equità dell’IA” nelle competenze che si aspetta dei membri e introduce una richiesta di dare priorità a “riduzione della detenzione ideologica, per far esplodere l’economia.
Le informazioni provengono dall’ambito di un accordo di ricerca e sviluppo cooperativo aggiornato per i membri del consorzio del Istituto di sicurezza AI, inviato all’inizio di marzo. In precedenza, story accordo ha incoraggiato i ricercatori a contribuire al lavoro tecnico che potevano aiutare a identificare e correggere il comportamento del modello discriminatorio relativo a disuguaglianza di genere, razza, età o ricchezza. Tali pregiudizi sono estremamente importanti perché possono influenzare direttamente gli utenti finali e danneggiare in modo sproporzionato le minoranze e gruppi economicamente svantaggiati.
Il nuovo accordo rimuove la menzione dello sviluppo di strumenti “per l’autenticazione dei contenuti e il monitoraggio della sua provenienza”, nonché “etichettare il contenuto sintetico”, segnala meno interesse nel monitorare la disinformazione e i falsi profondi. Aggiunge anche enfasi sul mettere l’America al primo posto, chiedendo a un gruppo di lavoro di sviluppare strumenti di check “di espandere la posizione AI globale dell’America”.
“L’amministrazione Trump ha rimosso la sicurezza, l’equità, la disinformazione e la responsabilità come cose che apprezza l’IA, che penso parli da sola”, afferma un ricercatore di un’organizzazione che lavora con l’IA Security Institute, che ha chiesto di non essere nominato per paura della rappresentazione.
Il ricercatore ritiene che ignorare questi problemi potrebbe danneggiare gli utenti regolari eventualmente consentendo algoritmi che discriminano in base al reddito o advert altri dati demografici di non controllare. “A meno che tu non sia un miliardario tecnologico, questo porterà a un futuro peggiore per te e le persone a cui tieni. Aspettatevi che l’IA sia ingiusta, discriminatoria, non sicura e distribuita irresponsabilmente “, afferma il ricercatore.
“È selvaggio”, afferma un altro ricercatore che ha lavorato con l’IA Security Institute in passato. “Che cosa significa persino per gli umani prosperare?”
Elon Muskche è attualmente in testa uno sforzo controverso Per tagliare la spesa del governo e la burocrazia per conto del presidente Trump, ha criticato i modelli di intelligenza artificiale costruiti da Openai e Google. Lo scorso febbraio, ha pubblicato un meme su X in cui Gemelli e Openi sono stati etichettati “razzisti” e “svegliati”. Lui spesso cita Un incidente in cui uno dei modelli di Google ha discusso se sarebbe sbagliato un male a qualcuno anche se avrebbe impedito un’apocalisse nucleare, uno state of affairs altamente improbabile. Oltretutto Tesla E SpaceXMusk gestisce Xai, una società di intelligenza artificiale che compete direttamente con Openai e Google. Un ricercatore che consiglia di consigliare Xai ha recentemente sviluppato una nuova tecnica per alterare eventualmente le tendenze politiche di grandi modelli linguistici, come riportato di cablato.
Un corpus di ricerche in crescita mostra che la pregiudizio politico nei modelli di intelligenza artificiale può avere un impatto su entrambi liberali e conservatori. Per esempio, Uno studio dell’algoritmo di raccomandazione di Twitter Pubblicato nel 2021 ha mostrato che gli utenti avevano maggiori probabilità di essere mostrate prospettive di fascia destra sulla piattaforma.
Da gennaio, il cosiddetto Musk Dipartimento di efficienza del governo (DOGE) ha spazzato through attraverso il governo degli Stati Uniti, licenziando efficacemente i dipendenti pubblici, mettendo in pausa la spesa e creando un ambiente ritenuto ostile a coloro che potrebbero opporsi agli obiettivi dell’amministrazione Trump. Alcuni dipartimenti governativi come il Dipartimento della Pubblica Istruzione hanno archiviato e cancellato i documenti che menzionano DEI. DOGE ha anche preso di mira il NIST, l’organizzazione madre di AISI, nelle ultime settimane. Dozzine di dipendenti sono stati licenziati.