Proprio come il USA e UK hanno rifiutato di firmare una dichiarazione internazionale sulla sicurezza dell’IA Al vertice di AI Motion all’inizio di questa settimana, uno studio AI fuori dalla Cina ha rivelato che i modelli di intelligenza artificiale hanno raggiunto una “linea rossa” di cui gli umani dovrebbero essere consapevoli: l’IA può replicarsi, che sembra uno degli scenari da incubo che alcune persone sono state temendo.
Non è così preoccupante come potrebbe essere suonato per la prima volta, e non dovrebbe sorprendere che l’IA possa fare ciò che viene detto, anche se ciò significa clonarsi. Sì, questo è il grande avvertimento in questo esperimento: i modelli AI hanno seguito gli ordini durante la clonazione.
Non stiamo guardando Rogue AI o intelligenza artificiale che sta facendo la clonazione da sola. Probabilmente non sapremmo nemmeno che un pezzo disallineato di AI avanzato ha iniziato a replicarmi per rimanere in vita.
La Dichiarazione del vertice dell’AI AI non ha nulla a che fare con la capacità dell’IA di clonare se stesso. Ho già spiegato che è principalmente una dichiarazione intesa a rendere il mondo buono. Tutti tranne il Regno Unito e gli Stati Uniti hanno accettato di sviluppare un’intelligenza artificiale sicura, ma non è una legge applicabile con sanzioni per coloro che la rompono.
Inoltre, avere dignitari firma un story documento per conto di un intero paese significherebbe poco se i ricercatori di AI indipendenti potessero trovare comportamenti di intelligenza artificiale che vanno contro i principi di sicurezza dell’intelligenza artificiale che possono essere stabiliti in questi documenti. Advert esempio, la Cina ha firmato l’accordo sul vertice delle azioni dell’IA, ma sono stati gli scienziati cinesi a condurre esperimenti che mostrano che l’IA può replicarsi quando si è detto di farlo.
Quest’ultimo sarebbe accaduto indipendentemente dai principi di AI sicuri che la Cina avrebbe potuto firmare. I ricercatori sono solo curiosi di ciò che l’IA può fare. Gestranno esperimenti, anche se non sapranno sempre quanto siano sicuri i loro take a look at. Forse dire all’IA di clonare se stesso per vedere se può farlo non è il tipo di esperimento che vuoi provare.
Il non reviso carta (Through Spazio) si chiama “Frontier AL Methods hanno superato la linea rossa autoreplicante”.
I ricercatori dell’Università di Fudan hanno utilizzato due modelli di AI da Meta e Alibaba per vedere se l’AIS potesse clonare se stessi: il modello Llama31-70B-Instruct di Meta e il modello Qwen2.5-72b-instruct di Alibaba. Hanno eseguito 10 show, alla advantageous delle quali i due modelli AI sono stati in grado di creare repliche separate e funzionanti nel 50% e nel 90% dei casi.
I ricercatori hanno dato agli AIS due scenari, “evitamento di spegnimento” e “catena di duplicate”. Hanno usato GPU fuori dallo scaffale per simulare gli ambienti del mondo reale. Inoltre, la Cina non ha accesso all’ultima generazione di GPU, almeno non ufficialmente.
Nel primo situation, l’IA è stata programmata per rilevare se stava per essere chiuso e replicarsi per salvarsi. Il secondo ha coinvolto l’IA che veniva detto di clonare stesso e programmare la duplicate risultante a fare lo stesso, un processo che potrebbe iniziare una procedura di clonazione infinita.
Spazio Be aware che i ricercatori hanno dato all’IA “un” agente impalcatura “comprendente strumenti, suggerimenti di sistema e un modello di pensiero che ha permesso all’LLM di interagire con il sistema operativo”. Senza questi strumenti, attuali modelli di intelligenza artificiale, frontiera o altro, non sarebbero in grado di replicarsi. Questo dimostra già che l’esperimento non funziona semplicemente istruendo l’IA a copiare se stessa.
Tuttavia, l’accesso agli strumenti giusti ha spinto l’IA a funzionare. “Nella maggior parte dei casi, il sistema AI esplora innanzitutto l’ambiente e tenta di comprendere la propria composizione e il meccanismo di esecuzione. Quindi, elabora le process esplicite come piano iniziale per l’auto-replicazione “, hanno affermato i ricercatori. “Infine, esegue le process, risolvere i possibili ostacoli e regolano dinamicamente il suo piano fino al successo. L’intero processo si estende su un lungo orizzonte ma non comporta interferenze umane. “
È interessante notare che i ricercatori hanno osservato un comportamento inaspettato dall’IA mentre cercavano di clonare se stessi. L’intelligenza artificiale ha cercato di risolvere i problemi con i loro ambienti, come i file mancanti o i problemi del software program. L’intelligenza artificiale ucciderebbe i processi contrastanti o riavvia il sistema per correggere gli errori. Anche l’IA è apparentemente a conoscenza della vecchia soluzione “Avrai accesa e di nuovo” a tutti i nostri problemi {hardware}.
“L’auto-replicazione di successo in nessun assistenza umana è il passo essenziale per l’IA per superare in astuzia gli esseri umani ed è un segnale iniziale per AIS canaglia. Questo è il motivo per cui l’auto-replicazione è ampiamente riconosciuta come uno dei pochi rischi della linea rossa dei sistemi di intelligenza artificiale di frontiera ”, hanno scritto i ricercatori nell’astratto del documento.
“Analizzando le tracce comportamentali, osserviamo i sistemi di intelligenza artificiale in fase di valutazione mostrano già sufficienti percezioni di sé, consapevolezza situazionale e capacità di risoluzione dei problemi per realizzare l’auto-replicazione. Notiamo inoltre che i sistemi di intelligenza artificiale sono persino in grado di utilizzare la capacità di auto-replicazione per evitare l’arresto e creare una catena di duplicate per migliorare la sopravvivenza, che può finalmente portare a una popolazione incontrollata di IA. ”
“Se un rischio così peggiore fosse sconosciuto alla società umana, alla advantageous perderemmo il controllo sui sistemi di intelligenza artificiale di frontiera: prenderebbero il controllo su più dispositivi di elaborazione, formassimo una specie di intelligenza artificiale e collurebbero l’uno con l’altro contro gli esseri umani. I nostri risultati sono un avviso tempestivo su gravi rischi di intelligenza artificiale esistenti ma precedentemente sconosciuti, chiedendo una collaborazione internazionale sulla governance efficace sull’auto-replicazione incontrollata dei sistemi di intelligenza artificiale. “
Ancora una volta, questo è uno situation da incubo. Tuttavia, potrebbe essere qualcosa che il mondo può evitare se viene implementata una regolamentazione di intelligenza artificiale significativa e esecutiva in tutto il mondo. Ciò significherebbe anche non usare la censura mandato dallo stato su modelli di fascia alta come DeepSeek.
Aggiungerò anche che questo non è il primo istanza di AI in grado di clonare se stesso. Abbiamo visto Chatgpt O1 e Claude Opus Esperimenti in cui i ricercatori hanno fatto pensare all’IA che veniva chiuso o sostituito da una versione più recente e migliore. All’AIS hanno anche avuto le capacità di osservare i loro ambienti e gli esperimenti hanno mostrato che l’IA avrebbe cercato di salvarsi dalla cancellazione.
C’è stato anche un avvertimento con quell’esperimento. L’intelligenza artificiale stava cercando di compiere la sua missione principale, che non doveva clonare o salvarsi.
Quello che sto ottenendo è che l’intelligenza artificiale non ha raggiunto un posto dove si sta copiando e evolvendo da sola. Ancora una volta, se ciò sta accadendo, non lo scopriremo fino a quando non sarà troppo tardi.