In questi giorni, il ciclo di notizie AI è dominato da Deep -Week. DeepSeek è una startup cinese che ha rilasciato un modello di ragionamento potente come Chatgpt O1 nonostante non abbia le enormi risorse {hardware} e infrastrutturale di OpenAI. DeepSeek ha utilizzato chip più vecchi e ottimizzazioni software program per addestrare DeepSeek R1.
Accuse da Openai DeepSeek potrebbe avere il chatgpt distillato Allenare i precursori di R1 non importa nemmeno.
Il progetto DeepSeek probabilmente ha raggiunto il suo obiettivo su più fronti. Ha livellato il campo di gioco nelle guerre AI, dando alla Cina una possibilità di combattimento. DeepSeek ha anche dato un enorme colpo finanziario al mercato azionario degli Stati Uniti, che ha perso quasi $ 1 miliardo, con le società di {hardware} di intelligenza artificiale che rappresentano le maggiori perdite di capitalizzazione di mercato.
Infine, DeepSeek ha dato alla Cina un’arma software program che potrebbe essere ancora più potente di Tiktok. DeepSeek è l’app numero uno nell’App Retailer. Inoltre, chiunque può installare il modello DeepSeek sul proprio pc e usarlo per creare altri modelli.
Con tutto ciò in mente, potresti non prestare nemmeno attenzione ai rapporti che dicono che un altro ricercatore chiave di sicurezza Openi ha smesso. Steven Adler è un altro nome che aggiungeremo a un elenco crescente di ingegneri che hanno lasciato Openi nell’ultimo anno.
È anche interessante che l’ingegnere abbia lasciato a metà novembre, ma ha reso pubblica la sua partenza lunedì, proprio come DeepSeek Information si è schiantato sul mercato.
Adler disse su X che sta lasciando la compagnia dopo quattro anni. “È stata una corsa selvaggia con molti capitoli – pericolosi Evali di capacità, sicurezza/controllo degli agenti, AGI e identità on-line, ecc. – E mi mancheranno molte parti di esso”, ha detto prima di far cadere una dichiarazione cupa.

Il ricercatore ha dichiarato di essere “piuttosto terrorizzato dal ritmo dello sviluppo dell’IA in questi giorni”. L’osservazione di Adler fa eco alle paure di altri esperti di intelligenza artificiale che pensano che l’IA porterà il nostro inevitabile destino. L’ex ricercatore di sicurezza dei chatgpt non ha tritato le parole, dicendo che è preoccupato per il futuro.
“Quando penso a dove alleverò una futura famiglia o quanto risparmiare per la pensione, non posso fare a meno di chiedermi: l’umanità arriverà addirittura a quel punto?” chiese.

Sarei curioso di sentire ciò che Adler vide advert Openi che gli faceva lasciare la compagnia. Sarei ancora più curioso di sapere perché non si restasse in giro per aiutare potenzialmente a salvare l’umanità dalla cattiva AI essendo coinvolto in una delle più importanti aziende di AI là fuori.
Adler avrebbe potuto assistere alla ricerca AGI (intelligenza generale artificiale) advert Openi, qualcosa che la società sta chiaramente sviluppando. Sto speculando qui, ma si basa su un tweet di follow-up. Adler ha dichiarato: “AGI Race è una scommessa molto rischiosa, con un enorme aspetto negativo. Nessun laboratorio ha una soluzione all’allineamento dell’IA oggi. E più velocemente corriamo, meno è probabile che qualcuno ne trova uno in tempo. “

Presumibilmente, Openai sta accelerando quella gara AGI. AGI è il tipo di intelligenza artificiale che corrisponderà alla creatività e alla capacità di un essere umano quando è incaricato di provare a risolvere qualsiasi problema. Ma AGI avrà anche molte più informazioni, quindi può affrontare qualsiasi compito molto meglio di un essere umano. Almeno questa è l’thought.
L’allineamento è la questione di sicurezza più importante riguardante l’IA, l’AGI e la superintelligenza (ASI). L’IA deve essere allineata con gli interessi dell’umanità a tutti i livelli. Questo è l’unico modo per garantire che l’IA non svilupperà programmi propri che potrebbero portare alla nostra scomparsa.
Tuttavia, prodotti di vita reale come Chatgpt e DeepSeek ci danno già due tipi di allineamenti. CHATGPT è, si spera, allineato con noi e interessi occidentali. DeepSeek è costruito per primi con gli interessi cinesi ed è allineato con quelli tramite censura.

Adler sembrava anche riferirsi a DeepSeek nel suo thread di lunedì su X senza nominare la startup cinese.
“Oggi sembra che siamo bloccati in un equilibrio davvero cattivo”, ha detto. “Anche se un laboratorio vuole davvero sviluppare AGI in modo responsabile, altri possono comunque tagliare gli angoli per recuperare, forse disastroso. E questo spinge tutto advert accelerare. Spero che i laboratori possano essere sinceri sulla vera sicurezza che è necessario per fermare questo. ”
Come è legato all’IA? Bene, il modello open supply di DeepSeek R1 è disponibile per chiunque. Gli attori nefasti con alcune risorse, know-how e nuove idee potrebbero inciampare su AGI senza sapere cosa stanno facendo o addirittura realizzando che scateneranno una forma di intelligenza artificiale superiore nel mondo.
Sembra uno situation di movie di fantascienza, certo. Ma potrebbe accadere. È valido quanto uno situation come, per esempio, una grande azienda di intelligenza artificiale che sviluppa AGI e ignora gli avvertimenti dei ricercatori della sicurezza, che alla positive finiscono per lasciare l’azienda uno per uno.
Non è chiaro dove Adler si muoverà in seguito, ma sembra essere ancora interessato alla sicurezza dell’IA. Ha chiesto a X cosa la gente pensa che le “idee più importanti e trascurate nella sicurezza/politica di intelligenza artificiale” siano, aggiungendo che è entusiasta di “metodi di controllo, rilevamento degli schemi e casi di sicurezza”.