• About
  • Privacy Policy
  • Disclaimer
  • Contact
TomorrowPosT
  • Home
  • Computers
    • Gaming
  • Gear
    • Apple
    • Mobile
  • Microsoft
    • Software & Apps
  • Review
    • Security
  • Tech for Business
  • Tech News
  • News
  • Termini e condizioni
No Result
View All Result
  • Home
  • Computers
    • Gaming
  • Gear
    • Apple
    • Mobile
  • Microsoft
    • Software & Apps
  • Review
    • Security
  • Tech for Business
  • Tech News
  • News
  • Termini e condizioni
No Result
View All Result
TomorrowPost
No Result
View All Result

Come più modelli possono condividere la stessa lingua

Michele by Michele
16/05/2025
Home Tech for Business
Condividi su FacebookCondividi su WhatsappCondividi su Twitter


Da quando Chatgpt è diventato virale alla high quality del 2022, abbiamo visto molte ricerche che sono andate a studiare come si comportano i modelli di intelligenza artificiale. I ricercatori volevano vedere come operano, sia che imbrogliano per compiti o mentano per la sopravvivenza.

Questi sono importanti quanto la ricerca per creare modelli migliori e più intelligenti. Non possiamo raggiungere versioni più avanzate dell’intelligenza artificiale prima di poter comprendere l’AIS per assicurarsi che rimangano allineati ai nostri interessi.

La maggior parte di questi studi prevede esperimenti riguardanti un modello di intelligenza artificiale alla volta e studiando il suo comportamento. Ma abbiamo raggiunto un punto in cui l’interazione umana-AI non sarà l’unico tipo di interazione che coinvolge l’intelligenza artificiale.

Siamo nei primi giorni degli agenti di intelligenza artificiale, modelli GHATGPT e Gemini più avanzati che possono fare cose per gli utenti, come navigare sul Internet, procuring on-line e codifica. Inevitabilmente, questi AIS finiranno per incontrare altri modelli di intelligenza artificiale e questi modelli dovranno socializzare in modo sicuro.

Tecnologia. Divertimento. Scienza. La tua casella di posta.

Iscriviti per le notizie tecnologiche e di intrattenimento più interessanti là fuori.

Iscrivendoti, accetto il Termini di utilizzo e ho recensito il Avviso sulla privateness.

Questa period la premessa di un nuovo studio di Metropolis, San Giorgio, Università di Londra e Università IT di Copenaghen. Diversi IA interagiranno inevitabilmente e i ricercatori volevano vedere come sarebbero andate tali interazioni.

Hanno ideato un semplice gioco che imita i giochi per la frequenza di velocità umana. A-AIS a più AIS è stato assegnato un compito semplice: scegliere un nome comune a lettere singola. Ci sono voluti solo circa 15 spherical per raggiungere un consenso, se l’esperimento ha coinvolto 24 modelli di intelligenza artificiale o fino a 200, e se potessero scegliere tra 10 lettere o l’alfabeto completo.

Il gioco di “courting per la velocità” è stato piuttosto semplice. Due AIS sono stati abbinati e hanno detto di scegliere una lettera come nome. Quando entrambi gli agenti hanno scelto lo stesso nome, avrebbero ottenuto 100 punti. Perderebbero 50 punti se ogni AI ha escogitato una lettera diversa.

Una volta terminato il primo turno, gli AIS sono stati riparati e il gioco è continuato. Fondamentalmente, ogni modello poteva ricordare solo le ultime cinque scelte. Pertanto, nel spherical 6, non ricorderebbero più la prima lettera che ogni modello in una coppia ha scelto.

I ricercatori hanno scoperto che entro il spherical 15, gli AIS si sarebbero accontentati di un nome comune, proprio come noi umani ci accontentiamo di comunicazioni e norme sociali. Per esempio, Il Guardian Fornisce un ottimo esempio di norma sociale umana che abbiamo recentemente istituito per consenso, come spiegato dall’autore senior dello studio, Andrea Baronchelli di Metropolis St George.

“È come il termine” spam “. Nessuno lo ha definito formalmente, ma attraverso ripetuti sforzi di coordinamento, è diventata l’etichetta universale per e -mail indesiderate”, ha detto il professore. Ha anche spiegato che gli agenti AI nello studio non stanno cercando di copiare un chief. Invece, stanno solo coordinando nella coppia di cui fanno parte, la information individuale, in cui stanno cercando di trovare lo stesso nome.

Che gli agenti AI alla high quality si coordinano non è stata l’unica conclusione dello studio. I ricercatori hanno scoperto che i modelli AI formavano pregiudizi. Mentre raccogliere un nome composto da una singola lettera alfabetica ha lo scopo di aumentare la casualità, alcuni modelli di intelligenza artificiale gravitavano verso determinate lettere. Questo imita anche il pregiudizio che noi, gli umani, potremmo avere nella vita regolare, comprese le norme di comunicazione e sociali.

Ancora più interessante è la capacità di un gruppo più piccolo di agenti di AI determinati di convincere alla high quality il gruppo più grande a scegliere la lettera “nome” del gruppo più piccolo.

Ciò è rilevante anche per le interazioni sociali umane e mostra come le minoranze potrebbero spesso influenzare l’opinione pubblica una volta che le loro convinzioni raggiungono la massa critica.

Queste conclusioni sono particolarmente importanti per la sicurezza dell’IA e, in definitiva, per la nostra sicurezza.

Nella vita reale, gli agenti di intelligenza artificiale interagiscono tra loro per scopi diversi. Immagina che il tuo agente AI voglia effettuare un acquisto dal mio negozio on-line, dove il mio agente AI funge da venditore. Entrambi vorremmo che tutto sia sicuro e veloce. Ma se uno dei nostri agenti si comporta male e in qualche modo corrompe l’altro, per progettazione o incidente, ciò può portare a una serie di risultati indesiderati per almeno una delle parti coinvolte.

Più agenti di intelligenza artificiale sono coinvolti in qualsiasi tipo di interazione sociale, ognuno che agisce per conto di una persona diversa, più è importante che tutti continuino a comportarsi in sicurezza mentre comunicano tra loro. L’esperimento per la datazione della velocità suggerisce che gli agenti di intelligenza artificiale dannosi con opinioni forti potrebbero eventualmente influenzare la maggior parte degli altri.

Immagina un social community popolato da umani e attaccato da un esercito organizzato di profili di intelligenza artificiale incaricata di proliferare un messaggio specifico. Supponiamo che uno stato nazionale sta cercando di influenzare l’opinione pubblica con l’aiuto dei profili BOT sui social community. Un messaggio forte e uniforme che AIS canaglia continuerebbe a diffondere alla high quality raggiungerebbe i normali modelli di intelligenza artificiale che le persone usano per vari compiti, il che potrebbe quindi riecheggiare quei messaggi, inconsapevoli di essere manipolati.

Questa è solo una speculazione da questo osservatore di intelligenza artificiale, ovviamente.

Inoltre, come con qualsiasi studio, ci sono limiti. Per questo esperimento, all’AIS sono state assegnate ricompense e sanzioni specifiche. Avevano una motivazione diretta per raggiungere un consenso il più velocemente possibile. Ciò potrebbe non accadere così facilmente nelle interazioni della vita reale tra agenti di intelligenza artificiale.

Infine, i ricercatori hanno utilizzato solo modelli di Meta (Llama-2-70B-Chat, Llama-3-70B-Instruct, Llama-3.1-70B-instruct) e antropici (Claude-3.5-Sonnet). Chissà come la loro formazione specifica avrebbe potuto influire sul loro comportamento in questo esperimento sociale? Chissà cosa succede quando aggiungi altri modelli a questo gioco per la information di velocità?

È interessante notare che la vecchia versione Llama 2 aveva bisogno di più di 15 date per raggiungere un consenso. Richiedeva inoltre una minoranza più grande per ribaltare un nome consolidato.

Lo studio completo e peer-review è disponibile in Progressi scientifici.

Tags: condividerelinguamodellipiùpossonostessa
Michele

Michele

Next Post
Garmin Forerunner 970 e 570 pratico: potente e colorato

Garmin Forerunner 970 e 570 pratico: potente e colorato

Lascia un commento Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Recommended.

Rounda tecnologica-15-04-2025

16/04/2025
Il lupo mannaro di carta dispiega l’impianto di powermodul in attacchi informatici mirati su settori russi

Il lupo mannaro di carta dispiega l’impianto di powermodul in attacchi informatici mirati su settori russi

12/04/2025

Trending.

Sistemi distribuiti 101

Sistemi distribuiti 101

18/04/2025
Come spostare gli acquisti digitali tra due ID

iPhone 16 viene finalmente lanciato in Indonesia dopo un lungo divieto

14/04/2025
Pacchetti npm canaglia imitare l’API bot telegramma per piantare backoors ssh su sistemi Linux

Pacchetti npm canaglia imitare l’API bot telegramma per piantare backoors ssh su sistemi Linux

20/04/2025
Starcraft 2 hacker che costringono i giocatori a guardare video di tiro

Starcraft 2 hacker che costringono i giocatori a guardare video di tiro

23/04/2025
Distribuzione di piattaforme di intelligenza artificiale nell’istruzione superiore per risultati migliori

Distribuzione di piattaforme di intelligenza artificiale nell’istruzione superiore per risultati migliori

24/04/2025

TomorrowPost

Welcome to Tomorrow Post – your trusted source for the latest in computers, gaming, tech gear, Microsoft, software, cybersecurity, and much more! Our mission is simple: to provide technology enthusiasts, professionals, and business leaders with accurate, insightful, and up-to-date information that helps them navigate the ever-evolving world of technology.

Categorie

  • Apple
  • Computers
  • Gaming
  • Gear
  • Microsoft
  • Mobile
  • News
  • Review
  • Security
  • Software & Apps
  • Tech for Business
  • Tech News

Recent News

I guasti della batteria Pixel 6A sono più recenti per perseguitare la gamma telefonica di Google

I guasti della batteria Pixel 6A sono più recenti per perseguitare la gamma telefonica di Google

16/05/2025
2026 Toyota Trd Professional Particular Wave Maker Paint

2026 Toyota Trd Professional Particular Wave Maker Paint

16/05/2025
  • About
  • Privacy Policy
  • Disclaimer
  • Contact

© 2025- https://tomorrowpost.net- All Rights Reserved

No Result
View All Result
  • Home
  • Computers
    • Gaming
  • Gear
    • Apple
    • Mobile
  • Microsoft
    • Software & Apps
  • Review
    • Security
  • Tech for Business
  • Tech News
  • News
  • Termini e condizioni

© 2025- https://tomorrowpost.net- All Rights Reserved