L’intelligenza artificiale sta migliorando nel imitare il linguaggio umano, risolvere i problemi e persino gli esami di passaggio. Ma secondo una nuova ricerca, non può ancora replicare una delle parti più fondamentali della cognizione umana, come pensano gli umani.
UN recente studio Pubblicato in Transazioni sulla ricerca dell’apprendimento automatico Esaminavano quanto bene i modelli di linguaggio di grandi dimensioni, come GPT-4 di Openi, gestiscono il ragionamento analogico. I risultati hanno scoperto che mentre gli umani non avevano problemi advert applicare le regole generali ai problemi basati sulle lettere, come individuare un carattere ripetuto e rimuoverlo, i sistemi AI mancavano costantemente il segno.
I ricercatori affermano che il problema non period che all’IA mancassero dei dati. Invece, è stato che non poteva generalizzare i modelli oltre a ciò che period già stato insegnato. Ciò espone una differenza chiave nel modo in cui gli umani e l’IA pensano.
Gli umani sono straordinariamente bravi nel ragionamento astratto. Possiamo prendere un concetto che abbiamo imparato in un contesto e applicarlo in uno completamente nuovo. Comprendiamo la sfumatura, ci adattiamo a regole non familiari e costruiamo modelli mentali su come le cose dovrebbero funzionare. L’intelligenza artificiale, d’altra parte, si basa fortemente sulla memorizzazione di schemi da enormi quantità di dati. Questo aiuta a prevedere ciò che verrà dopo, ma non per questo che arriva dopo.
Le implicazioni qui sono enormi per il futuro dell’IA. In campi come legge, medicina ed educazione – dove l’analogia e la comprensione contestuale sono cruciali – i limiti di AI potrebbero portare a errori con conseguenze reali. La differenza nel modo in cui gli umani e l’IA pensano sia troppo grande.
Advert esempio, un essere umano potrebbe riconoscere che un nuovo caso legale rispecchia da vicino un precedente più vecchio, anche se la formulazione è diversa. Tuttavia, un’intelligenza artificiale potrebbe mancare del tutto se il fraseggio non si allinea ai suoi dati di allenamento. Ciò potrebbe portare a enormi problemi con ramificazioni legali.

E questa non è solo una stranezza tecnica. Alla tremendous è una divisione fondamentale. Sì, l’IA può simulare le risposte umane. Tuttavia, non è lo stesso di pensare come un essere umano. Questo è Uno dei motivi per cui l’IA non sarà mai così bravo a scrivere creativi Come lo sono gli umani, nonostante ciò che potrebbe dire il CEO di Openi. Inoltre, più ci affidiamo a questi sistemi, più diventa importante capire cosa non possono fare, soprattutto se gli studi sono giusti e Stiamo perdendo le nostre capacità di pensiero critico a causa dell’uso dell’IA.
Nuovo modello di ragionamento O1-Professional di Openi Potrebbe essere il migliore sul mercato, ma se non può pensare come un essere umano, non sarà mai in grado di sostituire gli umani. Come dicevano gli autori dello studio, la precisione da sola non è abbastanza. Dobbiamo porre domande più difficili su quanto sia davvero robusta l’IA quando le regole non sono scritte e se siamo pronti per le conseguenze se le sbagliano.