Chatgpt è cresciuto molto negli ultimi anni, con Aperto rilasciando various entusiasmanti funzionalità lungo la strada. Chatgpt ora può ragionare per offrire risposte più approfondite alle domande e produce rapporti di ricerca dettagliati su qualsiasi argomento scelto. Anche impressionante è la capacità del chatbot di generare immagini e modificare le foto. Poi c’è un operatore, un agente di intelligenza artificiale che consente a Chatgpt di navigare sul internet per te. Inoltre, Openai ha rilasciato vari modelli, tra cui le modalità di anteprima, e ha ulteriormente migliorato il modello CHATGPT predefinito che la maggior parte delle persone utilizza.
Ma c’è Uno strumento AI che Openai non ha portato a Chatgpt o rilasciato come programma di intelligenza artificiale separato, nonostante lo abbia annunciato più di un anno fa. Si chiama Voice Engine, un software program AI che può clonare una voce dopo aver ascoltato un singolo campione audio di 15 secondi.
Inutile dire che è una caratteristica incredibilmente spaventosa da rilasciare in natura. Ti ho avvertito A proposito di quanto sia pericoloso il minuto Openi lo ha annunciato a nice marzo 2024.
La clonazione della voce ha abusi scritti dappertutto. Non mi riferisco solo agli attori dannosi che creano file audio falsi clonando le voci di politici E celebritào hacker che cercano di farsi girare. Sto anche pensando al Joe medio che potrebbe pensare che sia divertente clonare la voce di un amico e far loro dire che Dio sa cosa.
Più di un anno dopo, lo strumento di clonazione vocale di Openi non è ancora ampiamente disponibile in Chatgpt o come app autonome. È accessibile solo a un breve elenco di accomplice e non si sa quando Openi lo rilascerà in natura.
Spero che ciò accada in un futuro lontano, uno in cui il pubblico più vasto è abbastanza-Savvy da dire audio clonato da una vera voce, o Openai e altre aziende di intelligenza artificiale sviluppano tecnologia che etichetta chiaramente le voci clonate come Ai-Generated.
Non sto dicendo che non ci sono usi legittimi per gli strumenti di clonazione vocale alimentati dall’intelligenza artificiale. Potresti usare un story strumento per doppiarsi movie e programmi TV in altre lingue mantenendo la voce originale dell’attore. Questo è un uso avvincente per l’audio generato dall’IA.
Le persone con impedimenti vocali o coloro che perdono la voce a causa delle condizioni mediche potrebbero anche usare uno strumento CHATGPT per parlare con gli altri.
Allo stesso modo, la capacità di tradurre il linguaggio parlato in tempo reale mentre si preserva la voce e il tono dell’altoparlante potrebbe essere incredibilmente utile in situazioni in cui altri strumenti di traduzione non sono disponibili o efficaci.
Ma le persone normali che ottengono l’accesso al motore vocale a Chatgpt o altrove lo abuseranno sicuramente. Basta guardare cosa è successo con tutte le immagini di DeepFake che gli utenti di Chatgpt creati dopo il rilascio dello strumento di generazione di immagini 4O sono stati rilasciati. E ricorda che Openi ha usato le politiche di sicurezza di Laxer quando rilasciava story strumento.
Avere un motore vocale in natura, con politiche di sicurezza allo stesso modo facili, renderebbe più facile per gli attori dannosi abusarne per scopi nefasti.
Per fortuna, non sembra che Openi preveda di rilasciare il motore vocale ampiamente presto. L’azienda di intelligenza artificiale detto TechCrunch Che continui a testare la funzione con una serie limitata di accomplice di fiducia:
(Stiamo) imparando da come (i nostri accomplice) utilizzano la tecnologia in modo da poter migliorare l’utilità e la sicurezza del modello. Siamo stati entusiasti di vedere i diversi modi in cui viene utilizzato, dalla logopedia, all’apprendimento delle lingue, all’assistenza clienti, ai personaggi dei videogiochi, agli avatar di AI.
TechCrunch Sottolinea che Openai voleva rilasciare il motore vocale alla sua API il 7 marzo 2024, come voci personalizzate. Il piano originale period di affidare a 100 sviluppatori la funzione, purché costruessero app che forniscono un “vantaggio sociale” o mostrava usi “innovativi e responsabili” della tecnologia. Openi lo ha persino marchiato e fissato i prezzi.
Ma il motore vocale non è mai diventato disponibile. Invece, Openi ha rinviato il lancio e ha dato un annuncio pubblico a motore più tardi quel mese, senza aprire le iscrizioni.
Penso che sia stato ed è ancora la mossa migliore. Ancora una volta, l’enorme successo dei nuovi poteri di generazione di immagini di CHATGPT è la prova che le persone abusano della tecnologia di intelligenza artificiale che è facile da usare.
Openai non è l’unico laboratorio AI che crea strumenti di clonazione vocale. Abbiamo già visto DeepFakes che coinvolgono strumenti di intelligenza artificiale che consentono alle persone di clonare le voci delle celebrità per scopi dannosi. Abbiamo anche sentito parlare di truffe usando telefonate in cui gli hacker hanno clonato le voci di altre persone, compresi i cari.
Tutto ciò che è accaduto senza che Chatgpt offra agli utenti una modalità motore vocale per clonare le voci. Ma avere Openi che rilascia un story strumento potrebbe rendere ancora più facile per gli attori dannosi usarlo per tutti i tipi di schemi.
Sarebbe anche incredibilmente conveniente, supponendo che i prezzi dell’anno scorso TechCrunch riportato per rimanere in atto. Openi voleva addebitare $ 15 per milione di token per voci commonplace e $ 30 per milione di token per voci di qualità HD. È estremamente economico, soprattutto se vuoi usare la tecnologia per manipolare le persone con profondità o eseguire attacchi più sofisticati che coinvolgono voci clonate.
Per fortuna, Openai period a conoscenza del potenziale per l’abuso di motore vocale, chiamando tali rischi nel publish del weblog dell’anno scorso. Ciò probabilmente spiega il continuo ritardo. Openi potrebbe aver voluto evitare le controversie in un anno elettorale, il che potrebbe essere il motivo per cui il motore vocale non è stato lanciato l’anno scorso. Ma le elezioni continueranno advert arrivare.
Inoltre, i rapporti hanno sottolineato che la clonazione vocale AI period la Terza truffa in più rapida crescita del 2024. Questo è un motivo ancora più grande per tenere il motore vocale fuori dalle mani della maggior parte delle persone.