venerdì, Ottobre 25, 2024

Alexa può imitare le voci dei morti

Must Read

Questo articolo è stato pubblicato da questo sito

La nuova abilità di Alexa è forse la più inquietante di tutte, ovvero la capacità di imitare le voci di qualsiasi persona dopo circa un minuto di ascolto di un audio campione. Per la dimostrazione di questa nuova funzione, il vice presidente senior del team dietro all’assistente vocale di Amazon, Rohit Prasad, ha scelto di riprodurre un video in cui Alexa legge una favola della buona notte a un bambino imitando la voce della nonna. La nonna morta poco tempo prima, riportando alla ribalta l’annosa questione etica su fin dove la tecnologia possa spingersi per cercare di tenere in qualche modo in vita chi non c’è più.

In occasione dell’evento Amazon Re:Mars conference a Las Vegas, Alexa ha mostrato tante novità in arrivo e quella che ha conquistato la prima pagina è senza dubbio la capacità di imitare le voci. Secondo quanto raccontato a Engadget da un portavoce della società, il training richiede circa un minuto di file audio della persona da replicare per ottenere già risultati più che validi, quando esperimenti precedenti richiedevano ore e ore di ascolto. Un sistema molto veloce, dunque, che calibra l’output del text-to-voice modulando i toni per rappresentare i timbri più disparati. “Viviamo in un’epoca d’oro dell’intelligenza artificiale – ha commentato Prasad – e se l’a.i. non può eliminare il dolore di una perdita, può di sicuro far sì che le memorie rimangano” e non si può che convenire con il dirigente, anche se ci sono due aspetti imprescindibili da sottolineare.

Il primo punto riguarda l’etica: l’imitazione della voce, di qualsiasi voce, è una sorta di deepfake a livello audio con la rappresentazione del timbro di una persona che potrebbe non aver mai acconsentito a questa procedura. E questo vale per chi è ancora in vita, che potrebbe subire la clonazione della voce pescando qualsiasi breve filmato o file audio, ma anche appunto chi non c’è più. Così come nel caso del celebre abbraccio virtuale tra una madre e una figlia morta, la rappresentazione dello scomparso potrebbe causare gravi problemi, in modo particolare nel processo di elaborazione del lutto. In secondo luogo, potrebbe accelerare l’evoluzione delle già esistenti truffe che utilizzano la tecnologia di imitazione vocale per scopi illeciti come nel caso dell’anno scorso di un trasferimento di oltre 30 milioni di euro da una banca degli Emirati Arabi a un criminale tech che aveva impersonato un dirigente.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

L'amica geniale 4, tra urla e passione, Lenù, Lila e Nino Sarratore sono cresciuti

Premessa doverosa: è complicato, delle volte impossibile, giudicare una serie da soli due episodi. Perché due sono quelli mostrati...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img