venerdì, Ottobre 7, 2022

Una nuova intelligenza artificiale che crea immagini horror ed erotiche

Must Read

Questo articolo è stato pubblicato da questo sito

Fin dall’inizio, OpenAi ha limitato l’accesso ai suoi generatori di immagini, inserendo un filtro che limita le richieste. È la stessa impostazione alla base di un servizio concorrente, Midjourney, che è stato lanciato nel luglio di quest’anno e ha contribuito ad aumentare la popolarità delle applicazioni artistiche dell’Ai grazie alla sua accessibilità.

Stable Diffusion non è il primo generatore di arte Ai open source. Non molto tempo dopo l’uscita del primo Dall-E, uno sviluppatore ha realizzato un servizio disponibile al pubblico chiamato Dall-E Mini, che è diventato rapidamente un fenomeno online grazie ai meme. Lo strumento, poi ribattezzato Craiyon, include meccanismi di protezione simili a quelli delle versioni ufficiali di Dall-E. Clement Delangue, amministratore delegato di HuggingFace, una società che ospita molti progetti di intelligenza artificiale open source, tra cui Stable Diffusion e Craiyon, sostiene che sarebbe problematico se la tecnologia fosse controllata solo da una manciata di grandi aziende.

Le potenzialità dell’open source

Se si guarda allo sviluppo a lungo termine, in realtà rendere la tecnologia più aperta, più collaborativa e più inclusiva è meglio dal punto di vista della sicurezza“, spiega Delangue. La tecnologia “chiusa” è più difficile da comprendere per gli esperti indipendenti e per il pubblico, prosegue l’amministratore delegato di HuggingFace, ed è preferibile che persone esterne alle società siano in grado di esaminare i modelli per valutare problemi come i pregiudizi sulla base di etnia, genere o età. Nel complesso, i vantaggi degli strumenti open source della superano i rischi.

Delangue sottolinea che le aziende di social media potrebbero utilizzare Stable Diffusion per sviluppare strumenti capaci di individuare le immagini generate dall’intelligenza artificiale utilizzate a scopi di disinformazione. Gli sviluppatori della società hanno inserito un sistema per aggiungere dei watermark invisibili nelle immagini realizzate con Stable Diffusion – in modo da renderle rintracciabili in modo più agevole – e hanno costruito uno strumento per trovare, e quindi rimuovere, illustrazioni problematiche nei dati di addestramento del modello. 

Dopo essersi interessata a Stable Diffusion, Simpson-Edin è diventata moderatrice del server dedicato allo strumento su Discord. La comunità vieta alle persone di postare determinati tipi di contenuti, tra cui immagini che potrebbero essere interpretate come pedopornografiche. “Non possiamo moderare ciò che le persone fanno sulle loro macchine, ma siamo estremamente rigidi rispetto a ciò che viene postato“, racconta Simpson-Edin. Nel breve periodo, la limitazione degli effetti dannosi legati alla creazione di immagini artistiche da parte dell’Ai potrebbe dipendere più dagli esseri umani che dalle macchine.

Questo articolo è comparso originariamente su Wired US.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Wired Next Fest, cosa seguire oggi venerdì 7 ottobre

Rita Elvira Adamo, cofondatrice della Rivoluzione delle seppie, Stefano Sotgiu, economista pubblico e promotore del progetto Bulzi, Alessia Zabatino,...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img