mercoledì, Settembre 10, 2025

Microsoft ha una soluzione per le allucinazioni dell'AI

Must Read

Questo articolo è stato pubblicato da questo sito

L’intelligenza artificiale non avrà più le allucinazioni. Ossia cesserà di produrre risposte che non hanno a che fare con la realtà e la verità oggettiva perché perde il filo del discorso e parte per la tangente. Secondo quanto annunciato da Sarah Bird – chief product officer di Microsoft per l’AI responsabile – la compagnia ha progettato nuove funzionalità di sicurezza in grado di rilevare potenziali vulnerabilità, monitorare le allucinazioniplausibili ma non supportate” e bloccare in tempo reale i suggerimenti dannosi per i clienti di Azure AI (la piattaforma aziendale per il cloud e l’AI). Un aggiornamento che dovrebbe limitare quanto più possibile il rischio che l’intelligenza artificiale generi contenuti non politically correct, come le immagini storicamente innacurate di Gemini o quelle create da Bing che riproducono Super Mario e Spongebob a bordo di un aereo che vola verso le Torri Gemelle.

Più nel dettaglio, sono tre le nuove funzionalità annunciate dalla Bird che risultano essere degne di nota: Prompt Shields, “per rilevare e bloccare gli attacchi di prompt injection”, una particolare forma di attacco che comporta la manipolazione delle risposte di un’AI attraverso l’introduzione di indicazioni malevole nel prompt stesso. Safety Evaluations, “per valutare la vulnerabilità di un’applicazione agli attacchi di jailbreak e alla generazione di contenuti pericolosi”. E, infine, Groundedness Detection, la funzione in grado di individuare e bloccare le allucinazioni dell’intelligenza artificiale. A queste si aggiungeranno altre due funzioni nel prossimo futuro, pensate indirizzare i modelli verso output sicuri e per tracciare i prompt al fine da segnalare gli utenti potenzialmente problematici.

L’obiettivo di Microsoft, quindi, è quello di intervenire sul prompt per evitare che questo possa generare contenuto pericolosi per gli utenti stessi. Un sistema funzionale, anche se la Bird ha sollevato la preoccupazione che, così facendo, possano essere le aziende del settore a decidere cosa è o non è appropriato per i modelli di intelligenza artificiale, limitando di fatto le funzionalità degli strumenti offerti. Per ovviare a questo problema, Microsoft ha scelto di offrire ai clienti Azure la possibilità di attivare un filtro per i discorsi di odio e violenza che il modello vede e blocca. Insomma, è evidente che la compagnia abbia fatto un enorme passo in avanti nel settore, proponendo una serie di strumenti utili per limitare uno dei maggiori rischi dell’uso dell’AI: le sue allucinazioni.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

iPhone 17 vs iPhone 16, tutte le differenze

iPhone 17 vs iPhone 16, le differenze ci sono. Che cosa cambia tra le due generazioni di smartphone Apple...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img