Questo articolo è stato pubblicato da questo sito
Anthropic ha dichiarato ufficialmente che utilizzerà le chat e le sessioni di coding tra gli utenti e il suo chatbot Claude per l’addestramento del modello di linguaggio su cui si regge il suo servizio. La modifica ai termini di utilizzo e alla policy sulla privacy di Claude entrerà in funzione il prossimo 28 settembre e entro tale data gli utenti sono chiamati necessariamente a scegliere se acconsentire o meno alla richiesta. In caso negativo, è necessario opporsi tramite opt-out. In ogni caso, è indispensabile rispondere per continuare ad accedere agli strumenti connessi. Ecco tutto ciò che c’è da sapere.
La modifica ai termini di servizio di Claude
Nel post sul sito ufficiale, Anthropic spiega il motivo che ha portato alla modifica dei termini di servizio chiedendo agli utenti il permesso di utilizzare i dati delle chat e delle sessioni di coding per l’addestramento dei suoi modelli di linguattio. “Partecipando – si può leggere – ci aiuterai a migliorare la sicurezza dei modelli, rendendo i nostri sistemi di rilevamento di contenuti dannosi più accurati e meno inclini a segnalare conversazioni innocue”. Inoltre, quanto raccolto servirà anche per affinare le capacità in arrivo: “Aiuterai anche i futuri modelli Claude a migliorare competenze come la codifica, l’analisi e il ragionamento, portando infine a modelli migliori per tutti gli utenti”. Finora, Anthropic riceveva dati solo su base volontaria da parte degli utenti, che potevano decidere di inviare feedback.
A essere interessati sono gli utenti che utilizzano il piano gratuito Claude Free o quelli a pagamento come Pro e Max, mentre al momento non vengono considerati i piani business o quelli per il settore governativo e didattico così come l’accesso tramite API e servizi esterni.