lunedì, Giugno 24, 2024

Intelligenza artificiale, i dipendenti di OpenAI temono che ci porti all'estinzione

Must Read

Questo articolo è stato pubblicato da questo sito

Come noto, lo scorso novembre il cda di OpenAI aveva licenziato Altman accusandolo di aver non essere stato trasparente con il board. L’ad è stato poi reintegrato dopo alcuni giorni di caos, mentre la maggior parte del consiglio di amministrazione è stata estromessa.

Siamo orgogliosi dei risultati che abbiamo raggiunto nel fornire i sistemi di intelligenza artificiale più capaci e sicuri in assoluto e crediamo nel nostro approccio scientifico per affrontare i rischi – ha dichiarato il portavoce di OpenAI dichiarato Liz Bourgeois in un comunicato –. Concordiamo sul fatto che un dibattito rigoroso sia cruciale data l’importanza di questa tecnologia e proseguiremo il nostro impegno con i governi, la società civile e altre comunità in tutto il mondo“.

Cosa dicono i ricercatori

Tra i firmatari della lettera ci sono persone che in passato hanno lavorato alla sicurezza di OpenAI – come William Saunders, Carroll Wainwright e Daniel Ziegler –, attuali dipendenti che hanno sottoscritto il documento in forma anonima e anche ricercatori che lavorano per aziende rivali. La lettera ha inoltre ricevuto il sostegno di alcuni importanti ricercatori di AI, tra cui Geoffrey Hinton e Yoshua Bengio – entrambi vincitori del premio Turing per la loro ricerca pionieristica nel campo dell’intelligenza artificiale – e Stuart Russell, uno dei maggiori esperti di sicurezza dell’AI.

Attualmente l’opinione pubblica sta sottovalutando il ritmo di sviluppo di questa tecnologia”, afferma Jacob Hilton, un ricercatore che in passato si è occupato di apprendimento per rinforzo per OpenAI e che ha lasciato l’azienda più di un anno fa per perseguire una nuova opportunità di ricerca. Nonostante le aziende come quella di Sam Altman si impegnino a costruire l’AI in modo sicuro, secondo Hilton la sorveglianza per garantire che ciò avvenga è ancora troppo poca. “Le tutele che chiediamo vanno applicate a tutte le aziende che si occupano di AI di frontiera, non solo a OpenAI“, spiega.

Me ne sono andato perché non avevo più fiducia nel fatto che OpenAI si sarebbe comportata in modo responsabile”, racconta Daniel Kokotajlo, un ricercatore che in passato ha lavorato alla governance dell’AI presso OpenAI. Credo che alcune delle cose che sono successe avrebbero dovuto essere rese pubbliche, aggiunge, rifiutandosi di fornire ulteriori dettagli.

Kokotajlo sostiene che le proposte contenute nella lettera garantirebbero una maggiore trasparenza e ritiene che ci siano buone possibilità che OpenAI e altre società rivedano le loro politiche. Ma sottolinea anche che l’AI sta avanzando con una velocità preoccupante: “La posta in gioco diventerà molto, molto, molto più alta nei prossimi anni”.

Questo articolo è apparso originariamente su Wired US.

- Advertisement -spot_img
- Advertisement -spot_img
Latest News

Meta e non solo, come impedire alle big tech di addestrare l’intelligenza artificiale con i nostri dati

Un ulteriore motivo per opporci potrebbe essere, semplicemente, che non vogliamo che i nostri dati vengano utilizzati. Senza bisogno...
- Advertisement -spot_img

More Articles Like This

- Advertisement -spot_img