Diversi ricercatori di OpenAI hanno riportato un avviso al consiglio di amministrazione, secondo il quale l’intelligenza artificiale (IA) rappresenta un grave rischio per l’umanità.
La recente divulgazione di una lettera è stata riconosciuta come uno sviluppo significativo che precede la rimozione dell’amministratore delegato Sam Altman da parte del consiglio di amministrazione.
L’avviso al consiglio di amministrazione di OpenAI scatena una reazione
Secondo una recente dichiarazione di persone che hanno familiarità con la questione, i ricercatori hanno informato il consiglio di amministrazione sull’intelligenza artificiale generale (AGI), presente vari rischi dell’intelligenza artificiale descritta come sistemi autonomi che superano gli esseri umani nella maggior parte dei “compiti di valore economico”.
SponsoredPer saperne di più: I 6 lavori più caldi nel campo dell’intelligenza artificiale (AI) nel 2023
Tuttavia, i nuovi dettagli emersi sono stati un fattore importante nella decisione del consiglio di amministrazione di licenziare Sam Altman. Secondo quanto riportato, c’erano “preoccupazioni riguardo alla commercializzazione dei progressi prima di comprenderne le conseguenze”.
Le recenti preoccupazioni espresse riguardo ai rischi dell’IA
Nel frattempo, negli ultimi tempi sono stati espressi diversi commenti sui rischi dell’intelligenza artificiale per la società.
Inoltre, Elon Musk, CEO di diverse aziende tecnologiche, ha previsto con chiarezza i potenziali danni dell’IA per gli esseri umani.
“C’è qualche possibilità – superiore allo zero – che l’IA ci uccida tutti. Penso che sia bassa, ma c’è qualche possibilità”.
Nel frattempo, recenti rapporti riportano che le normative sull’IA devono trovare un equilibrio, evitando un eccessivo rigore che potrebbe eliminare i potenziali benefici offerti dall’IA.
Tuttavia, l’identificazione dei rischi dell’IA porta spesso alla diffusione di informazioni errate.
BeInCrypto ha recentemente trattato l’uso dell’IA nel marketing, sottolineando i pericoli associati a un’adozione affrettata da parte delle agenzie di marketing. L’assenza di regolamenti ben definiti può dare origine a problemi di ottemperanza.
Per saperne di più: ChatGPT vs. Google Bard: Un confronto tra chatbot AI