di Ilio Masprone – Editore – Cavaliere del Principato di Monaco per meriti culturali
MONACO. È chiaro che l'”era dell’incertezza” è alle porte, portando con sé turbolenze di mercato, crescita stentata e cambiamenti politici. In questo tempo senza precedenti, i leader sopportano l’onere di bilanciare i diversi fattori, dalle esigenze del datore di lavoro rispetto a quelle dei dipendenti, alla priorità dell’agilità e dell’innovazione insieme alla struttura e alla strategia. I migliori leader sono quelli che padroneggiano questo equilibrio, affrontando con calma sfide complesse con fiducia e chiarezza. Un esempio lampante riguarda in particolare leader tecnologici come Elon Musk (Twitter Tesla, Spacex ecc), Steve Wozniak (cofondatore di Apple), i ricercatori di DeepMind di Alphabet e altri leader dell’ IA, che chiedono di rallentare l’addestramento di modelli di Intelligenza Artificiale sempre piu’ potenti e complessi. In una lettera aperta, hanno affermato che ulteriori sviluppi dovrebbero essere sospesi fino a quando non saremo “fiduciosi che i loro effetti saranno positivi e che i loro rischi saranno gestibili”. La lettera esorta le aziende di Intelligenza Artificiale a creare e implementare una serie di protocolli di sicurezza condivisi per lo sviluppo dell’IA. Ciò è importante poiché sono ad esempio in aumento le preoccupazioni sull’impatto dell’IA sul mercato del lavoro: un recente rapporto di Goldman Sachs ha avvertito che il 25% dell’attuale forza lavoro potrebbe essere sostituito dall’intelligenza artificiale, mentre due terzi potrebbero vedere un certo grado di automazione nel proprio lavoro. In assenza di regolamentazione, il risultato dipenderà tutto dalla società vincente: potrebbe essere OpenAI, Google o una startup che li supera tutti! In ogni caso, i leader tecnologici hanno ragione: l’IA deve rallentare. La rapida ascesa di ChatGPT e simili strumenti mostra come l’IA abbia un incredibile potenziale nel bene e nel male. Negli ultimi tre anni le capacita’ dell’IA sono aumentate in modo esponenziale: in contrasto con l’ultima distribuzione limitata, l’offerta successiva, GPT-3, è stata resa disponibile alla fine del 2022. Semplificando al massimo, diciamo che un chatbot come GPT-3 è un software addestrato su enormi quantità di conversazioni umane ce he può quindi comunicare con gli utenti in modo naturale ed umano. Ma molto dipende, come gia’ disse Oscar Wilde due secoli fa “da come e da chi vengono poste le domande”. L’interfaccia Chatbot-GPT derivata da quella programmazione è stata il servizio che ha lanciato migliaia di articoli di notizie e post sui social media, mentre giornalisti ed esperti ne testavano le capacità, spesso con risultati strabilianti e controversi. In un incontro globale di politici, investitori e dirigenti tecnologici, l’argomento di conversazione più caldo è stato il potenziale e il potere dei programmi di intelligenza artificiale, che potrebbe andare in una delle due direzioni di cui sopra nei prossimi 10 anni. In uno scenario ottimistico, lo sviluppo dell’IA è incentrato sul bene comune, con trasparenza nella progettazione del sistema di intelligenza artificiale e la possibilità per gli individui di scegliere se le loro informazioni pubblicamente disponibili su Internet siano incluse nella base di conoscenza dell’IA. Infatti, e’ innegabile che la tecnologia IA possa essere lo strumento per rendere la vita più facile e in modo continuativo, poiché le funzionalità di intelligenza artificiale sui prodotti di consumo possono anticipare le esigenze degli utenti e aiutare a svolgere praticamente qualsiasi attività. Lo scenario catastrofico comporta una minore privacy dei dati, una maggiore centralizzazione del potere in una manciata di aziende e un’intelligenza artificiale che anticipa si’ le esigenze degli utenti ma per il momento li sbaglia di grosso o, comunque, soffoca le scelte. Inoltre, se immersa nelle acque già agitate di siti Web come Facebook, YouTube e Twitter, l’IA potrebbe trasformarle in un mare ribollente di disinformazione, poiché sarebbe sempre più difficile separare i post di veri umani dagli account falsi, ma del tutto credibili, generati dall’IA. Nel nostro numero precedente di marzo abbiamo esposto i pericoli del “gossip” sui social, citando gli ammonimenti di Papa Francesco; ebbene, a fine marzo scorso proprio il capo della Chiesa e’ stato vittima di un falso youtube virale, protagonista un sosia allegrone con bomber e sneakers, in pose decisamente discutibili. Questo, proprio mentre il pontefice affrontava l’argomento ai Minerva Dialogues, un incontro annuale di alto livello tra esperti e sviluppatori di tecnologia. Mentre il Papa non ha fatto menzione delle immagini false, il suo discorso agli esperti tecnologici e ai rappresentanti della Chiesa riuniti è stato un opportuno dibattito sull’uso responsabile della tecnologia IA. Papa Francesco ha espresso l’augurio che queste nuove tecnologie, che si sono gia’ rivelate “immensamente benefiche” per l’umanità nei campi della medicina, dell’ingegneria e delle comunicazioni, si estendano anche alle “questioni fondamentali dell’etica, della scienza, dell’arte e della ricerca del senso della vita, conducendo a un cammino verso la pace e verso lo sviluppo umano integrale”. Questo risultato dipende in gran parte dalla responsabilità con cui le aziende sviluppano l’IA. Lo fanno in modo trasparente, rivelando e sorvegliando le fonti da cui i vari chatbot traggono le loro informazioni? L’esperienza dei governi con le società di social media – Facebook, Twitter, Google e simili non è incoraggiante e dimostra come gli stessi debbano muoversi rapidamente per stabilire barriere legali atte a guidare gli sviluppi tecnologici e prevenirne l’uso improprio. A tale proposito, ricordiamo che dal 31 marzo scorso l’Italia e’ la nazione che, attraverso il Garante della Privacy, ha proibito l’uso provvisorio di ChatGPT (Generative pre trained transformer ossia traformatore pre-istruito generatore di conversazioni) fino a quando OpenAI non intraprendera’ le misure atte a garantire la verifica dell’eta’ degli utenti: questo al fine di non esporre i minori di 13 anni a risposte assolutamente inidonee rispetto al loro grado di sviluppo e di auto- consapevolezza, pena una sanzione fino a 20milioni di euro o il 4% del fatturato annuo.