Sopra La Notizia

Intelligenze diverse

Tra i maggiori esperti di IA, oggi si occupa di selezionare top manager del settore. Partendo dal paragone tra “umano” e “artificiale”, in un’intervista Fabio Moioli

«Ogni tanto, scherzando, dico che dopo essermi occupato per tanti anni di dati e algoritmi, ho deciso di passare all’intelligenza umana proprio nel momento in cui tutto il mondo iniziava a parlare di Intelligenza artificiale: erano esattamente i giorni del lancio di ChatGPT…». Ovvero novembre 2022, quando Fabio Moioli, ingegnere, manager, top voice di LinkedIn (dove lo seguono in 125mila) e tra i maggiori esperti – non solo italiani – di IA, passava da Microsoft a Spencer Stuart, multinazionale dell’head hunting. Prima, il mondo delle telecom, McKinsey, Capgemini… Sempre occupandosi di tecnologie e dati, ma anche di incontri, training, conferenze, articoli divulgativi. E con un focus concentrato sempre di più sulla rivoluzione promessa dall’IA. «Raccontavo di OpenAI nei convegni e tutti mi guardavano senza sapere cosa fosse. Ma se vogliamo definire un momento di svolta, direi nel 2016, quando è stata data una grande spinta al deep learning, con AlphaGo di Google e proprio OpenAI. Lì abbiamo iniziato a vedere con ancora più chiarezza la prospettiva e le potenzialità».
Oggi che, per mestiere, seleziona a sua volta i top manager del settore combinando conoscenze tecniche e fattore umano, è quasi naturale che il dialogo parta proprio da lì, da somiglianze e differenze tra l’intelligenza naturale e quella artificiale.

Quanto sono paragonabili? L’IA è veramente intelligenza o è qualcosa d’altro? E che sfida è per noi, per come usiamo la ragione e conosciamo la realtà, fare i conti con questa rivoluzione?
Faccio un paio di premesse. Prima di tutto, sul perché si chiama “Intelligenza artificiale”: perché è qualcosa che impara, che si sa adattare. Un programma di informatica “classica”, per quanto possa essere potentissimo – e magari mandare l’uomo sulla Luna -, è comunque uno strumento che fa esattamente quello che gli ho detto di fare. Se dico alla calcolatrice di fare 2+2, lei fa “2+2=4” perché gliel’ho insegnato io, l’ho codificato nella calcolatrice. Nell’IA, se io faccio vedere a un algoritmo tantissime immagini di un gatto, lui capisce; e un po’ alla volta, impara a riconoscere un gatto anche quando dovesse avere solo tre zampe, perché magari ha avuto un incidente. Quindi è intelligente nell’imparare, perché l’“intelligenza” ha a che fare con l’apprendimento e con la capacità di risolvere problemi. Ciò detto, a me piace di più parlare di intelligenze, al plurale.

Perché?
Non esiste l’intelligenza umana come qualcosa di unico: l’essere umano ha tanti tipi di intelligenze. Ho insegnato anche Scienze cognitive alla Statale di Milano e faccio un corso proprio su questi temi. Ormai lo sappiamo, la parola può indicare cose diverse: c’è l’intelligenza spaziale, quella musicale, quella cinestetica, l’intelligenza interpersonale… Uno può essere un grande compositore, avere un’enorme intelligenza musicale, ed essere scarsissimo come sportivo, e via dicendo. Ecco, lo stesso accade nella tecnologia. Non esiste una IA: ci sono tante tecnologie diverse che avendo questa caratteristica di imparare, di essere in qualche modo capaci di adattarsi, sono definibili come “intelligenza” secondo le definizioni più classiche.

Ma in queste intelligenze umane c’è un fattore che, in qualche modo, le tiene insieme…
Sono accomunate dal cervello. Che ha caratteristiche uniche. Le intelligenze artificiali, per dire, lavorano bene su volumi grandi, hanno bisogno di tantissimi dati per imparare: l’uomo sa apprendere anche con un numero molto più limitato di esempi e di casi. Comunque, quando si parla di IA il rischio è di antropomorfizzarla un po’ troppo. L’IA non è un’intelligenza umana più sviluppata: è un’intelligenza diversa. Sa fare delle cose del tutto inimmaginabili per l’uomo, ma poi è incapace di farne altre alla portata di un bambino. L’IA è eccezionale nel trovare delle correlazioni, nell’accorgersi di quando due fenomeni accadono insieme. L’essere umano è efficace nel capire il rapporto “causa ed effetto”. Se un uomo vede sorgere il sole e sente il gallo cantare, non gli viene il dubbio su quale sia la causa e quale l’effetto: è il gallo che canta perché ha visto la luce. Per l’IA no, non lo sa. Sa solo che le due cose sono legate.

Per semplificare: l’IA sa riconoscere in maniera più potente dei nessi, ma l’uomo ha il problema del significato di questi nessi…
Sì, è corretto. Questa è una delle differenze principali ad oggi, perché è chiaro che si tratta di una tecnologia che sta evolvendo molto in fretta. Però al momento questa è una delle caratteristiche che, tra l’altro, distinguono le due intelligenze anche a livello di creatività. L’IA è in grado di generare delle combinazioni creative: ascoltando tantissimi brani di Mozart, sa creare un nuovo brano piacevole ed efficace in “stile Mozart”. Guardando tantissimi quadri di un pittore, può generare un quadro simile. Magari saprebbe addirittura ingannare gli esperti. Però non sa creare qualcosa di veramente nuovo, inteso come un nuovo stile, una nuova idea imprenditoriale. La creatività intesa come “creare qualcosa che non esisteva prima” rimane profondamente umana. Anche se quel tipo particolare di creatività legata all’IA generativa oggi inizia a essere molto efficace, con tutte le conseguenze del caso…

Questo apre la strada a una delle grandi questioni: il rapporto tra opportunità e rischi. Qual è il punto di equilibrio?
L’IA ci dà un’opportunità enorme, perché ci può aiutare a indirizzare tantissime sfide: dalla sanità al riscaldamento globale, a tanto altro. Sono benefici indiscutibili, e vanno sostenuti. Però è evidente che proprio perché è così potente, questa tecnologia va gestita bene. È la sfida di sempre, di qualsiasi trasformazione: quando è arrivata l’automobile, una marea di persone che per lavoro gestivano i cavalli – c’era proprio un’intera industria legata al cavallo – sono scomparse. E si può dire in tante altre situazioni. Questa rivoluzione è ancora più profonda e avviene in modo più veloce: quindi sicuramente ci sono dei problemi che dobbiamo affrontare come società. Ma vanno gestiti.

Esempi?
Pensi al lavoro del medico, per dire: non è che con l’IA scompare e lui va a fare altro, perché non serviranno più i dottori. Ma il medico del futuro che utilizza le IA per fare le diagnosi e scrivere i rapporti, o per aiutarsi in sala operatoria, molto probabilmente sarà un medico più efficace: ci aiuterà a vivere più a lungo e meglio. E usando queste cose, magari avrà più tempo per parlare con il paziente o con i parenti. Io avrò sempre bisogno di parlare con un essere umano che mi spiega la malattia, mi fa capire le implicazioni e mi aiuta a scegliere se fare o meno un intervento: non voglio discuterne con l’algoritmo. Paradossalmente, quindi, l’IA potrebbe rendere questo lavoro più umano, perché potrebbe lasciare più tempo a questo aspetto. Certo, c’è anche qualche lavoro che potrebbe scomparire. Però la maggior parte dei lavori non scompaiono e non nascono: si trasformano. Spetta a noi, come società, aiutare le persone a capire la trasformazione e, quindi, a prepararsi.

Chi si aspetta la catastrofe dal punto di vista dell’occupazione e dell’impatto sociale, quindi, sbaglia…
Per me, sì. Non è a tema una catastrofe: è un tema di gestione. È chiaro che non sarà lo stesso per tutti i lavori e per tutte le persone: tanti faranno fatica. Ma sta alla società aiutare queste persone a gestire al meglio tutto quello che ne consegue. Pensi all’agricoltura. L’IA può migliorare tantissimo la produttività e la qualità: con microcamere, sensori, droni e tutto si può arrivare a essere molto precisi nell’usare la quantità giusta di pesticidi o nel non sprecare acqua. Tuteli l’ambiente e produci di più. Ma poi, una volta che questo cibo viene prodotto, che rimanga nelle mani di pochi o vada a chi soffre la fame non lo decide l’IA: lo decide la politica, ovvero noi.

Ha usato la parola più affascinante: “Responsabilità”. Che sfida è per la nostra responsabilità avere delle opportunità così grandi a portata di mano?
Ogni tanto, quando parlo di questi temi, uso la famosa battuta di Spiderman, ha presente? «Grandi poteri, grandi responsabilità». Le potenzialità dell’IA ci danno una responsabilità enorme, che passa dalla gestione delle persone e del lavoro alla ridistribuzione della ricchezza – nel senso di far sì che tutti siano possano beneficiare di ciò che ne verrà di positivo -, alle sfide etiche. Per esempio, c’è tutto il tema dell’assicurarsi che l’IA non sia addestrata introducendo pregiudizi che poi finiscono per moltiplicare le diseguaglianze. Se l’algoritmo vede una correlazione tra sesso maschile e ruoli manageriali, perché storicamente ci sono più uomini nei vertici aziendali, e io lo uso per selezionare dei manager, finisce che per certe posizioni mi indica soprattutto uomini. Non è che ha un pregiudizio verso le donne: è che lo trova nei dati. Sta a noi entrare nell’algoritmo e correggere il pregiudizio di genere, per evitare la discriminazione.

La frase «grandi poteri, grandi responsabilità» apre due questioni: le norme e la consapevolezza. Hanno lo stesso peso?
Servono entrambe, profondamente. Servono regole – che pure stanno arrivando, come la normativa europea: le chiedono anche le aziende, perché non è neanche giusto scaricare sulle imprese certe scelte decisive per tutti. E serve tanta educazione, perché devo imparare a lavorare usando questa tecnologia in un modo intelligente. Ma l’educazione non è solo formazione: è anche pensiero critico. Assieme all’empatia e alla capacità di collaborare a quel tipo di creatività che dicevo prima, credo sia tra le competenze che serviranno sempre di più.

Lei, per il 2024, ha fatto tre previsioni: l’allargamento dell’IA generativa ad altri modelli, e non solo al linguaggio; l’avvento di sistemi sempre più personalizzati e tarati sui bisogni dei singoli utenti; e il rischio – enorme – dei deep fakes, in un anno segnato da tante elezioni decisive. Ma se dovesse indicare la cosa più importante di cui tenere conto, per fare i conti con l’evoluzione dell’IA, cosa direbbe?
Per i cittadini, sarà ancora più importante proprio sviluppare il pensiero critico. È fondamentale. Quando si parla di deep fake, ormai si parla di una tecnologia talmente efficace che chiunque, con una piccolissima preparazione, può creare un video o un audio in cui sembra che Fabio Moioli abbia detto delle cose che io non ho mai detto… E quindi occorre sviluppare ancora di più un pensiero critico: guardare la fonte, il contesto, mettere in dubbio, ma in un senso positivo. Sarà fondamentale addirittura per la tenuta della democrazia. Ma è un messaggio anche per il business. Avremo modelli sempre più evoluti, che utilizzano l’IA avendo come punto di ingresso non solo il linguaggio umano, ma anche il linguaggio della chimica, della genetica, dei materiali. Vuol dire scoprire nuovi componenti, nuove medicine…

Vuol dire anche più collaborazione fra mondi diversi.
Sì, lavorare insieme sarà sempre più decisivo. Ed è un’altra bella sfida.

Fonte: Davide Perillo | Clonline.org

Newsletter

Ogni giorno riceverai i nuovi articoli del nostro sito comodamente sulla tua posta elettronica.

Contatti

Sopra la Notizia

Tele Liguria Sud

Piazzale Giovanni XXIII
19121 La Spezia
info@sopralanotizia.it

Powered by


EL Informatica & Multimedia