Convegno Lerici, 24 maggio 2024

“L’incidenza per gli Enti Locali delle modifiche e novità normative relative a: Statuto dei diritti del contribuente, processo tributario e digitalizzazione della P.A.”


Relazione della Elena Repman (Dottoranda di ricerca in Management for Digital Transformation: Business, Communication and Ethics —Università “N. Cusano” Roma): “Riflessioni sull’intelligenza artificiale: tra premesse tecnologiche e pericoli etici”

Abstract:

Questo articolo esamina l’evoluzione e l’impatto dell’intelligenza artificiale (IA) in vari settori, evidenziando le sfide tecnologiche ed etiche emergenti. Viene tracciata una panoramica storica dello sviluppo dell’IA, dalle prime fasi negli anni ’50 fino ai recenti progressi nel machine learning e nel deep learning. Si discute la mancanza di definizioni univoche di termini chiave come “intelligenza artificiale”, “robot” e “agente intelligente”, sottolineando la necessità di una comprensione comune per affrontare le questioni regolamentari. Inoltre, l’articolo esplora il problema dell’antropomorfizzazione dei sistemi di IA, analizzando le implicazioni etiche e filosofiche di attribuire qualità umane a macchine. Si evidenzia come le nuove tecnologie stiano trasformando non solo i processi produttivi ma anche i valori e le responsabilità sociali, proponendo un approccio umanistico all’innovazione tecnologica. Infine, si riflette sull’importanza di competenze tecniche, legali ed etiche per sfruttare l’IA in modo responsabile e vantaggioso per la società.

……………….

Paradosso di Moravec e la Battaglia dei Colletti Bianchi?        

Inizio con un esempio: ci sono due scuole di pensiero su come risolvere il problema della robotica nel mondo reale: costruire un ambiente specificamente per i robot, oppure fare il contrario e costruire robot per il nostro ambiente umano. Quindi potremmo avere milioni di tipi diversi di robot che svolgono compiti unici o un solo robot umanoide con un’interfaccia generale, che svolge milioni di compiti. Ad un’azienda come Figure, per esempio, credono con un solo prodotto  si potrebbe affrontare il complesso ambiente umano e fornire infiniti tipi di supporto in una varietà di circostanze. Lo stato della ricerca possiamo vedere nel video “Figure Status Update – OpenAI Speech-to-Speech Reasoning”. (Figure, 2024)

Giustamente un prodotto così adesso costa una somma notevole di denaro. Invece AI generativa che è stato utilizzato in questo progetto per far il robot ragionare – assolutamente no.

Questo ci fa capire che c’è una differenza profonda della quarta rivoluzione industriale che stiamo vivendo da quella precedente:  è più costoso l’implementazione delle tecnologie dell’IA per realizzare le capacità sensomotorie a basso livello cognitivo grazie alle enormi risorse computazionali , che il ragionamento ad alto livello cognitivo.

Quello descritto sopra è la formulazione e la dimostrazione del un famoso Paradosso di Moravec: ““… è relativamente facile fare in modo che i computer mostrino prestazioni di livello adulto nei test di intelligenza o nel giocare a dama, e difficile o impossibile dare loro le competenze di bambino di un anno quando si tratta di percezione e mobilità”. Una spiegazione per il paradosso, proposta dallo stesso Moravec, riguarda il processo evolutivo. Le capacità umane sono radicate biologicamente, forgiatesi attraverso la selezione naturale. Questo processo evolutivo tende a conservare e perfezionare le competenze nel tempo. Le abilità più antiche hanno avuto più tempo per essere affinate dalla selezione naturale. Il ragionamento astratto, essendo un’acquisizione relativamente recente, non è ancora ottimizzato al massimo della sua efficienza. (Moravec, 1988)

 In parole semplici: Nella fase transitoria sarà particolarmente influenzata se non colpita la sfera professionale dei lavoratori specializzati in attività di ufficio o comunque in professioni intellettuali.

Nel 2016, si immaginava che fattori tecnologici e demografici avrebbero influenzato l’evoluzione del mondo del lavoro, creando 2 milioni di nuovi posti di lavoro, mentre ne eliminavano 7 milioni. (WEF, 2016) ma..

Nel 2023, gli esperti sostengono che l’intelligenza artificiale potrebbe sostituire fino a 300 milioni di posti di lavoro nei paesi sviluppati, portando a massicci sconvolgimenti sociali ed economici. (WEF, 2023)

Per quanto riguarda i mestieri più complessi, come manager, consulenti, avvocati, e simili, è difficile immaginare una totale sostituzione, ma non c’è dubbio che i sistemi di A.I. generativa ci alzeranno tantissimo la produttività dei singoli. In queste condizioni proviamo a pensare al ricambio generazionale e al ruolo dei giovani: da un lato, sarà difficile se non impossibile trovare un posto da assistente quando ci saranno quelli virtuali; dall’altro, ci sarà la possibilità utilizzare in modo efficace le conoscenze dei sistemi esperti .

È noto che lo sviluppo della tecnologia  avanza in modo esponenziale e la capacità delle aziende di utilizzarla avanza a piccoli passi e il divario si sta ampliando sempre di più, ponendo gli interrogativi sulla sostenibilità e le scelte etiche.

Per concludere questa parte vorrei citare due articoli di Disposizioni e delega al Governo in materia di intelligenza artificiale (disegno di legge), approvati dal Consiglio dei Ministri n. 78 il 23 Aprile 2024 e dedicati al lavoro:

Disposizioni sull’utilizzo dell’intelligenza artificiale in materia di lavoro

Si applica il principio antropocentrico all’utilizzo dell’IA nel mondo del lavoro, chiarendo che l’intelligenza artificiale può essere impiegata per migliorare le condizioni di lavoro, tutelare l’integrità psico¬fisica dei lavoratori, accrescere la qualità delle prestazioni lavorative e la produttività delle persone in conformità al diritto dell’Unione europea. Anche per il lavoro viene ribadito il principio di equità e non discriminazione, stabilendo che l’utilizzo dei sistemi di IA per l’organizzazione o la gestione del rapporto di lavoro non può in nessun caso essere discriminatorio.

 Osservatorio sull’adozione di sistemi di intelligenza artificiale nel mondo del lavoro

Si istituisce presso il Ministero del Lavoro e delle Politiche Sociali un Osservatorio sull’adozione dei sistemi di IA.

Per le professioni intellettuali, si stabilisce che il pensiero critico umano debba sempre risultare prevalente rispetto all’uso degli strumenti di intelligenza artificiale, che può riguardare solo le attività di supporto all’attività professionale. Per assicurare il rapporto fiduciario tra professionista e cliente si è stabilito, inoltre, che le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista debbano essere comunicate al cliente con linguaggio chiaro, semplice ed esaustivo.

“Black Mirror del Lavoro”

Ci vuole un po’ di attenzione ancora: un esempio, trovato dopo un’attenta indagine dalla rivista Time, dimostra che per rendere ChatGPT meno tossico, OpenAI ha utilizzato manodopera keniota esternalizzata che guadagna meno di $2 all’ora. Si è scoperto che per costruire il sistema di sicurezza, OpenAI ha inviato decine di migliaia di frammenti di testo a un’azienda di outsourcing in Kenya, a partire da novembre 2021. Il partner di outsourcing di OpenAI in Kenya era Sama, un’azienda con sede a San Francisco che impiega lavoratori in Kenya, Uganda e India per etichettare dati per clienti della Silicon Valley come Google, Meta e Microsoft. Sama si presenta come un’azienda di intelligenza artificiale etica e sostiene di aver aiutato oltre 50.000 persone a uscire dalla povertà̀. Nel frattempo i labeler1 di dati impiegati da Sama per conto di OpenAI hanno ricevuto uno stipendio netto compreso tra circa $1,32 e $2 all’ora a seconda dell’anzianità̀ e delle prestazioni. (Perrigo B., 2023)

Il paradosso del mercato del lavoro moderno si manifesta chiaramente nella contraddizione tra l’eliminazione delle opportunità̀ di impiego stabile e protetto e la simultanea creazione di micro-lavori estremamente precari. Tale mercato, pur offrendo nuove opportunità̀ di guadagno, solleva interrogativi sulla sostenibilità̀ e la sicurezza lavorativa.

Ma davvero si riflette tutto nero in questo “Black Mirror del Lavoro”? Assolutamente no! A questo proposito vorrei citare l’esempio che fa Marco Landi (l’unico manager italiano ad essere stato ai vertici di Apple, come direttore generale dell’azienda a metà degli anni ’90) nella sua discussione online con prof. Padre Paolo Benanti (frate francescano, teologo, presidente della Commissione AI per l’Informazione, nonché unico membro italiano del Comitato sull’AI delle Nazioni Unite). Il prof. Landi racconta il cambiamento radicale dell’ambiente lavorativo presso una delle acciaierie di Udine avvenuto con l’introduzione del digitale, del quale è stato testimone. Li dove vent’anni fa lavorava una cinquantina di persone in condizioni disumane, “nel calore, nel sudore”, adesso lavorano si, meno persone, circa 35, ma in un ambiente tra “specchi e schermi”, senza dover sperimentare tutta la fatica a quale erano esposti prima. (Benanti P., Landi M., 2024)

La tecnologia sta cambiando profondamente ciò che riteniamo importante, anche i nostri valori. Ci invita infatti a riflettere su un cambiamento radicale dei valori di riferimento, sui diritti e le libertà. “Sociale ed etico” sono i due attributi necessari dei doveri dei protagonisti dei settori dell’industria, della ricerca e della scienza, perché gli effetti della rivoluzione digitale vanno ben oltre i guadagni economici.

Invece della conclusione…

Si parla spesso del “Uomo al centro”. “Uomo al centro” (in inglese, “Human in the loop”) si riferisce a un approccio nello sviluppo e nell’implementazione della tecnologia, in particolare dell’intelligenza artificiale (IA), in cui l’intervento umano è essenziale per il funzionamento del sistema.  Gli esseri umani sono coinvolti in varie fasi, come l’annotazione dei dati, la validazione dei modelli, il monitoraggio dei bias e la correzione degli errori, garantendo così che i sistemi di AI operino in modo trasparente e responsabile. Questo approccio enfatizza l’importanza del giudizio umano, del controllo e della supervisione nelle decisioni prese da algoritmi o macchine. (Appen AI, 2019)

Ed anche in questo caso ci possono due visioni di questa metodologia.

C’è che la pensa come una via di fuga dei giganti della tecnologia dalle loro responsabilità̀ per gli effetti dannosi dei sistemi di apprendimento automatico:

  • appelli all’eccezionalità̀ delle nuove tecnologie;
  • tesi di un vuoto di responsabilità̀ (responsibility gap);
  • proposta di una responsabilità̀ distribuita anche tra gli utenti e le vittime
  • proposta di attribuire un ruolo decisivo agli esseri umani coinvolti nei processi automatizzati (human on the loop), affidando a una persona il compito di intervenire, con prontezza fulminea, nei casi di emergenza, o di rettificare il responso di un sistema automatico. (Tafani, 2022)

 A me personalmente farebbe piacere condividere un’altra visione quella di padre Paolo Benanti: “L’AI, come tutti gli strumenti, ha bisogno di una capacità di immaginare. Quando un artigiano prende in mano uno scalpello, vede nel legno o nel marmo la figura che poi vorrà estrarre. Senza la parte umana, la capacità spirituale di poter immaginare, difficilmente lo strumento potrà realizzare cose degne di essere ricordate, ma questa capacità di immaginare ha bisogno di rispecchiare tutta la persona umana, entrambe le parti del mondo (la donna e l’uomo) ….per un futuro caratterizzato da un’innovazione tecnologica gentile.” (Sommella R. 2024)

A breve troveremo le IA ad affiancare tutti noi nei vari momenti della nostra vita. Quindi la capacità di comprendere e sfruttarla, mantenendo un approccio umanistico, diventa per tutti un vantaggio competitivo cruciale. Ad esempio, le competenze tecniche di base, insieme alla conoscenza degli aspetti legali ed etici dell’implementazione, ma anche le competenze trasversali, quali l’immaginazione e il pensiero critico rappresenta un set di competenze chiave da avere.

Presso le Nazioni Unite esiste un laboratorio “Futures Lab” (United Nations Futures Lab Network), dove gli esperti immaginano tutti i possibili sviluppi del Futuro dell’umanità e, applicando le tecniche di strategic foresight, cercano di capire che cosa possiamo fare già adesso per seguire lo scenario migliore.  Il futuro quindi in qualche modo è già presente,  e sta a noi renderlo etico e meraviglioso.

 

REFERENCES

  1. Epley, N., Waytz, A., & Cacioppo, J. (2007). On seeing human: a three-factor theory of anthropomorphism. Psychological Review, 114(4), 864-86. https://doi.org/10.1037/0033-295X.114.4.864
  2. Estevez Almenzar, M., Fernandez Llorca, D., Gomez Gutierrez, E., & Martinez Plumed, F. (2022). Glossary of human-centric artificial intelligence. Publications Office of the European Union, Luxembourg. https://doi.org/10.2760/860665, JRC129614.
  3. Floridi, L. (2022). Etica dell’intelligenza artificiale: Sviluppi, opportunità, sfide. Raffaello Cortina Editore.
  4. Floridi, L. & Nobre, A. (2024). Anthropomorphising Machines and Computerising Minds: The Crosswiring of Languages between Artificial Intelligence and Brain & Cognitive Sciences. Minds and Machines. 34. 10.1007/s11023-024-09670-4.
  5. Legg, S., & Hutter, M. (2007). “A Collection of Definitions of Intelligence.” Frontiers in Artificial Intelligence and Applications, 157, 17-24.
  6. McCarthy, J., Minsky, M., Rochester, N., & Shannon, C. (2006). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955. AI Magazine, 27, 12-14.
  7. Moravec H.P.; Mind Children : The Future of Robot and Human Intelligence. 1988. Cambridge Massachusetts: Harvard University Press.
  8. Rehak, R. (2020). “Action” and Ascription: On Misleading Metaphors in the Debate About Artificial Intelligence and Transhumanism. Transhumanism: The Proper Guide to a Posthuman Condition or a Dangerous Idea?. https://doi.org/10.1007/978-3-030-56546-6_11.
  9. Samoili, S., Lopez Cobo, M., Delipetrev, B., Martinez-Plumed, F., Gomez Gutierrez, E., & De Prato, G. (2021). AI Watch. Defining Artificial Intelligence 2.0. Publications Office of the European Union, Luxembourg. https://doi.org/10.2760/019901, JRC126426.
  10. Tafani, D. (2022). Sistemi fuori controllo o prodotti fuorilegge? La cosiddetta «intelligenza artificiale» e il risveglio del diritto. https://doi.org/10.5281/zenodo.7953604
  11. Tang, X., Li, X., Ding, Y., Song, M., & Bu, Y. (2020). The pace of artificial intelligence innovations: Speed, talent, and trial-and-error. Journal of Informetrics, 14(4), 101094. https://doi.org/10.1016/j.joi.2020.101094
  12. World Intellectual Property Organization. (2019). WIPO Technology Trends 2019: Artificial Intelligence. World Intellectual Property Organization. ISBN 978-92-805-3007-0.

 

WEB REFERENCES

  1. Appen AI. (2019). What is Human-in-the-Loop Machine Learning? https://www.appen.com/blog/human-in-the-loop
  2. Benanti P., Landi M. (2024) Sermig – Università del Dialogo; L’intelligenza artificiale e le sue implicazioni, tra opportunità e sfide etiche,  https://www.youtube.com/live/GVH3rdOymHE?si=Um0g9f0oOn7wVB8B,
  1. Council of Europe. AI Glossary. Retrieved from Council of Europe.
  2. European Parliament. (n.d.). Che cos’è l’intelligenza artificiale e come viene usata? Retrieved from European Parliament.
  3. Eightfold AI. (2022). Eightfold AI’s 2022 Talent Survey. The Future of Work: Intelligent by Design,  https://eightfold.ai/wp-content/uploads/2022_Talent_Survey.pdf
  1. (13.03.2024). Figure Status Update – OpenAI Speech-to-Speech Reasoning, https://youtu.be/Sq1QZB5baNw?si=EZzXYxcJ-mfDm-HF
  2. (2019). AI transforming the enterprise: 8 Key AI adoption trends. Retrieved from KPMG
  3. McKinsey & Company. (2019). Tackling Europe’s gap in digital and AI. McKinsey Global Institute. https://www.mckinsey.com/~/media/mckinsey/featured%20insights/artificial%20intelligence/tackling%20europes%20gap%20in%20digital%20and%20ai/mgi-tackling-europes-gap-in-digital-and-ai-feb-2019-vf.pdf
  4. Perrigo B., (2023) OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less, https://time.com/6247678/openai-chatgpt-kenya-workers/, 2023, visited 13.03.2024
  5. The World Economic Forum. (2016, January). The Future of Jobs: Employment, Skills and Workforce Strategy for the Fourth Industrial Revolution. Retrieved from WEF.
  6. The World Economic Forum, “The Future of Jobs”, May 2023, https://www3.weforum.org/docs/WEF_Future_of_Jobs_2023.pdf visitato 13.03.2024
  7. Lorraine Charles, Shuting Xia and Adam P. Coutts, (2022) Digitalization and Employment, International Labour Organization, https://www.ilo.org/employment/Whatwedo/Publications/WCMS_854353/lang–en/index.htm , visitato 13.03.2024
  1. Sommella R. (2024), Padre Paolo Benanti, l’innovazione gentile, “Gentelmen”, https://gentleman.it/protagonisti/numeri-uno/padre-benanti-linnovazione-gentile/, visitato 28.05.2024
  2. Stanford Institute for Human-Centered Artificial Intelligence. (2023). AI Index 2023 Report, Chapter 6. Retrieved from HAI.
  3. Preliminary study on the ethics of artificial intelligence. Retrieved from UNESCO.
  4. United Nations Futures Lab Network, https://un-futureslab.org/, visitato 28.05.2024

 

Dott.ssa Elena Repman

(Dottoranda di ricerca in Management for Digital Transformation: Business, Communication and Ethics

Università “N. Cusano” Roma)