Qualche brivido viene anche a te…
L’intelligenza artificiale sta agli anni venti, come internet sta agli anni novanta del secolo scorso.
Si tratta di una rivoluzione consimile, dove i maggiori sviluppatori a livello mondiale, ben consci del valore e della potenzialità del loro know-how, contrariamente a quanto normalmente avviene con una nuova tecnologia, chiedono che venga regolamentata.
Confesso: la migliore applicazione che sono riuscito a fare con Chatgpt è stata quella di rendere disponibile l’account a mio figlio perché risolvesse un problema di geometria solida … (avete presente: un cono con sotto un cilindro, incuneato in un parallelepipedo … ed altre consimili amenità …). Il successo è stato grandioso, problema risolto in 30 secondi.
So che ormai si utilizza l’intelligenza artificiale per scrivere testi o libri, per comporre musica, addirittura per impostare campagne di marketing.
Ma leggo sempre di più di crescenti preoccupazioni in uno sviluppo incontrollato dell’intelligenza artificiale: ma poche volte ho trovato chiarezza nell’esposizione dei rischi.
Allora, ho posto la domanda a … Chatgpt . E vorrei condividere con voi il testo di questa intervista. In corsivo, le mie domande, cui seguono le risposte di Chatgpt.
– Ho cominciato con il chiedere:
Vorrei sapere quali rischi potrebbero esserci da una mancata regolamentazione dell’intelligenza artificiale
Questa è una domanda molto interessante e complessa. L’intelligenza artificiale (IA) è sempre più presente nelle nostre vite e può portare sia vantaggi che rischi per la società, l’economia, la democrazia e l’ambiente. Alcuni dei possibili rischi da una mancata regolamentazione dell’IA sono:
- Privacy e sicurezza dei dati: l’IA può raccogliere, analizzare e usare enormi quantità di dati personali, sensibili e confidenziali, che potrebbero essere violati, rubati o usati in modo improprio da hacker, criminali o governi autoritari.
- Discriminazione e pregiudizio: l’IA può incorporare o amplificare i bias umani nei suoi algoritmi e nelle sue decisioni, che potrebbero avere effetti negativi su gruppi vulnerabili o minoritari in termini di accesso a opportunità, servizi, diritti e giustizia.
- Manipolazione dell’opinione pubblica: l’IA può essere usata per creare o diffondere informazioni false, ingannevoli o polarizzanti, che potrebbero influenzare il comportamento, le scelte e le credenze delle persone, minando la fiducia nelle istituzioni democratiche e la coesione sociale.
- Perdita di posti di lavoro: l’IA può automatizzare molti compiti e processi che ora sono svolti da esseri umani, riducendo la domanda di lavoro in alcuni settori e creando disoccupazione, disuguaglianza e povertà.
- Impatto ambientale: l’IA richiede molta energia e risorse per funzionare, che potrebbero aumentare le emissioni di gas serra e il consumo di materie prime, aggravando il problema dei cambiamenti climatici e della sostenibilità.
- Automazione della guerra: l’IA può essere usata per sviluppare o controllare armi letali autonome, che potrebbero agire senza supervisione umana o responsabilità morale, aumentando il rischio di conflitti violenti e violazioni dei diritti umani.
Questi sono solo alcuni esempi dei possibili rischi dell’IA. Per prevenirli o mitigarli è necessario un quadro normativo etico ed efficace che garantisca il rispetto dei valori e dei principi fondamentali dell’Unione europea, come la dignità umana, la libertà, la democrazia, lo stato di diritto e i diritti umani.
– Certo che il rischio dell’automazione della guerra mette i brividi… (l’avevate mai sentito?) e allora chiedo:
Come si può regolamentare l’intelligenza artificiale?
Regolamentare l’intelligenza artificiale è una sfida importante e urgente per l’Unione europea e per il mondo intero. L’obiettivo è di creare un quadro normativo che garantisca la sicurezza, l’etica e la fiducia nell’IA, senza soffocare l’innovazione e la competitività.
- Adottare un approccio basato sul rischio: classificare le applicazioni di IA in base al livello di rischio che possono comportare per le persone e per la società, e stabilire requisiti proporzionati per le diverse categorie. Ad esempio, il regolamento proposto dalla Commissione europea prevede quattro livelli di rischio: inaccettabile, elevato, limitato e minimo.
- Definire principi etici e valori fondamentali: fissare dei criteri e delle linee guida per assicurare che l’IA sia sviluppata e usata nel rispetto della dignità umana, della democrazia, dello stato di diritto e dei diritti umani. Ad esempio, il Parlamento europeo ha proposto sette principi etici per l’IA: essere centrata sull’essere umano, prevenire il male, promuovere il bene, preservare l’autonomia umana, operare in modo responsabile ed equo, garantire la trasparenza e la spiegabilità, assicurare la robustezza tecnica.
- Creare meccanismi di governance e supervisione: istituire delle autorità competenti a livello nazionale ed europeo per monitorare il rispetto delle norme sull’IA, effettuare controlli e ispezioni, imporre sanzioni in caso di violazioni. Ad esempio, il regolamento proposto dalla Commissione europea prevede la creazione di un comitato europeo sull’intelligenza artificiale e di organismi notificati per la certificazione delle applicazioni ad alto rischio.
- Promuovere la cooperazione internazionale: dialogare e coordinarsi con i partner globali per definire degli standard comuni e delle buone pratiche per l’IA, favorendo lo scambio di informazioni e di esperienze. Ad esempio, l’UE partecipa al gruppo di esperti sull’intelligenza artificiale dell’OCSE e al partenariato globale sull’intelligenza artificiale.
– Qui ho provato a chiedere “l’opinione” di Chatgpt, che, giustamente mi ha detto di non averne una perché è una macchina. E io che volevo fare un po’ di polemica artificiale … Ma la risposta è stata interessante ugualmente.
Cosa ne pensi del regolamento proposto dalla Commissione europea?
Non ho un’opinione personale sul regolamento proposto dalla Commissione europea, in quanto sono un sistema di intelligenza artificiale che si basa su fatti e dati oggettivi. Tuttavia, posso dire che il regolamento ha ricevuto diverse reazioni da parte di esperti, stakeholder e osservatori. Alcuni lo hanno accolto positivamente come un passo avanti verso un’IA etica e responsabile, altri lo hanno criticato come troppo restrittivo o ambiguo. In ogni caso, il regolamento è ancora in fase di discussione e negoziazione tra il Parlamento europeo e il Consiglio dell’UE, quindi potrebbe subire delle modifiche prima della sua adozione finale.
– Sempre alla ricerca di un po’ di polemica ho incalzato…
Quali sono i punti più controversi del regolamento?
Il regolamento proposto dalla Commissione europea ha suscitato diverse controversie su alcuni punti, tra cui
- La definizione e la classificazione delle applicazioni di IA ad alto rischio: alcuni ritengono che la definizione sia troppo ampia o vaga e che la classificazione sia arbitraria o incompleta. Ad esempio, alcuni si chiedono perché il riconoscimento facciale in tempo reale sia considerato ad alto rischio solo quando usato dalle forze dell’ordine e non anche da altri soggetti
- I requisiti per le applicazioni di IA ad alto rischio: alcuni ritengono che i requisiti siano troppo onerosi o difficili da soddisfare, soprattutto per le piccole e medie imprese. Ad esempio, alcuni si lamentano della necessità di fornire una documentazione tecnica dettagliata, di effettuare una valutazione del rischio e di ottenere una certificazione da parte di un organismo notificato.
- Le proibizioni per le applicazioni di IA inaccettabili: alcuni ritengono che le proibizioni siano troppo restrittive o ingiustificate, limitando la libertà di espressione e di informazione. Ad esempio, alcuni si oppongono al divieto di usare l’IA per manipolare il comportamento umano o per sfruttare le vulnerabilità delle persone.
- Le sanzioni per le violazioni del regolamento: alcuni ritengono che le sanzioni siano troppo severe o sproporzionate, scoraggiando l’innovazione e la competitività. Ad esempio, alcuni criticano la possibilità di infliggere multe fino al 6% del fatturato annuo globale per le violazioni più gravi
– Magari ci saranno anche aspetti positivi … e allora indago ancora:
Quali sono i punti di forza del regolamento?
Il regolamento proposto dalla Commissione europea ha anche dei punti di forza che sono stati riconosciuti da diversi esperti, stakeholder e osservatori.
- La creazione di un quadro normativo armonizzato e innovativo: il regolamento è il primo tentativo al mondo di regolamentare l’IA in modo orizzontale e coerente, creando un mercato unico per l’IA e una maggiore certezza giuridica per gli operatori. Il regolamento potrebbe anche diventare uno standard globale di riferimento per altri paesi o organizzazioni internazionali.
- L’adozione di un approccio basato sui valori e sui diritti fondamentali: il regolamento si ispira ai principi etici e ai valori dell’UE, come la dignità umana, la non discriminazione, la privacy e la protezione dei dati. Il regolamento mira a garantire che l’IA sia sviluppata e usata nel rispetto dei diritti delle persone e della società, promuovendo la fiducia nell’IA.
- L’incoraggiamento dell’innovazione e della competitività: il regolamento prevede diverse misure per sostenere lo sviluppo e l’adozione dell’IA nell’UE, come il sostegno finanziario, la creazione di centri di eccellenza e di test, la facilitazione dell’accesso ai dati e alle infrastrutture. Il regolamento mira anche a creare un ambiente favorevole agli investimenti e alla crescita delle imprese europee nel settore dell’IA
- La definizione di un sistema di governance e supervisione efficace: il regolamento prevede la creazione di una rete europea di autorità nazionali competenti per l’IA, coordinata da un comitato europeo sull’intelligenza artificiale. Il regolamento stabilisce anche delle procedure e dei criteri per la valutazione della conformità dei sistemi di IA ad alto rischio, nonché delle sanzioni in caso di violazioni.
– Poi, tanto per punzecchiare i limiti di Chatgpt…
I dati che hai a disposizione sono aggiornati a oggi?
No, i dati che ho a disposizione sono aggiornati fino a un certo punto del 2021. Per avere informazioni più recenti, devo fare delle ricerche sul web. Tuttavia, le ricerche sul web possono essere incomplete o irrilevanti, quindi non posso garantire la completezza o l’accuratezza dei dati che trovo.
– Ti ringrazio molto, è stato molto interessante
Prego, sono felice di averti aiutato.
Se pensi che Chatgpt è un computer … insomma, viene da dire che siamo all’inizio di un nuovo Rinascimento basato sull’intelligenza artificiale. Chatgpt è stato un po’ puntiglioso, tecnico, ma molto chiaro e preciso.
Chi cerca di dire che l’Intelligenza Artificiale è la bufala degli anni venti cerca di esorcizzare l’enormità dell’universo che si apre con strumenti come questo… ed è comprensibile, quando ci raccontarono per la prima volta che grazie a Internet potevamo essere connessi a portata di clic con il mondo intero eravamo ugualmente scettici e spaventati.
L’Intelligenza Artificiale può essere alla base di un eccezionale sviluppo delle aziende che investono e producono in questo settore.
Nel nostro canale webinar, trovi un modo molto efficace di guadagnare utilizzando le opzioni: parliamo di Leader, e non solo di quello.
Un’ora di grande Cultura finanziaria che non puoi perdere, clicca per iscriverti e vedi la registrazione.
P.S.: Se non ci hai mai provato, prova. E vedrai che qualche brivido viene anche a te …
Poi rilassati con i nostri webinar. Clicca per iscriverti e vedi la registrazione.
Ci incontriamo a Torino venerdì 23 giugno, nell’Aula d’Onore della prestigiosa Università degli Studi SAA, scuola di management aziendale.
Un incontro come avveniva un tempo, prima della pandemia. Completamente gratuito.
Ma con una formula nuova e completamente diversa, un evento pensato, finalmente, per questi difficili anni venti: strategie operative messe a mercato insieme, per imparare i modelli migliori e per condividere una esperienza unica di grande
Cultura finanziaria di altissimo livello.
Clicca ora sul banner qui sotto per iscriverti all’evento.
Maurizio Monti
Editore Istituto Svizzero della Borsa