Io (non) mi fido dell’Intelligenza Artificiale: e tu?
Come sempre accade quando un’innovazione tecnologica diventa pervasiva, siamo nel picco di Gartner, dove da un lato c’è chi è iper-esaltato, non scrive più una riga, ha licenziato tutti i renderisti e usa ChatGPT — rigorosamente quello gratuito — anche per fare il caffè. Il corollario del ciclo di Gartner, che osserva l’adozione delle tecnologie, […]
Come sempre accade quando un’innovazione tecnologica diventa pervasiva, siamo nel picco di Gartner, dove da un lato c’è chi è iper-esaltato, non scrive più una riga, ha licenziato tutti i renderisti e usa ChatGPT — rigorosamente quello gratuito — anche per fare il caffè. Il corollario del ciclo di Gartner, che osserva l’adozione delle tecnologie, è sempre l’esistenza di persone che resistono, che guardano all’innovazione con diffidenza e sospetto, che “non si fidano”, per arrivare fino a quelli che considerano l’adozione della tecnologia un tradimento della propria stessa professione, un motivo per finire nella lista nera e per essere bullizzato dai propri pari.
Se non mi credete, chiedete un’illustrazione a Midjourney e poi postatela in un gruppo di artisti. Oppure venite a vedere su LinkedIn quelli che ancora si lamentano quando parlo di BIM.
La sfiducia nei confronti della tecnologia è spesso giustificabile solo con l’ignoranza. Della tecnologia non bisogna “fidarsi”: bisogna approfondirla, comprenderla, analizzarla ed eventualmente evitarla perché:
- non è adatta a quello che dobbiamo fare;
- la sua performance è subottimale;
- i suoi creatori, proprietari o controllori sono figure di cui non ci fidiamo (è il caso ad esempio di applicativi che conservano e sfruttano i nostri dati).
Certe volte, per semplicità o per orgoglio, usiamo l’espressione “non mi fido” per intendere qualcosa che invece esula dai punti superiori. Ad esempio io non mi fido del ferro da stiro a vapore: semplicemente significa che, non essendo capace di stirare, padroneggio meglio una tecnologia più semplice (ferro da stiro della nonna con panno umido sotto) e non mi fido delle mie capacità se mi viene messo in mano uno strumento più complesso.
L’Intelligenza Artificiale è diversa da un ferro da stiro?
Parzialmente ne abbiamo parlato la scorsa settimana, affrontando marginalmente il concetto di Black Box. Per approfondire meglio il tema però, e capire se sia o meno corretto parlare di “fiducia” nei confronti dell’Intelligenza Artificiale, dobbiamo come sempre fare qualche passo indietro e farci le domande giuste sin dal principio. La prima delle quali ovviamente è…
…ma cos’è la fiducia?
Una delle figure di riferimento sul tema è Rino Falcone, attualmente direttore dell’Istituto di Scienze e Tecnologie della Cognizione (ISTC) del CNR, ex-Olivetti, e coordinatore proprio del gruppo T3: Trust Theory and Technology. Insieme a Cristiano Castelfranchi, professore ordinario di psicologia generale e anch’egli ricercatore al CNR, ha curato il capitolo “Trust: Perspectives in Cognitive Science” all’interno del Routledge Handbook of Trust and Philosophy (2020), edito da Judith Simon. Vediamo quali sono i principi della fiducia secondo i due studiosi e, parallelamente, come si applicano al nostro rapporto con una tecnologia.
La fiducia è un concetto soggettivo
In inglese si chiamano Cognitive Sciences, ma c’è un motivo se in italiano parliamo più volentieri di filosofia cognitiva: non c’è uniformità di approccio rispetto ai concetti di base e, tra questi, troviamo la fiducia. Nel loro contributo, Falcone e Castelfranchi affrontano il tema della fiducia come concetto complesso e, in relazione al dominio socio-cognitivo dell’intelligenza artificiale, spacchettano il tema in una serie di questioni:
- la fiducia nei confronti della tecnologia non è uno stato mentale singolo e unitario, ma può manifestarsi in modo frammentario a seconda di circostanze estremamente volatili;
- la fiducia è una valutazione che implica un aspetto motivazionale;
- il concetto di fiducia viene utilizzato per sfruttare l’ignoranza;
- la fiducia è e viene utilizzata come segnale;
- il concetto di fiducia non può essere ridotto né assimilato al concetto di reciprocità;
- la fiducia combina aspetti razionali e aspetti emotivi;
- è corretto applicare il concetto di fiducia non solo alle relazioni tra persone ma anche alle relazioni tra persone e strumenti e/o tecnologie.
Innanzitutto, la fiducia come attitudine del soggetto (chi deve decidere se fidarsi o meno) nei confronti del mondo o di altri agenti, è un ibrido di componenti cognitive e affettive, un atteggiamento composto che combina credenze e obiettivi. In altre parole, la decisione di “fidarci” o meno di una tecnologia incorpora le nostre convinzioni nei confronti di questa tecnologia ma anche le nostre aspettative nei confronti del futuro e una valutazione di coloro cui dobbiamo decidere se concedere o meno la nostra fiducia, una valutazione che incorpori il rischio di sbagliarci.
Ipotizziamo uno scenario.
Avete appena installato un videogioco gratuito sul vostro tablet e non vedete l’ora di iniziare a lanciare uccelletti grassi con la fionda. Il gioco però vi chiede di autorizzare l’accesso ad alcune parti del vostro tablet e la condivisione dei vostri dati con soggetti terzi. Nel compiere la mia scelta, entrano in gioco:
a) la mia conoscenza dello sviluppatore: se il gioco è sviluppato da un’azienda che mi ispira fiducia potrei essere più incline a concerede l’autorizzazione, mentre nel caso di un oscuro sviluppatore della Latveria potrei avere qualche dubbio in più;
b) i miei personali obiettivi: dato che si tratta di un gioco, potrei decidere che non ne valga la pena e quindi rinunciare, disinstallando il tutto, ma se la stessa domanda mi venisse posta da un’applicazione che mi serve per lavoro oppure da quella stessa applicazione in un momento in cui il mio bambino sta piangendo perché vuole giocare con gli uccelletti grassi?
c) una valutazione del rischio più ampia, perché se ad esempio l’applicazione viene installata su un tablet che non contiene dati sensibili potrei anche decidere di concedere l’autorizzazione senza troppe preoccupazioni, ma che fare quando su quel dispositivo ho installate anche le mie applicazioni bancarie?
La fiducia nei confronti di una tecnologia inoltre è un processo mentale e pragmatico, in cui gli interessi pratici tendono quasi sempre a prevalere su quelli teoretici. La nostra valutazione è un prodotto stratificato in cui la decisione di concedere alla tecnologia la nostra fiducia implica che si stabilisca una relazione sociale tra noi e la tecnologia stessa. La decisione di concedere alla tecnologia la nostra fiducia risulta sempre più radicata nelle relazioni sociali che risultano dall’instaurarsi di una relazione tra noi e la tecnologia stessa.
In altre parole, nella valutazione concorrono anche fattori esterni. Se tutti i miei amici stanno già giocando a quel gioco ad esempio, tutti hanno già acconsentito alle condizioni di utilizzo e nessuno di loro è stato rapito dagli alieni, sarò davvero io quella che rinuncia a giocare in virtù di quella che può sembrare una semplice paranoia?
Il peso della decisione in questo caso dipende in larga parte dalla fiducia che a sua volta io sono disposta a concedere alle fonti delle informazioni sulla base delle quali devo prendere la decisione stessa. In altre parole, se considero che i miei amici siano tecnologicamente dei deficienti probabilmente non mi convinceranno a installare una app.
Questa dinamica è particolarmente evidente nella relazione di fiducia che si è creata tra le persone e le reti di social media, fiducia assolutamente malposta ma la cui non concessione comporta oggi pesanti conseguenze dal punto di vista sociale, sia nella sfera personale che nella sfera lavorativa.
Il tema è stato ampiamente approfondito da Kate Crawford e Vladan Joler nella loro recente esposizione Calculating Empires, di cui ho parlato qui.
La fiducia nei confronti di una tecnologia, esattamente come la tecnologia stessa e la nostra fiducia nei confronti di altri umani, è un fenomeno dinamico: le nostre valutazioni e conseguentemente le nostre decisioni possono cambiare sulla base di successive e più approfondite interazioni con quelle tecnologie o con temi correlati, sulla base di nuovi eventi e sulla base dei nuovi pensieri che ne possano derivare.
Una volta pensavo che Elon Musk fosse un esperto di tecnologia, ad esempio.
Anche volendomi fidare… quanto mi fido?
Dire che qualcuno si fida di una tecnologia non è sufficiente, perché ci sono diversi livelli di fiducia e ad ogni livello corrisponde un livello diverso di adozione.
Il primo livello superficiale è quello che in realtà ha semplicemente un effetto sull’atteggiamento della persona rispetto alla tecnologia.
“Cosa ne pensi dell’Intelligenza Artificiale?”
Un secondo livello richiede una volontà di interazione superiore: basandoci sulle convinzioni che hanno determinato il nostro atteggiamento, incorporiamo elementi utilitaristici nel nostro ragionamento e facciamo le opportune valutazioni inserendo rischi, costi, opportunità, alternative e — soprattutto nell’ambito di alcune tecnologie — la conseguenza di non concedere la nostra fiducia. Più la tecnologia è pervasiva e invasiva delle nostre vite, più questo secondo livello può rivelarsi paradossalmente scollegato dal primo.
Il terzo livello è quello cui tutte le tecnologie ambiscono: non solo l’utente ha deciso di concedere loro la propria fiducia, ma ha deciso di affidarsi a quella tecnologia per uno o più attività. Questa fiducia può essere assoluta (non sono in grado né voglio portare avanti quell’attività in altro modo) e incondizionata (non so più nemmeno come mi viene restituito un risultato, ma concedo alla tecnologia un certo livello di infallibilità). Su questo tema, se ricordate, Yuval Noah Harari aveva qualcosa da dire nel suo Homo Deus e in particolare portava l’esempio di Waze.
Waze non è solo una mappa. I suoi milioni di utenti lo aggiornano costantemente su ingorghi, incidenti stradali e auto della polizia. Per questo Waze sa come dirottarvi dal traffico intenso e portarvi a destinazione attraverso il percorso più rapido possibile. Quando si arriva a un incrocio e l’istinto ci dice di girare a destra, ma Waze ci indica di girare a sinistra, gli utenti imparano prima o poi che è meglio ascoltare Waze piuttosto che le loro sensazioni.
A prima vista sembra che l’algoritmo di Waze ci serva solo come oracolo. Noi poniamo una domanda, l’oracolo risponde, ma spetta a noi prendere una decisione. Tuttavia, se l’oracolo conquista la nostra fiducia, il passo logico successivo è trasformarlo in un agente. Noi diamo all’algoritmo solo un obiettivo finale e lui agisce per realizzarlo senza la nostra supervisione. Nel caso di Waze, questo può accadere quando colleghiamo Waze a un’auto a guida autonoma e diciamo a Waze “prendi la strada più veloce per tornare a casa” o “prendi la strada più panoramica” o “prendi la strada che produce il minimo inquinamento”. Siamo noi a decidere, ma lasciamo a Waze il compito di eseguire i nostri comandi.
Infine, Waze potrebbe diventare sovrano. Avendo così tanto potere nelle sue mani e sapendo molto più di quanto noi sappiamo, potrebbe iniziare a manipolarci, a plasmare i nostri desideri e a prendere le decisioni al posto nostro. Ad esempio, supponiamo che, dato che Waze è così efficiente, tutti inizino a usarlo. E supponiamo che ci sia un ingorgo sul percorso 1, mentre il percorso alternativo 2 è relativamente aperto. Se Waze lo comunicasse semplicemente a tutti, tutti gli automobilisti si precipiteranno sul percorso 2, che sarà anch’esso intasato. Quando tutti usano lo stesso oracolo e tutti credono all’oracolo, l’oracolo diventa sovrano. Quindi Waze deve pensare per noi. Forse informerà solo la metà degli automobilisti che il percorso 2 è aperto, mantenendo l’informazione segreta all’altra metà. In questo modo la pressione si allenterà sul percorso 1 senza bloccare il percorso 2.
Mi fido sulla base di cosa?
Se è vero che la fiducia è un costrutto complesso, essa dipende dalle mie convinzioni in relazione a diversi temi, che Castelfranchi e Falcone in The Routledge Handbook of Trust and Philosophy circoscrivono a cinque ambiti:
1. il futuro. La fiducia si basa su un’aspettativa positiva composta da uno stato mentale motivazionale, che potremmo chiamare obiettivo, combinato con un insieme di convinzioni riguardo al futuro stesso. Questo significa che la mia decisione di accordare o meno la mia fiducia a una tecnologia dipende in gran parte da cosa ritengo di doverci fare ma anche da quanto ritengo che quelle attività siano importanti nel mio futuro e/o quanto ritengo che in futuro divenga predominante affiarsi a una determinata tecnologia per la mia attività.
Se siamo convinti che l’Intelligenza Artificiale diventerà una componente inevitabile delle nostre vite e delle nostre professioni, saremo necessariamente portati ad approfondire l’argomento e fare esperimenti affidando in questo modo alla tecnologia un certo livello di fiducia.
2. caratteristiche della tecnologia stessa, quali le sue abilità e capacità, o per lo meno la mia percezione rispetto a queste caratteristiche.
Se siamo convinti che MIdjourney sia bravissimo a renderizzare scene d’interno (attività sulla quale in realtà è empiricamente provato che sia più debole), saremo sempre più portati a concedergli la nostra fiducia e affidarci quindi a questa tecnologia per quella particolare attività.
3. il contesto in cui la tecnologia dovrà portare avanti i compiti delegati, incorporando ragionamenti sulle sue risorse, sulle fonti di supporto necessarie e possibili, su eventi esterni e altri elementi che potrebbero influenzare la capacità della tecnologia di portare a termine il risultato pur non essendo direttamente attribuibili alla tecnologia stessa.
4. le componenti di incertezza e rischio. Laddove il rischio è la possibilità prevista, calcolata e possibilmente valutata che qualcosa vada per il verso storto, l’incertezza rappresenta l’effettiva incognita e può derivare dalla mancanza di dati o da un’ambiguità rispetto ai dati disponibili ma in ogni caso la fiducia può aiutarci a superare questa incertezza, spesso arrivando a compromettere anche le oggettive valutazioni del rischio, che diventa in questo modo soggettivo.
La mancanza di lucidità rispetto ai rischi connessi all’adozione di alcune tecnologie, nella mia esperienza, è uno dei fattori predominanti nella mancanza di supervisione e, quindi, nell’insorgere di errori legati all’utilizzo di una specifica tecnologia.
5. la conoscenza di sé. La decisione di affidare o meno la propria fiducia a una tecnologia dipende anche dalla considerazione che il soggetto ha di sé rispetto all’ambito in questione: potrei non fidarmi di qualcosa perché ne ho scarsa competenza (io con il ferro da stiro) oppure fidarmi in modo quasi assoluto di una tecnologia per lo stesso identico motivo (sempre io con il navigatore dell’auto).
La fiducia nell’Intelligenza Artificiale
Se quanto detto fino ad ora è vero, la nostra scelta di affidare (o meno) un compito a una tecnologia, e l’estensione della delega che siamo disposti a concedere su una serie di temi, passa attraverso parametri soggettivi e oggettivi che la persona pesa in autonomia rispetto a una scala personale.
Individuare questi parametri non è banale e molti si sono applicati per fornire framework specifici, il più possibile oggettivi, su cui basare la propria decisione.
Tra questi, lo statunitense National Institute of Standards and Technology ha rilasciato una valutazione a nove fattori con un’infografica disegnata da Natasha Hanacek e questi fattori sono:
- l’accuratezza. Come abbiamo visto a più riprese, la fiducia nei confronti di un LLM come ChatGPT al momento è minata dal fatto che l’accuratezza nella risposta non è stata tra le priorità degli sviluppatori e ottenere risultati accurati è lasciato interamente sulle spalle dell’utente che deve ricorrere a complessi e circonvoluti settaggi solo per impedire al sistema di inventare risposte plausibili anziché ammettere di non conoscere la risposta a una domanda. A mio parere questa caratteristica del sistema è dolosa.
- l’attendibilità, strettamente collegata al punto precedente oppure, se intesa in senso statistico, legata alla possibilità di ottenere risultati coerenti e/o di replicare i comportamenti. Trattandosi di sistemi opachi, al momento è virtualmente impossibile replicare un risultato ottenuto tramite modelli di linguaggio. Questo, unitamente alla frequente mancanza di tracciamento dei passaggi all’interno della loro “scatola”, rende i sistemi altamente inaffidabili.
- la resilienza, intesa come la capacità di resistere alle avversità e/o di ripararsi dopo un danno o riorganizzarsi in autonomia è invece una delle caratteristiche fondanti dei nuovi sistemi basati su modelli di linguaggio: mentre con i ragazzi dell’Istituto Rizzoli tra il 2018 e il 2019 abbiamo assistito alla degradazione e rottura di Cleverbot, che nell’arco di un anno è passato dall’essere un interlocutore con improvvise tendenze fetish alla vera e propria allucinazione del linguaggio, GPT-3 ha cristallizzato l’apprendimento, impedendoci di romperlo.
- l’obiettività del sistema, strettamente legata al concetto di bias. Nonostante molto lavoro stia venendo fatto per ridurre i danni, è il sistema stesso che essendo fondato su una base statistica incorpora al proprio interno il bias in modo irreparabile e irreversibile.
- la sicurezza intesa in svariate accezioni, dalla sicurezza dei dati e delle informazioni che emergono durante le sue interazioni con l’utente (tema legato anche al parametro della privacy) fino alla sicurezza dell’affidare alcune decisioni al sistema;
- la spiegabilità, e abbiamo già visto quanto si sia lontani dal sogno dell’explainable AI;
- l’accountability, ovvero la possibilità di attribuire al sistema e/o ai suoi creatori la responsabilità delle azioni intraprese su consiglio, impulso o azione diretta del sistema.
Che diavolo stai dicendo, Willis?
Alcuni di voi, in relazione all’ultimo punto, staranno certamente pensando: “ma la responsabilità di chi usa uno strumento è sempre di chi lo utilizza, mai dello strumento!”
Nel caso dell’Intelligenza Artificiale, proprio in virtù della scarsa replicabilità dei suoi risultati e dell’estrema opacità dei suoi funzionamenti, questo purtroppo non è più così vero, per una serie di motivi che spiegava bene Stefano Quintarelli nel suo già segnalato libro sull’Intelligenza Artificiale del 2020 edito da Bollati Boringhieri.
In uno degli ultimi capitoli, proprio dedicato agli aspetti giuridici, viene fatta un’interessante analisi del concetto di personalità giuridica e si parte dal presupposto che non sia possibile assegnare tutta la responsabilità all’utente per due motivi già noti:
- il sistema è opaco e quindi non è possibile da parte dell’utente effettuare una completa e accurata due diligence sul suo funzionamento ma, al limite, all’utente si potrebbe imputare solo di avere utilizzato un sistema inaffidabile… ma non se tale sistema è disponibile sul mercato e pubblicizzato per assolvere a compiti quali quello per cui l’utente l’ha utilizzato;
- il sistema è volontariamente opaco: la responsabilità degli sviluppatori si aggrava nel momento in cui il sistema è per sua natura opaco.
“I sistemi di Intelligenza Artificiale prevedono forme di delegazione tali da rendere l’utilizzatore umano marginale rispetto al processo di decisione.”
In realtà esistono già, teorizza Quintarelli, sistemi di responsabilità che coinvolgono un atto compiuto da terzi e incorporano il livello di controllo che il soggetto poteva effettuare. Per analizzarli bisogna nuovamente affrontare un problema terminologico che incontriamo sempre durante la redazione di una matrice RACI e che esprime molto bene un nostro problema culturale: mentre l’inglese ha diversi termini per indicare diversi livelli di responsabilità (responsible, accountable, liable), noi dobbiamo usare perifrasi oppure orribili termini composti in legalese.
Ecco che quindi abbiamo la responsabilità causale (responsibility), ovvero l’Intelligenza Artificiale che fisicamente ha causato il danno, opposta alla responsabilità giuridica (liability), ovvero la nostra incognita: su chi ricade la colpa (e quindi la sanzione o la pena) in caso di errore? A sua volta queste due responsabilità si devono confrontare con un terzo tipo che potremmo chiamare responsabilità morale (accountability).
Scartiamo per cortesia l’ipotesi che la responsabilità giuridica possa ricadere sulla macchina come ente autonomo e autocosciente e che si possa sanzionare direttamente l’Intelligenza Artificiale, con disattivazioni temporanee o altre penalità buffe, perché è sempre in questo modo che inizia la guerra con i robot: attribuendo alla macchina delle responsabilità senza concederle i diritti che si riservano persino ad entità cui non viene riconosciuta piena coscienza di sé (gli animali).
Se il grado di controllo dell’utilizzatore umano viene mantenuto basso “by design”, il modello di responsabilità personale dell’utilizzatore deve necessariamente essere scartato o comunque rivisto.
“Il controllo umano significativo rappresenta un fattore necessario non solo all’attribuzione di responsabilità morale (accountability), ma anche giuridica in senso stretto (liability). Sono già molti i casi in cui un soggetto è ritenuto responsabile per un fatto illecito commesso con responsabilità indiretta.”
L’esempio che viene portato da Quintarelli, provocatorio ma efficace, è quello della responsabilità di un genitore rispetto ai danni commessi da un figlio, perché l’automatica ricaduta degli ultimi sulle spalle dei primi non è sempre vera: il genitore può fornire una prova liberatoria, ovvero dimostrare di aver fatto tutto il possibile per impedire che si verificasse il danno. Non è semplice, ma è possibile.
Questo ragionamento tuttavia è applicabile solo in un contesto all’interno del quale esista la possibilità di applicare un controllo umano significativo e quindi sia possibile dimostrare di “aver fatto” qualcosa perché quel “qualcosa” era possibile. Molti attuali sistemi di Intelligenza Artificiale al di fuori dell’Explainable AI non prevedono questo controllo.
“Se il controllo umano significativo di un sistema di Intelligenza Artificiale non fosse presente, da un lato non si vedrebbe il motivo di concedere la possibilità di una prova liberatoria (quali precauzioni potremmo adottare?), dall’altro saremmo davanti a una piena assunzione del rischio da parte dell’utilizzatore, il quale sarebbe completamente in balia delle scelte tecniche del produttore del sistema.”
Potremmo essere portati a pensare questa sia una giusta conclusione. Hai deciso di utilizzare un sistema su cui non avevi il controllo? Quel sistema ha sbagliato? Adesso ne paghi le conseguenze.
Il punto è però che quel sistema è stato commercializzato vantando certe capacità: la totale attribuzione di responsabilità all’utilizzatore è facilmente dimostrabile che sia iniqua.
Trasferendo la responsabilità degli errori dall’utilizzatore al produttore, il risultato virtuoso potrebbe essere che i produttori sarebbero costretti a sovvertire i principi che ci hanno portato a renderli responsabili, introducendo quel livello di significativo controllo e quella almeno parziale trasparenza sulla mancanza dei quali oggi i sistemi basano il loro appeal. In altre parole, non basterebbe più limitarsi a un piccolo disclaimer che dice “il sistema potrebbe dire il falso” oppure “l’immagine potrebbe contenere dei bias”, ma l’intero meccanismo di generazione dei risultati dovrebbe essere rivisto.
Alla gente non piacerebbe un sistema che ti fa mille domande di circoscrizione del dataset prima di generare una risposta o che, peggio ancora, dichiara di non conoscere quella risposta. Ma forse è quello di cui abbiamo bisogno.
…e quindi?
1. E quindi è corretto parlare di fiducia quando ci relazioniamo con l’Intelligenza Artificiale?
In virtù di quanto abbiamo detto fino ad ora sì, ma nel modo corretto e ricordandoci che ci sono diversi livelli di fiducia: quella che rimane al livello della nostra attitudine nei confronti del sistema, quella che governa le nostre interazioni con il sistema e quella in virtù della quale ci affidiamo completamente a quel sistema per una o più attività.
2. E quindi mi posso fidare dell’intelligenza artificiale dietro a LLM come ChatGPT?
In virtù di quanto abbiamo visto fino ad ora, no: il sistema, specialmente quello gratuito, presenta parametri molto bassi su molti degli indici proposti dal NIST, in particolare in relazione a spiegabilità, affidabilità, obiettività e, almeno nella versione gratuita, privacy.
3. Posso utilizzare un sistema di cui non mi fido?
Certamente, e lo facciamo di continuo proprio perché la fiducia è un costrutto complesso. L’importante è essere consapevole dei margini di delega che stiamo implicitamente affidando al sistema, dei margini di delega che siamo disposti ad affidargli per quali compiti, qual è il livello di controllo cui stiamo rinunciando trattandosi di sistemi opachi e quali sono i nostri piani di mitigazione dei rischi che tutto ciò comporta.
E voi? Per cosa vi fidate dell’Intelligenza Artificiale?