La visione di Hoffman sull’intelligenza artificiale e una domanda da porsi: che tipo di società vogliamo?

In un’epoca in cui l’intelligenza artificiale (IA) sta diventando sempre più pervasiva, Reid Hoffman, co-fondatore di LinkedIn, si dimostra decisamente ottimista sulle sue potenzialità nell’intervista al Riformista: il CEO di Linkedin discute il futuro dell’IA, sottolineando come essa rappresenti un’estensione tecnologica dell’umano, destinata a migliorare la nostra vita in vari settori, da comunicazione e medicina, fino all’istruzione e al mercato del lavoro. Tuttavia, mentre le IA vengono sempre più spesso utilizzate per prendere decisioni che impattano gli umani e le potenzialità sono sotto l’occhio di tutti, non sono altrettanto evidenti le ripercussioni che tali tecnologie avranno sulla vita delle persone, altrettanto importanti e sempre più spesso trascurate in nome di un necessario “progresso”.

Non si tratta solo di estendere le capacità umane, ma anche di creare una nuova infrastruttura che può essere usata per amplificare il potere umano per scopi non sempre nobili, come il controllo e la sorveglianza. Come tutti gli strumenti, l’IA può essere usata sia per il bene che per il male, e il nostro compito è assicurare che sia utilizzata nel modo più etico possibile. Gli algoritmi di IA sono solo tanto imparziali quanto i dati con cui sono alimentati, e se questi dati riflettono pregiudizi sociali, gli algoritmi possono perpetuare queste ingiustizie. Nella corsa verso l’innovazione dobbiamo fare in modo che l’IA non sia solo uno strumento per aumentare l’efficienza, ma anche un mezzo per costruire una società più equa e giusta.

Hoffman afferma che “per regolare l’IA, dobbiamo concentrarci, di volta in volta, su ciò che può risultare problematico” e questo è certamente vero, ma è altrettanto importante creare un quadro normativo proattivo per l’IA, in modo da prevenire problemi prima che si verifichino. La regolamentazione non dovrebbe essere vista come un ostacolo all’innovazione, ma come un modo per garantire che l’innovazione benefici a tutti, e non solo a un ristretto gruppo di imprese tecnologiche.

La parte più affascinante è quando Hoffman sostiene che “il mio consiglio ai giovani è quello di familiarizzarsi con le nuove tecnologie e di farlo nell’ambito delle materie e dei settori per i quali sentono di avere un interesse e una vocazione”: questo è un consiglio importante, ma non basta, perché è necessario fornire ai giovani le competenze necessarie per comprendere come l’IA funziona, come si possono sfruttare le sue potenzialità e come si possono mitigare i rischi associati al suo uso. Ecco perché è essenziale che l’educazione all’IA sia integrata nei curriculum scolastici.

La visione di Hoffman sull’IA nell’educazione è particolarmente interessante: immagina un futuro in cui ogni studente avrà un tutor IA “infinitamente paziente” nel proprio smartphone, che lo aiuterà a sviluppare il proprio potenziale. Questa visione è sicuramente affascinante e condivide molti punti in comune con l’idea di “apprendimento personalizzato” promossa da molti esponenti del settore e-tech. Tuttavia, si tratta di una visione che merita un’indagine più approfondita, non solamente per le questioni di privacy e sicurezza dei dati ma anche e soprattutto, come sottolineato da Audrey Watters autrice di “The Monsters of Education Technology”, perché l’apprendimento personalizzato può facilmente trasformarsi in un modo per standardizzare l’educazione, piuttosto che promuovere la creatività e la diversità.

In definitiva, mentre l’IA offre enormi opportunità, è essenziale che ci si concentri non solo su ciò che è possibile, ma anche su ciò che è auspicabile, perché non è sufficiente fare cose che possono essere fatte; dovremmo concentrarci su cose che dovrebbero essere fatte. Il futuro dell’IA non è un dato di fatto, ma dipende dalle scelte che facciamo oggi. La domanda che dovremmo porci non è solo “che tipo di IA vogliamo?”, ma “che tipo di società vogliamo?”.