Quando pensiamo all’intelligenza artificiale (AI), ci vengono subito in mente chatbot come ChatGPT, app di editing automatico, o assistenti virtuali che rispondono alle nostre domande in pochi secondi. Ma dietro queste tecnologie c’è molto di più: ci sono domande profonde, che riguardano la società, l’educazione e persino il nostro modo di pensare.
Ma cos’è davvero l’AI?
L’intelligenza artificiale non è “intelligente” nel senso umano del termine. Non ragiona, non ha coscienza e non prende decisioni come faremmo noi. Si tratta di un sistema che elabora enormi quantità di dati e prevede, attraverso calcoli statistici, quale parola o azione venga dopo. In pratica, è una macchina che imita il linguaggio e i comportamenti umani… Senza comprenderli davvero.
L’AI è neutrale? Spoiler: no.
Molti pensano che l’AI sia oggettiva e imparziale. Ma ogni tecnologia riflette le scelte, i pregiudizi e le prospettive di chi l’ha progettata e addestrata. I dati utilizzati per "insegnare" all'AI provengono dal mondo reale, un mondo fatto di disuguaglianze e stereotipi. Così, senza accorgercene, rischiamo di alimentare discriminazioni invece di combatterle.
Se l’AI ci risponde… ci fidiamo troppo?
Oggi usiamo l’intelligenza artificiale per chiedere consigli, informazioni o persino aiuto nei compiti. Ma quanto ci interroghiamo davvero sulle risposte che riceviamo? Le accettiamo come verità o ci fermiamo a riflettere? La velocità con cui l’AI ci restituisce risultati ci spinge ad agire sempre più in fretta, rischiando di mettere da parte il pensiero critico. Se ci abituiamo a delle risposte “già pronte”, perderemo la voglia di cercare, dubitare e imparare?
Un’AI per tutti o solo per pochi?
C’è poi un’altra questione importante: chi ha accesso all’AI? Non tutti, purtroppo. Le versioni più avanzate di queste tecnologie sono spesso a pagamento e non tutte le scuole, le aziende o le persone possono permettersele. Se l’AI diventa uno strumento di pochi, il rischio è che aumenti il divario tra chi ha risorse e competenze digitali e chi no.
Etica, educazione e governance: tre parole chiave
Secondo Fabrizio Degni, esperto di AI ed etica, il futuro di queste tecnologie dipende da tre pilastri fondamentali:
- Etica: decidere insieme cosa è giusto o sbagliato nell’uso dell’AI, evitando che il profitto venga prima del rispetto delle persone.
- Educazione: imparare fin da piccoli non solo a usare l’AI, ma anche a ragionare sulle sue conseguenze.
- Governance: costruire regole condivise, che rispettino le diversità culturali e sociali di ogni Paese, per governare l’AI e non esserne governati.
Allora, quale futuro vogliamo?
L’AI non è solo una tecnologia: è una scelta di società. Vogliamo un mondo dove le decisioni sono prese da pochi e delegate alle macchine, o un futuro dove le tecnologie siano un bene comune, costruito e gestito da tutti? Come dice la filosofia africana Ubuntu: “Io sono perché noi siamo”. Una frase che ci ricorda che anche nell’era dell’intelligenza artificiale, la vera forza rimane l’essere umano… Insieme agli altri.
E proprio per costruire questo “noi”, fatto di persone consapevoli e critiche, l’educazione ai media gioca un ruolo fondamentale. Per questo realtà come Zai.net – il più grande laboratorio giornalistico per studenti delle scuole superiori – si impegnano da oltre ventisette anni a trasformare le scuole in vere redazioni, dove i giovani imparano a leggere e interpretare l’informazione, diventando cittadini capaci di scegliere con la propria testa.
Progetta con Zai.net il tuo percorso PNRR: tutte le informazioni su www.schoolmedia.it.