🎞️ Negli ultimi giorni, sulle timeline dei social che frequento, stanno riecheggiando due notizie: da una parte il lancio al pubblico di Sora, il modello di generazione video di OpenAI, e dall’altra un video generato da tramite intelligenza artificiale che vede convolti Elon Musk e Giorgia Meloni in un bacio appassionato.

🎬 Il video è palesemente falso, certo, ma ci pone davanti a una domanda cruciale: come possiamo distinguere ciò che è vero da ciò che è manipolato in un mondo dove la generazione di contenuti falsi è a portata di chiunque?

🚀 Un tempo, mettere in dubbio l’allunaggio richiedeva citazioni di complotti orchestrati da grandi poteri come la NASA, la CIA e persino Stanley Kubrick. Oggi, bastano investire poche migliaia di euro in hardware o qualche centinaio in abbonamenti con una tecnologia come Sora per creare immagini o video perfettamente credibili.

🤖 Questo non è solo un problema tecnico, ma un vero e proprio terremoto per chi, come giornalisti, attivisti o organizzazioni non profit, costruisce il proprio lavoro sull’autenticità e sull’affidabilità delle testimonianze. In un mondo in cui “lo dice la televisione” non basta più, questa nuova rivoluzione tecnologica rende sempre più fragile il confine tra ciò che è reale e ciò che non lo è.

Questa fragilità si acuisce laddove mancano gli strumenti culturali per interrogarsi sull’autenticità dei contenuti. Nei contesti polarizzati e polarizzanti come i social media, i bias amplificano questa debolezza, agendo come filtri che annebbiano lo sguardo critico necessario per valutare l’affidabilità delle fonti e delle informazioni. La tentazione di credere a ciò che conferma le nostre convinzioni preesistenti si intreccia con la velocità e la viralità del digitale, trasformando la disinformazione in un problema strutturale.

📒 Per me, la risposta non può che passare attraverso l’educazione al digitale e la diffusione di una cultura della verifica. Non possiamo fermare l’innovazione, ma possiamo formare cittadini e cittadine più consapevoli, capaci di decifrare ciò che vedono e di contestualizzare ciò che leggono. Questo non è solo un compito per le scuole o per i media, ma per tutti noi che viviamo e lavoriamo in questo ecosistema.

Oggi più che mai, chi opera nel terzo settore e nella tutela dei diritti deve chiedersi: come possiamo garantire la credibilità delle nostre comunicazioni? E come possiamo educare il nostro pubblico a riconoscere la verità?

Sora, e le tecnologie di questo tipo, sono un esempi straordinari di come l’intelligenza artificiale possa potenziare la creatività, ma ci ricordano anche che l’etica deve rimanere il nostro faro. Non si tratta solo di “creare”, ma di proteggere la fiducia su cui si fondano le relazioni umane.

👉 Quali sono secondo voi le strategie più efficaci per affrontare questa sfida? Parliamone.👇

Original LinkedIn Post: https://www.linkedin.com/posts/almagio_negli-ultimi-giorni-sulle-timeline-activity-7272587288755269632-o7ik