Nel profit un volto può essere solo un’idea.
Nel non profit, molto più spesso, un volto è un testimone.

Ed è qui che i volti generati dall’AI diventano un problema.

Uno studio del Journal of Advertising (Arango, Singaraju, Niininen, 2023) mostra un dato piuttosto netto: quando le persone capiscono (o anche solo sospettano) che il volto in un annuncio di raccolta fondi è sintetico, l’intenzione di donare crolla.

Perché? Non perché “la gente odia l’AI”. Ma per una catena psicologica molto concreta (il loro modello di mediazione seriale):

  1. si rompe l’empatia: se quel volto non è reale, la connessione emotiva si spegne;

  2. con l’empatia cala anche la fiducia;

  3. e soprattutto si riduce quello che lo studio definisce “senso di colpa anticipatorio”: quel disagio morale che immaginiamo di provare se ignoriamo una richiesta di aiuto. Quando il cervello può dirsi “non è reale”, trova una via di fuga e diventa più facile passare oltre.

Nel profit, invece, spesso funziona diversamente: l’immagine è “pubblicità” per definizione (quindi un certo grado di artificio è atteso); la fiducia può essere verificata dopo l’acquisto (reso, recensione, esperienza d’uso); il volto può servire più a posizionare che a testimoniare.

Nel non profit la donazione è un atto a fondo perduto: la fiducia deve reggere prima. E quando chiedi supporto per persone reali, l’asticella di autenticità è più alta.

Anche perché, nel clima attuale, l’immagine sintetica rischia di essere letta come “fake”: lo abbiamo visto anche in casi pubblici come Amnesty e le immagini AI usate (pur con disclosure) per raccontare violenze e proteste in Colombia nel 2023.

Quindi la domanda non è “possiamo farlo?”.
È: quanto ci costa in fiducia e in conversione, anche quando lo facciamo con buone intenzioni?

Se l’obiettivo è tutelare le persone, spesso funzionano meglio strade alternative:

  • fotografie reali non identificanti (contesti, mani, dettagli) + consenso e spiegazione chiara

  • illustrazioni non fotorealistiche (che non fingono di essere prova)

  • testimonianze, dati verificabili, impatto raccontato con continuità

Fino a qui lo studio di Arango. Eppure nella “vita reale” le cose non sembrano più così nette: alcune organizzazioni, anche in Italia, hanno iniziato a usare filmati e immagini generate dall’AI (con disclaimer o con palese evidenza): i risultati sembrano sconfessare le conclusioni dello studio o quanto meno raccogliere una risposta positiva del pubblico.

Le cose non sono così semplici, soprattutto quando si parla di immagini e video generati dall’AI: nelle vostre organizzazioni esiste già una policy su immagini AI in fundraising? Io ho la sensazione che al momento molte organizzazioni si stiano muovendo in questa direzione ma altrettante stiano alla finestra per vedere che cosa succede.

Questo lo studio di Arango per le persone più curiose: https://www.tandfonline.com/doi/full/10.1080/00913367.2023.2183285

Orignal Linkedin Post: https://www.linkedin.com/posts/almagio_nel-profit-un-volto-pu%C3%B2-essere-solo-unidea-activity-7439942650134302720-qvpy