Home Tecnologia La resurrezione dell’IA può trasformare il tuo dolore in “lavoro spettrale”

La resurrezione dell’IA può trasformare il tuo dolore in “lavoro spettrale”

47
0

L’intelligenza artificiale generativa sta diventando brava a far parlare i morti. La critica più recente non riguarda il fatto che sembri reale. Riguarda ciò che accade quando la voce, il volto e la presenza emotiva di una persona vengono ricostruiti in qualcosa che può essere riutilizzato.

In un articolo del 2025 in Nuovi media e societài ricercatori Tom Divon e Christian Pentzold chiamano questo “lavoro spettrale”. Il concetto inquadra la resurrezione dell’IA come una forma di produzione postuma, in cui una persona può continuare a “lavorare” sui propri dati dopo la morte. Ciò può accadere senza consenso e senza barriere chiare.

“Ciò che resuscitiamo potrebbe non essere ciò che ricordiamo, ma ciò che la tecnologia ci restituisce”. Questo divario è il motivo per cui l’output può sembrare meno una chiusura e più una copia modellata dal creatore di strumenti.

Le tre modalità della resurrezione

Divon e Pentzold hanno analizzato 51 casi di resurrezione di IA raccolti tra gennaio 2023 e 1 giugno 2024, negli Stati Uniti, in Europa, nel Vicino Oriente e nell’Asia orientale. Li dividono in spettacolo, uso sociopolitico e uso quotidiano del dolore.

Spectacle è la versione patinata, le icone sono riproposte per l’intrattenimento. I progetti sociopolitici invocano nuovamente i morti per testimonianza o messaggio. La modalità quotidiana è quella più intima, chatbot e media sintetici costruiti per simulare il contatto continuo. È anche il più semplice da normalizzare. Veloce.

Quando la presenza diventa un prodotto

La linea più netta del documento è la sua rivendicazione del lavoro. Gli autori scrivono che “i morti diventano fonti involontarie di dati, somiglianza e affetto”. In questa inquadratura, le tracce di una persona diventano materia prima, quindi una presenza vendibile che può essere estratta, distribuita e monetizzata.

In un saggio separato, gli autori sostengono che il disagio non riguarda solo il realismo. Si tratta di agenzia. Queste determine possono sembrare reattive pur essendo create dai suggerimenti, dalle modifiche e dalle regole della piattaforma di qualcun altro. Può sembrare personale ma non lo è.

Cosa dovresti fare adesso

La ricerca sostiene che il consenso, la privateness e le scelte di superb vita necessitano di un ripensamento poiché le tracce personali vengono ripiegate in sistemi generativi. La governance è ancora in ritardo rispetto alla rapidità con cui questi strumenti possono essere creati e condivisi.

Per te, la mossa pratica è trattare la tua voce, le tue immagini e i tuoi account come risorse. Decidi chi può accedervi e, ove possibile, metti tali istruzioni per iscritto.

Se stai considerando un servizio di “aldilà” basato sull’intelligenza artificiale, fai prima una domanda. Chi resolve cosa cube la tua versione futura.

fonte