Molto prima dei feed dei social media o delle pubblicità mirate, mia madre diceva che la vita tende a mostrarti ciò che stai cercando. O la cosa di cui hai paura. O la cosa che continui a insistere di non volere.
Se stavi cercando di rimanere incinta, all’improvviso tutti intorno a te erano incinti. Se volevi mettere advantageous alla tua relazione, le riviste sugli scaffali del supermercato erano piene di consigli su come “ravvivare il tuo matrimonio”. Se eri single, notavi coppie ovunque.
Gli algoritmi di TikTok sapevano che ero bisessuale prima di me. Non sono l’unico.
All’epoca sembrava una sorta di psicologia popolare, un’osservazione sull’attenzione, sulla proiezione e sulle storie che ci raccontiamo durante i momenti di transizione. Niente di mistico. Solo la tendenza della mente a organizzare il mondo attorno alle sue preoccupazioni attuali.
Ma oggi, quella sensazione non è più solo nelle nostre teste: è computazionale, integrata nei sistemi che usiamo ogni giorno. Piattaforme come TikTok, Instagram e Google non riflettono solo ciò che notiamo; deducono attivamente chi siamo e cosa verrà dopo, in base a dati demografici come età e sesso, nonché a modelli comportamentali. E una volta deciso in quale fase della vita ti trovi, continuano a mostrartelo, che sia adatto o meno.
Sulle piattaforme social, gli utenti descrivono di essere stati tranquillamente introdotti attraverso un copione di vita ristretto e lineare, che spesso assomiglia a qualcosa come appuntamenti → fidanzamento → matrimonio → gravidanza → genitorialità. Questi sistemi presuppongono che gli utenti stiano progredendo lungo una traiettoria prevista. Quando le vite divergono da quel percorso, advert esempio dopo una rottura, durante l’infertilità, dopo un divorzio o per scelta, l’algoritmo spesso non riesce a ricalibrarsi.
Ciò che sembra una coincidenza o un fastidio è qualcosa di più strutturale: piattaforme che costruiscono una versione di identità che non si aggiorna, anche se la vita di una persona cambia.
Intrappolato in una fase della vita che non hai mai scelto
Sulle piattaforme social, gli utenti potrebbero comunque incontrare contenuti che non desiderano, nonostante abbiano ripetutamente disattivato le parole chiave o fatto clic su “non interessato”. La ricerca mostra che gli algoritmi di raccomandazione spesso si basano molto più sul coinvolgimento implicito, come il tempo di visualizzazione e i clic, che su segnali di suggestions espliciti, come nascondere o disattivare l’audio, il che significa che il sistema può continuare a servire la vita che qualcuno una volta cercava o si supponeva volesse.
Elisabetta Loshteorico dei media, studioso di retorica digitale e professore di studi inglesi e americani al Faculty of William and Mary, ha affermato che questa persistenza è radicata nel modo in cui vengono costruiti i sistemi di raccomandazione.
“Siti come TikTok e Instagram dipendono da modelli pubblicitari mirati e di raccolta dati che enfatizzano la segmentazione demografica”, ha affermato Losh, che è anche autore di Democrazia dei selfie: la nuova politica digitale di disgregazione e insurrezione. “[They] suddividere e suddividere il pubblico in base al sesso, all’età, alle lealtà politiche e advert altre categorie, ai bisogni e ai desideri di produzione per ogni fase della vita.”
Tali fasi spesso riflettono aspettative culturali piuttosto che la reale diversità degli utenti. Gli inserzionisti trattano transizioni come il matrimonio, la fertilità e la genitorialità come momenti di consumo advert alto valore, incentivando le piattaforme a classificare gli utenti in categorie di fasi della vita da cui è difficile uscire una volta assegnate.
“Puoi vedere come questi presupposti rimangono bloccati”, ha detto Losh. “Il potere persuasivo degli stessi algoritmi di raccomandazione continua a rafforzare traiettorie di vita standardizzate.”
Come l’algoritmo determine chi sei
Le piattaforme raramente spiegano come deducono la “fase di vita” di un utente, ma lo scorrimento stesso è un dato.
TikTok lo ha riconosciuto il tempo trascorso a guardare un video ha un peso maggiore rispetto alla maggior parte degli altri segnali nel suo sistema di consigli. Anche una pausa dovuta a curiosità, confusione o disagio può essere interpretata come interesse. Una volta che un sistema associa un utente a una categoria, i contenuti simili possono rapidamente crescere a dismisura.
Lauren Kleinprofessore di Information & Resolution Sciences e inglese alla Emory College e coautore di Femminismo dei datiafferma che queste inferenze riflettono le norme storiche di genere molto più dei “dati degli utenti” neutrali.
“In molti casi, età e sesso sono gli unici dati che le aziende conoscono sui propri utenti”, ha affermato Klein. “In assenza di [a] segnale significativo, i designer si basano su ciò che presumono che qualcuno di una particolare età e sesso vorrebbe vedere.”
Tali presupposti sono modellati da aspettative culturali di lunga knowledge sulla vita degli utenti, comprese quelle relative alla bellezza, alla partnership, alla riproduzione e alla cura.
Rapporto sulle tendenze mashable
Poiché i sistemi di raccomandazione e di pubblicità sono orientati al profitto, ha aggiunto Klein, c’è poco incentivo a contestare le impostazioni predefinite che sembrano funzionare bene.
“Queste aziende sono inspire dai propri profitti”, ha affermato. “Se i contenuti predefiniti della fase di vita sembrano generare coinvolgimento o acquisti, non vi è alcun obbligo di considerare altri desideri o preferenze.”
Quando il feed di TikTok contraddice la realtà
Emergente ricerca lo suggerisce sistemi algoritmici fare di più che abbinare gli utenti ai contenuti; stanno anche plasmando le identità delle persone.
Ricercatori descriviamo questo fenomeno come “persistenza algoritmica”, in cui i sistemi continuano a servire contenuti legati a una presunta identità molto tempo dopo che non sono più applicabili. Klein osserva che, poiché i sistemi di raccomandazione sono ottimizzati per il coinvolgimento piuttosto che per la precisione, hanno pochi incentivi a ricalibrarli a meno che il comportamento degli utenti non cambi in modo significativo, qualcosa che molte persone non sanno come fare o addirittura non si rendono conto che sia necessario.
“C’è un ulteriore meccanismo di rinforzo sociale”, ha detto Klein, aggiungendo che gli utenti ricevono già messaggi costanti su ciò che dovrebbe interessargli. “L’algoritmo amplifica quella pressione.”
Nel corso del tempo, questo crea una sorta di disciplina ambientale, la tecnologia spinge gli utenti verso una versione dell’età adulta che potrebbero non desiderare, a cui non possono accedere o che hanno già superato.
“L’isolamento dello scorrimento personale è una sorta di ‘tecnologia del sé'”, ha detto Losh. “Incoraggi sottilmente le persone a regolarsi secondo i copioni sociali dominanti.”
Prestazioni, gioco e limiti strutturali
Se la persistenza algoritmica spiega perché gli utenti rimangono “bloccati” vedendo contenuti irrilevanti, le prestazioni aiutano a spiegare perché respingerli non li libera necessariamente.
Le piattaforme video in formato breve sono costruite attorno alla visibilità e al gioco. Gli utenti duettano, cuciono, parodiano ed eseguono sé alternativi. I creatori queer sperimentano il genere; altri si impegnano in quello che Losh chiama “scambio generazionale”, eseguendo versioni esagerate di genitori o anziani. La cultura della commedia e del remix offre modi altamente leggibili per criticare i copioni di vita dominanti.
Questa visibilità non è priva di significato. Losh osserva che queste piattaforme hanno creato spazio per esperienze una volta thoughtful uncommon o invisibili: genitori intersessuali che documentano le loro vite, persone che parlano apertamente di gravidanza ectopica o asessualità, lavoratrici del sesso che condividono la realtà poco affascinante del loro lavoro. Altre forme di narrazione relazionale – come contenuti sui matrimoni coloration lavanda o l’ascesa dei “guncles” – sfidano silenziosamente i copioni familiari eteronormativi attraverso l’umorismo e l’affetto piuttosto che la discussione.
Ma la visibilità, avverte Losh, non è la stessa cosa del cambiamento strutturale. Anche se le piattaforme diventano sempre più abili nell’identificare e amplificare le contro-narrazioni, continuano a circolare all’interno di algoritmi ottimizzati per classificare gli utenti in categorie commerciabili. Ciò significa che i contenuti del matrimonio diventano contenuti del matrimonio queer o i contenuti familiari diventano contenuti familiari non tradizionali. L’identità può cambiare, ma la logica delle fasi della vita rimane intatta. In questo senso, la personalizzazione non elimina tanto il copione quanto lo adatta.
La playlist guidata di Spotify ti consente di microgestire il tuo algoritmo
All’interno dei sistemi di raccomandazione, la critica non innesca correzioni in modo affidabile. Poiché il coinvolgimento stesso è il segnale principale – tempo di visione, interazione, ripetizione – anche i contenuti destinati a sfidare la narrazione del ciclo di vita possono essere assorbiti come prova di interesse nei suoi confronti. Una parodia della cultura del matrimonio può ancora essere registrata come impegno nei confronti del contenuto del matrimonio; una confutazione delle norme genitoriali può circolare insieme al materiale stesso che critica.
Perché è così difficile resettare il tuo algoritmo?
L’identità algoritmica non è qualcosa che gli utenti possono aggiornare con un solo clic. I dati sulla formazione riflettono il passato. Gli incentivi al profitto favoriscono ampie categorie. E i sistemi di raccomandazione sono costruiti per ottimizzare i cicli di coinvolgimento, non per riflettere la vita complessa e non lineare dei loro utenti.
Progettare per persone che non vogliono figli, che sono co-genitori, che sono queer o poliamorosi, o che entrano ed escono da una relazione richiede tempo, cura e volontà di sfidare i presupposti predefiniti.
“Ci vuole più lavoro per progettare per gli utenti ai margini”, ha affermato Klein. “Ma questi utenti spesso rivelano dove i sistemi si guastano.”
Alla domanda su come potrebbe essere un sistema di raccomandazione più femminista o equo, la Klein si è mostrata scettica.
“Non sono sicura che esista un meccanismo pubblicitario femminista”, ha detto. “Ma un principio femminista che possiamo prendere sul serio è il rifiuto.”
Per le piattaforme, ciò significherebbe consentire agli utenti di disattivare gli annunci mirati, consentire loro di nascondere la propria età o sesso senza penalità, evitare impostazioni punitive sulla privateness e offrire agli utenti modi per segnalare cambiamenti nella vita senza innescare automaticamente nuove ipotesi.
Per ora, la maggior parte delle piattaforme offre una trasparenza limitata e un controllo poco significativo.
Convivere con il ritardo algoritmico
L’algoritmo è in ritardo rispetto alla vita reale. Si aggrappa a chi period qualcuno – o a chi ha deciso che fosse – perché aggiornare quell’identità è meno redditizio che spingerla avanti.
Per gli utenti, questo ritardo spesso rispecchia lo stesso copione di vita ristretto che la società ha imposto da tempo. La novità non è la pressione, ma l’infrastruttura che la fornisce.
Il feed non rispecchia la realtà. Rafforza una sceneggiatura familiare, che si adatti o meno.












