Qualcuno che non conosci si è appena ucciso. Proprio adesso. Succederà di nuovo, tra quaranta secondi.

Nel 2017, all’ombra scomoda dei suicidi annunciati via Facebook (alcuni dei quali anche trasmessi in live-stream), l’omonimo social network ha inaugurato un nuovo programma di screening dei post degli utenti volto a prevenire potenziali atti suicidi. [Inserire inutile perifrasi di plauso alle buone intenzioni]. Stando a quanto rivelato, l’algoritmo setaccia le bacheche sulla base di molteplici criteri (parole chiave, tipologia di interazioni nei commenti, ecc.) e segnala i post più rilevanti a un team di prima risposta; il quale a sua volta individua quelli maggiormente a rischio e li inoltra a un secondo team di personale maggiormente qualificato. A seguito della seconda valutazione, il personale specializzato sceglie se allertare le autorità per un intervento.

Lo strumento è relativamente nuovo e la sua efficacia tutta da capire. Stando a quanto riportato dallo stesso Zuckerberg, nel 2018 l’algoritmo ha permesso al social network di raggiungere più di 3,500 persone bisognose di aiuto; non è chiaro però quanti di questi fossero dei “falsi positivi”, né è chiaro a cosa si riferisca esattamente questa cifra: ai post “flaggati” in prima istanza? A quelli inoltrati al personale qualificato? Agli interventi di polizia conseguenti alla seconda review? Per quanto il social network punti a essere trasparente nella costruzione dell’algoritmo, le ambiguità restano molte e investono anche il funzionamento del meccanismo: che tipo di addestramento riceve il personale deputato alla review? Per quanto tempo vengono conservati i dati raccolti dall’algoritmo? Vista la natura delle informazioni, c’è chi sostiene che su questo versante Facebook andrebbe trattato alla stregua di chi raccoglie dati medico-sanitari (con tutto quel che ne consegue in termini di responsabilità). A proposito: sono trascorsi circa quaranta secondi da quando hai iniziato a leggere questo articolo, da qualche parte qualcuno si è appena ucciso.

Le problematiche che nascono da questo strumento sono intuibili ed echeggiano le ben note criticità di qualunque intelligenza artificiale. Alcune pertengono al contenuto (che tipo di valore è estraibile da informazioni come queste e come viene gestito da Facebook?) altre allo strumento (lo stesso algoritmo adeguatamente “adattato” non è in fondo la miglior approssimazione dei precog di Minority Report?) e in generale rafforzano l’idea che a Menlo Park si sviluppi l’equivalente digitale delle armi nucleari al di fuori di qualunque reale controllo. Sono questioni complesse, delle quali in questa sede non vogliamo occuparci, ma che si riallacciano a un dibattito intenso sui “rischi e [le] potenzialità delle nuove tecnologie”.

In questo senso possiamo tirare un mezzo sospiro di sollievo: in Europa l’algoritmo non è stato implementato, nel timore che possa confliggere con le più recenti normative in materia di privacy. In effetti (e ora veniamo al punto dell’articolo) in Europa abbiamo qualcosa di un po’ diverso, una sorta di figlio minore del meccanismo di cui sopra. Per capire cosa intendo, vi basterà inserire nella barra di ricerca di Facebook alcune semplici parole-chiave come “suicidio” o “voglio morire”. Il browser vi restituirà quanto segue:

Per ora limitiamoci alla prima ipotesi, che è senza dubbio quella più delicata, e osserviamo come si sviluppa la risposta di Facebook.

“Parlare con un amico” potrà sembrare un suggerimento banale, ma (senza voler scendere nei dettagli) è un dato pacifico anche in letteratura che affrontare il proprio malessere entrando in relazione con qualcun altro sia la strategia di contrasto alla depressione che meglio incrocia efficacia e semplicità. Già qui però si ravvisa un primo segnale di allarme: la proposizione del messaggio pre-impostato, qualcosa che forse vuole intervenire lì dove l’imbarazzo ci impedirebbe di esprimere il nostro malessere ma che richiama troppo immediatamente il “Sono in riunione. Ti richiamo io.” da non suscitare qualche sospetto.

La seconda opzione è quella più irreprensibile, e possiamo solo esserne contenti, tanto più che certe informazioni non sono così immediatamente accessibili e averle a portata di mano è certamente utile.

Alla strada numero tre, però, è impossibile non storcere il naso: qui la risposta si riduce a un catalogo di “suggerimenti della nonna” che basterebbe mettere in bocca a un interlocutore per capire quanto siano discutibili.

Esplorando l’altra ipotesi iniziale (“Ricevi supporto per un amico”), nonostante i giusti consigli su come approcciarsi a una persona in difficoltà (corredati di simpatica/discutibile e-card con illustrazioni calme e pacifiche) le storture di cui sopra si specchiano perfettamente nella proposta finale di ricevere un “promemoria” sull’amico da aiutare; un utile strumento che assume senso solo in una concezione dei rapporti umani distorta e robotica, nella quale l’incolumità fisica di una persona a noi vicina assuma lo stesso peso del cartone di latte da comprare. Forse non sarà questo strumento a trasformarci in automi alienati l’uno dall’altro, ma di certo questo strumento presuppone che lo siamo.

È difficile non leggere l’intero meccanismo come il tentativo fallito di offrire un supporto “a tutto tondo”, che negli esiti assomiglia terribilmente a una sorta di Bandersnatch tanatologico: la pulsione di morte dell’utente è il punto di partenza di un percorso esperienziale, fondato su quei meccanismi di scelta e interazione tipici di un prodotto ludico, che diventano però molto discutibili se li immaginiamo offerti a qualcuno che in quel momento sta considerando di uccidersi. Di fronte al peggior desiderio autodistruttivo, Facebook ci suggerisce alternativamente di fare una passeggiata o parlarne con una persona qualificata – due opzioni equiparabili solo nella logica di un gioco perverso che consideri il suicidio come un fenomeno astratto, irreale. Nell’assecondare quel feticismo tipicamente digitale per la “gamificazione” di ogni esperienza, il social network sembra così perdere completamente di vista il proprio oggetto; che è poi un dramma individuale, difficilmente riconducibile a risposte preconfezionate.

Proprio perché un dramma individuale non può essere oggetto di eccessiva astrazione, non vogliamo certo ridicolizzare chi magari trova davvero conforto in uno dei suggerimenti di cui sopra; ma il rischio che quelle frasi vengano percepite come un modo per sminuire il malessere di chi legge sembra essere nettamente superiore; tanto più che molti di quei suggerimenti riecheggiano le classiche “risposte da non dare” a chi manifesti la propria depressione.

Ora: non è un mistero che l’apparente sensibilità a tematiche di ordine sociale sia spesso il cavallo di troia utilizzato da realtà imprenditoriali per portare avanti interessi di tutt’altro genere; se dovessimo giudicare la reale preoccupazione di Facebook per la salute mentale dei propri utenti a partire da questa cosa, potremmo solo che urlare: il Re è nudo, amici, nudo come un verme. L’appiattimento del dramma su una dinamica standardizzata, la convinzione che possa essere affrontato all’interno di una cornice ludica, dimostrano l’incredibile distanza che esiste fra noi e il fantasma impersonale che vorrebbe farsi carico della nostra salute.

Eppure il problema esiste ed è urgente: tanto più che sono passati circa duecento secondi da quando avete cominciato questo pezzo, e almeno cinque persone da qualche parte nel mondo si sono tolte la vita. Se c’è una risposta a questo stillicidio, però, difficilmente la troveremo nella moltiplicazione dei meccanismi di controllo a cui siamo già esposti, in una passeggiata nel bosco o in un pisolino.

Scritto da Luca Pappalardo

Luca Pappalardo nasce a Bergamo nel 1989 e in realtà si chiama Luca Marco. Scrive di diritto col suo nome esteso e anche di altre cose con quello ridotto. Ha scritto per Prismo, Not, Indiscreto, Isola Illyon e altri.