
Novità e trend
Aumento degli SMS del 655%: digitec connect durante il disservizio di WhatsApp
di Livia Gamper
Settimana difficile per Facebook. Alcune nuove rivelazioni da parte di un «segnalatore di irregolarità» mostrano la portata dei gravi abusi che l'azienda accetta in cambio di profitto. Il CEO Zuckerberg definisce le accuse fuorvianti.
Il colosso tecnologico californiano Facebook non godeva di una reputazione rispettabile nemmeno quindici giorni fa. Tuttavia, la sua popolarità è crollata ulteriormente negli ultimi giorni.
Il responsabile è un enorme scandalo di fughe di notizie pubblicato dal Wall Street Journal. Ancora prima del guasto della rete globale di Facebook, WhatsApp e Instagram all'inizio di questa settimana, queste rivelazioni hanno sollevato un polverone a livello internazionale.
Sotto il nome di Facebook Files, il giornale della borsa americana ha pubblicato le sue analisi basandosi su una montagna di documenti interni di Facebook trapelati da un segnalatore di irregolarità.
La scoperta più grave: l'azienda tecnologica, la cui infrastruttura digitale è usata quotidianamente da miliardi di persone in tutto il mondo, sa esattamente cosa va storto, ma non fa nulla a riguardo. E questo nonostante il fatto che alcune soluzioni siano davvero semplici e ovvie.
I seguenti punti sono particolarmente esplosivi.
I documenti condivisi dall'informatore dimostrano che su Facebook esiste una società a due livelli. Mentre gli utenti medi sono monitorati da algoritmi bot per il rispetto delle linee guida della community, le celebrità sono esentate da tali regole.
Infatti, la «polizia degli algoritmi» non è perfetta e spesso commette errori. Tuttavia, queste gaffe, che di solito sono imbarazzanti per Facebook, sono oggetto di grande attenzione solo da parte di persone particolarmente esposte. Quindi, proteggendo gli account importanti dal controllo dell'algoritmo, Facebook evita passi falsi visibili dell'azienda.
Il programma di whitelisting è conosciuto internamente come XCheck. Nel 2020, secondo il Wall Street Journal, 5,8 milioni di account hanno ricevuto un trattamento preferenziale attraverso il programma.
Ecco perché il calciatore brasiliano Neymar ha potuto mostrare in un video su Facebook nel 2019 le foto nude di una donna che lo aveva precedentemente accusato di stupro, senza subire conseguenze. Anche se mostrare foto di nudo di un'altra persona – senza il suo consenso – è severamente vietato, il post è rimasto online per un giorno intero e il profilo non è stato bloccato.
Secondo i documenti, Facebook sa che una tale società a due livelli è in netto contrasto con le linee guida dell'azienda. Ciononostante, non fa nulla a riguardo.
Studi interni di Facebook mostrano che per una ragazza su tre, i problemi con il proprio corpo sono aumentati a causa dell'utilizzo di Instagram.
Secondo i documenti, confrontarsi con le immagini presenti sulla piattaforma possono cambiare il modo in cui le giovani donne vedono e descrivono se stesse, al punto che il 13% dei giovani con pensieri suicidi li attribuirebbe a Instagram.
Secondo l'informatore, Facebook sopporta tutto questo. Pubblicamente, però, Mark Zuckerberg e il capo di Instagram Adam Mosseri si ostinano a sostenere il contrario. Nel marzo di quest'anno, Zuckerberg ha sottolineato al Congresso degli Stati Uniti che la ricerca ha dimostrato «che l'uso di applicazioni social per connettersi con altre persone può avere effetti positivi sulla salute mentale».
Oltre a tenere deliberatamente segreti gli effetti negativi dei suoi prodotti digitali, Facebook ha anche un grosso problema con la criminalità, soprattutto nei paesi in via di sviluppo.
La gamma di abusi qui è molto ampia.
In primo luogo, Facebook ha tollerato che i cartelli della droga in Messico usassero apertamente Facebook e Instagram per reclutare sicari e coordinare i campi di addestramento per allenarli.
In Africa, invece, si dice che Facebook funzioni come strumento di pubblicità e comunicazione per i trafficanti di esseri umani. Ad esempio, per attirare le vittime all'estero con la promessa di lavori lucrativi e tenerle lì in situazioni precarie di lavoro forzato – spesso come lavoratrici del sesso o nel servizio domestico. In alcune aree di conflitto come l'Etiopia o il Myanmar, si dice addirittura che Facebook sia stato usato sistematicamente per incitare alla violenza contro le minoranze etniche.
Inoltre, si dice che i dipendenti di Facebook abbiano denunciato internamente tutti questi abusi – e molti altri – ampiamente e regolarmente. Pertanto, nel Wall Street Journal si legge che c'è grande frustrazione per il fatto che l'azienda non stia facendo abbastanza per contrastare questa tendenza.
Tuttavia, Facebook comunica al mondo esterno che prenderà provvedimenti contro tali violazioni – e certi post e account vengono effettivamente cancellati. Ma invece di andare alla radice del problema e configurare il sistema in modo che i criminali non possano più usarlo, altri aspetti, come mantenere il numero di utenti, avrebbero più priorità.
Che Facebook presti così poca attenzione alla protezione delle persone nei paesi in via di sviluppo è molto grave. Si tratta dei paesi in cui Facebook sta ancora crescendo. Questo significa che il numero di potenziali vittime che cadono nelle grinfie dei cartelli della droga o dei trafficanti di esseri umani aumenta ogni giorno. Nel frattempo, si dice che gli sforzi di risoluzione dell'azienda rimangono costantemente deboli.
Nel 2018, Facebook ha lottato contro una tendenza preoccupante: le interazioni degli utenti sulla piattaforma sono diminuite.
La soluzione: Facebook ha riprogrammato l'algoritmo per favorire le cosiddette «Meaningful Social Interactions» («interazioni sociali significative»). Ciò significa che da questo cambiamento, il bot di Facebook valuta come più rilevanti i contenuti che generano molte reazioni, like, commenti o condivisioni. È quindi più probabile trovare questi contenuti sulla propria schermata Home.
Il problema di questa soluzione: i contenuti che provocano queste reazioni sono in gran parte post istigatori o controversi.
Il fatto che le Home di Facebook degli utenti siano quindi letteralmente inondate di disinformazione e contenuti violenti, offensivi o controversi, è stato discusso in documenti interni.
Gli scienziati dei dati dell'azienda avevano preparato varie soluzioni per provvedere al miglioramento. Tuttavia, il CEO e principale azionista di Facebook, Mark Zuckerberg, aveva deliberatamente rifiutato alcune di queste soluzioni, per paura che gli utenti avrebbero poi interagito meno con Facebook.
È stato solo dopo l'assalto al Campidoglio, lo scorso gennaio, che il gigante tecnologico è stato finalmente costretto a fare modifiche al funzionamento dell'algoritmo.
Facebook è stato a lungo indicato come «l'app per i vecchi», ma nemmeno Instagram gode di grande fama tra i giovani. Gli utenti più giovani preferiscono infatti sempre più TikTok o Snapchat.
Per contrastare questa tendenza, Facebook lavora da anni su vari progetti per attirare i bambini nell'incantesimo delle piattaforme social.
Già lo scorso marzo, Facebook voleva lanciare un Instagram per bambini. Questo piano è stato immediatamente criticato dall'opinione pubblica, ed è per questo che Facebook ha fatto marcia indietro su questi piani la scorsa settimana.
Ma i documenti trapelati mostrano che «Kidstagram» non era l'unico progetto per bambini dell'azienda. Dietro le quinte, si dice che Facebook abbia condotto studi per scoprire quali prodotti possono avere più impatto per bambini e adolescenti.
Ufficialmente i servizi di Facebook possono essere utilizzati solo a partire dai tredici anni.
Le rivelazioni del Wall Street Journal sono state pubblicate continuamente da metà settembre. Allora l'informatore era ancora sconosciuto, ma domenica scorsa ha mostrato il suo volto. Si tratta di Frances Haugen, una scienziata dei dati di 37 anni ed ex product manager di Facebook.
Ha lavorato per l'azienda tecnologica per due anni.
Haugen ha rilasciato una lunga intervista televisiva per il programma 60 Minutes sul canale CBS.
Oltre al Wall Street Journal, Frances Haugen ha passato i documenti anche al Congresso degli Stati Uniti e alla Securities and Exchange Commission del paese. Perciò è stata convocata a testimoniare davanti al Senato americano a Washington.
L'udienza ha avuto luogo questa settimana. Martedì, Haugen ha affrontato le domande dei legislatori. L'attenzione si è concentrata su come proteggere meglio la salute mentale dei bambini e dei giovani su Internet.
Durante l'udienza, Haugen ha chiesto una regolamentazione della rete migliore e più decisa. Inoltre, ha sottolineato che Facebook dovrebbe riconoscere la propria «bancarotta morale» prima che l'azienda possa riconquistare la fiducia del pubblico.
Mercoledì, Zuckerberg si è espresso in un lungo post su Facebook, nel quale ha fatto riferimento all'interruzione del servizio e alle rivelazioni della segnalatrice.
Zuckerberg dichiara che le accuse «non hanno senso». Secondo il post, se Facebook volesse semplicemente ignorare gli studi e le scoperte, non li commissionerebbe affatto.
Inoltre, Zuckerberg ha sottolineato che non è vero che Facebook metterebbe il profitto al di sopra del benessere e della sicurezza. È illogico che Facebook diffonda intenzionalmente contenuti che fanno arrabbiare gli utenti.
Le voci che chiedono una regolamentazione migliore nel settore tecnologico sono diventate sempre più forti negli ultimi anni. Resta da vedere se e come le ultime scoperte saranno incorporate nella legislazione.
«Io voglio tutto: le discese ardite e le risalite stordite, la crema in mezzo!» – queste parole di un noto personaggio televisivo statunitense rispecchiano pienamente il mio pensiero. Vivo secondo questa filosofia di vita anche a lavoro. In altre parole: trovo che ogni storia, dalla più insignificante alla più incredibile, abbia il suo fascino.