Risparmio e investimenti, ogni venerdì
Iscriviti e ricevi le notizie via email
«Come moderatore di contenuti per TikTok saresti stato licenziato». Ho appena terminato una simulazione al Transparency and Accountability Center (TAC) di Dublino, in occasione del TikTok European Trust and Safety Forum 2025, e non è andata come avrei sperato.
La stanza in cui ci fanno entrare si trova al quinto piano dell’edificio, in un angolo c’è uno schermo con una telecamera posizionata sopra. Mi sta inquadrando. Rileva i punti chiave del mio corpo (le braccia, la testa, le gambe e così via) e li traccia, così da seguire ogni mio spostamento. Su di un tavolo c’è un coltello finto di plastica, quando lo afferro l’intelligenza artificiale rivela la minaccia e la segnala. È a quel punto che interviene il moderatore, l’ultimo giudice che decide della vita o della morte dei video. Stavolta sarò io.
Nella parete accanto ci sono tre postazioni con dei computer, un trackpad e delle cuffie poggiate sul tavolo.
Mi siedo e inizio la sessione. Il primo video è di una bambina sopra una moto. Spunto la casella per contenuti al di sotto dell’età consentita (per avere un account sulla piattaforma cinese bisogna avere almeno 13 anni), ma anche quella di attività pericolose, visto che non indossa il casco. Il sistema mi conferma che la scelta è stata giusta. “Non sembra poi così difficile come mestiere”, penso.
Arriva poi un altro filmato. Anche in questo caso una ragazzina, sicuramente minorenne, che fuma. Tra le caselle delle violazioni che compaiono sullo schermo c’è quella del “tabacco” o “alcol”. La seleziono. È la scelta corretta.
Così abbiamo evitato che questi video potessero diventare potenzialmente virali e quindi creare un effetto emulativo per chi li avrebbe poi guardati. Non posso nascondere una certa soddisfazione. Ma poi arriva la terza clip. Si vede una famiglia spagnola attorno a un tavolo che beve. Nella caption appare “tequila” e si vedono diversi minorenni. Non ho dubbi, anche questa viola le linee guida di Tiktok. Ma invece no. Il sistema mi dice che si trattava in realtà di uno scherzo e che non c’è nessun contenuto offensivo. Mi ero sbagliato, stavano bevendo acqua. Per la fretta, o la superficialità, avrei impedito a un video innocuo di circolare.
Concedetemi allora un momento di riflessione, per apprezzare ancor di più la figura del moderatore, determinante in questo tipo di attività così delicate. E grazie all’intelligenza artificiale ha assunto un ruolo ancor più importante, perché la necessità che ci sia una persona a rivedere i contenuti è stata ridotta dal 76% (e quindi si può concentrare su meno casi e valutarli con attenzione). Inoltre, da quando si utilizza questo tipo di tecnologia è diminuita del 34% la percentuale delle decisioni sbagliate ed è raddoppiato il numero di violazioni rilevate. Insomma, l’IA ha permesso a TikTok di essere un ambiente più sicuro e controllato. Ma anche di migliorare la qualità del lavoro: pensate ai moderatori esposti a contenuti dannosi o violenti (e non quelli di cui vi ho parlato finora). Bene, le nuove tecnologie stanno portando a una rivoluzione del nostro ambiente virtuale, rendendolo più sicuro. Ed è per questo che Tiktok sta investendo bilioni di dollari nell’intelligenza artificiale. Resta da domandarsi se in futuro ci fideremo ancora delle nostre decisioni o rimetteremo anche quelle alla tecnologia.
© RIPRODUZIONE RISERVATA
