L’Agente Smith di Matrix diceva “mai mandare essere un umano a fare il lavoro di una macchina”, ma pare pure il contrario abbia ancora un suo fondo di verità, almeno per quanto riguarda la moderazione di YouTube. Con la pandemia, il colosso del video streaming aveva detto che avrebbe fatto maggiormente ricorso all’AI lasciando a casa una percentuale di moderatori umani, ma nei mesi a seguire questo ha portato a una crescita di errori e rimozioni ingiustificate.
Per mettere le cose in prospettiva: tra il mese di aprile e giugno sono stati rimossi oltre 11 milioni di video, più del doppio del solito. Su 320.000 ricorsi presentati, circa il 50% sono stati accolti e i video ripristinati; anche qui, un tasso quasi doppio rispetto alla norma. Insomma, i software di Google non sono sufficientemente precisi nel capire cosa vìola le linee guida e cosa no. con una tendenza a eccedere nello zelo.
YouTube ha ammesso che questo effetto era stato preventivato, ma che è stata la soluzione migliore date le circostanze per proteggere gli utenti finali. La dichiarazione è importante nell’ambito del dibattito sul ruolo dell’AI nella moderazione di contenuti online: i governi richiedono sempre più insistentemente strumenti più efficaci contro l’incitamento all’odio e la disinformazione, ma dall’altra parte le grandi piattaforme ribattono che la quantità di contenuti è semplicemente troppa per essere gestita da esseri umani. Spesso esperti di AI e moderazione hanno espresso scetticismo nei confronti dell’impiego troppo massiccio del machine learning, mentre le grandi piattaforme hanno sempre snocciolato numeri e statistiche positive; è una delle prime volte che da quella parte della barricata si ammette l’errore.