Lo “scontro” che ha visti coinvolti la piattaforma di video sharing Tik Tok e il Garante della Privacy ha avuto inizio a seguito di una a dir poco tragica vicenda nella quale una bambina palermitana di 10 anni ha perso la vita a seguito di pratiche emulative messe in atto in relazione alla sua iscrizione e partecipazione alla suddetta piattaforma; iscrizione e partecipazione che non è stata mai smentita dallo stesso social.
Il Garante già a dicembre aveva contestato a Tik Tok una serie di violazioni.
Nello specifico, con nota del 15 dicembre 2020 il Garante aveva infatti aperto un formale procedimento, contestando a Tik Tok forti criticità in punto di applicazione del Regolamento cd GDPR, tra cui il profilo della corretta base giuridica applicata al trattamento dei dati personali dei suoi utenti, delle modalità di rilascio dell’informativa, del trasferimento dei dati all’estero, del periodo di conservazione dei dati, del rispetto dei principi di privacy by design e by default e, soprattutto, delle forme previste per verificare l’età anagrafica degli utenti medesimi con evidente riferimento, in particolare, ai minori.
Poco dopo, il 22 gennaio l’Autorità ha quindi disposto il blocco del social e quindi il trattamento dei dati degli utenti “per i quali non vi sia assoluta certezza dell’età e, conseguentemente, del rispetto delle disposizioni collegate al requisito anagrafico”.
È di febbraio invece la comunicazione di Tik Tok con la quale quest’ultima ha annunciato che progressivamente adotterà misure per bloccare l’accesso agli utenti minori di 13 anni e valuterà l’utilizzo di sistemi di intelligenza artificiale per la verifica dell’età.
In particolare, Tik Tok bloccherà tutti gli utenti italiani e chiederà di indicare di nuovo la data di nascita prima di continuare ad utilizzare l’app. Una volta identificato un utente al di sotto dei 13 anni, il suo account verrà rimosso. Oltre a ciò, è stato anche introdotto nell’app un pulsante che permette agli utenti di segnalare rapidamente e facilmente altri utenti che sembrano avere meno di 13 anni.
Per identificare con ragionevole certezza gli utenti sotto i 13 anni, successivamente a questa prima verifica, la società si è impegnata a valutare ulteriormente l’uso di sistemi di intelligenza artificiale. Poiché l’individuazione di tali soluzioni richiede un bilanciamento tra la necessità di accurate verifiche e il diritto alla protezione dei dati dei minori, la società si è impegnata ad avviare con l’Autorità privacy dell’Irlanda – Paese nel quale la piattaforma ha fissato il proprio stabilimento principale – una discussione sull’utilizzo dell’intelligenza artificiale a fini di “age verification”.
TikTok si è anche impegnata a duplicare il numero dei moderatori di lingua italiana dei contenuti presenti sulla piattaforma e da febbraio Tik Tok lancerà una campagna informativa sia sulla app che su altri canali. Sulla app, la società invierà notifiche push agli utenti prima di bloccarli, e li informerà sul requisito dell’inserimento dell’età. Verranno pubblicati anche dei banner per fornire link con informazioni sugli strumenti di sicurezza e su come cambiare le impostazioni del profilo da “pubblico” a “privato”. Sul web e sulla carta stampata la campagna si rivolgerà specificamente ai genitori, ribadendo, tra l’altro, il limite di età per l’iscrizione alla piattaforma.
Infine, allo scopo di rafforzare l’azione di tutela nei confronti dei minori, il Garante per la privacy avvierà sulle tv nazionali, in collaborazione con Telefono Azzurro, una campagna di sensibilizzazione con l’obiettivo di richiamare i genitori a svolgere un ruolo attivo di vigilanza e a prestare particolare attenzione al momento in cui verrà richiesto ai figli di indicare la loro età per accedere a Tik Tok.