Il Garante per la protezione dei dati personali, già a partire da novembre 2023, ha avviato una indagine conoscitiva sui siti internet pubblici e privati per verificare l’adozione di idonee misure di sicurezza adeguate ad impedire la raccolta massiva (il c.d. web scraping) di dati personali a fini di addestramento degli algoritmi di intelligenza artificiale (IA) da parte di soggetti terzi. L’indagine conoscitiva riguarda tutti i soggetti pubblici e privati, che operano in qualità di titolari del trattamento, stabiliti in Italia o che offrono in Italia servizi, che mettono a disposizione on-line dati personali liberamente accessibili anche dagli “spider” dei produttori di algoritmi di intelligenza artificiale. Diverse piattaforme di IA, attraverso il webscraping raccolgono, per differenti usi, enormi quantità di dati anche personali pubblicati per specifiche finalità (cronaca, trasparenza amministrativa ecc.) all’interno di siti internet gestiti da soggetti pubblici e privati.
Il web scraping è una tecnica che viene utilizzata per estrarre dati dalle pagine dei siti web, attraverso l’utilizzo di programmi software che automatizzano il recupero dei dati stessi. Si tratta quindi di una tecnica molto simile a quella utilizzata dai motori di ricerca come ad esempio Google, il quale tramite dei Bot, scandaglia la rete per analizzare i siti e indicizzarli, recuperando così dei dati utili per essere rielaborati al fine di proporre dei servizi che soddisfino i bisogni dei propri utenti. È come se questi dati venissero “raschiati” e asportati dai siti, infatti il verbo “to scrape” significa proprio “raschiare“. Una volta estratti, i dati possono essere archiviati in un database per poi essere rielaborati a seconda degli scopi dell’azienda. Non sempre l’utilizzo di tool per la raccolta massiva di informazioni è legale, specialmente se nei termini di utilizzo di un sito viene specificato che questo genere di tool e tecniche non sono ammessi.
Lo scraping oltrepassa la soglia della legalità quando i dati estrapolati vengono impiegati per altri usi, quali la pubblicazione di contenuti in violazione del diritto d’autore, l’utilizzo per scopi di lucro e in violazione delle regole sulla concorrenza, oppure nel caso di raccolta di dati personali per scopi commerciali (ad esempio per fare e-mail marketing con gli indirizzi estratti dai siti) all’insaputa e senza il consenso degli interessati.
Questo tipo di tecnica ha trovato visibilità solo dopo che l’IA ha iniziato a ad avere una rilevanza sociale importante nello scenario di evoluzione tecnologica, e che ha trovato i suoi elementi portanti proprio dall’utilizzo di questi software, che con una capacità di monitoraggio elevatissima, attraverso l’utilizzo di algoritmi, ha fornito enormi quantità di dati ai sistemi di IA.
Il Garante ha ben compreso che, per poter effettivamente avere contezza di quello che succede con i nostri dati raccolti tramite il web scraping, sarebbe stato opportuno approcciarsi in maniera “collaborativa con i collaboratori” della IA.
A breve, molto probabilmente avremo delle novità per noi fruitori dei siti web, ma soprattutto per i fornitori di tali servizi.
Per garantire la massima sicurezza e conformità normativa nella gestione dei servizi informatici della tua azienda, contattaci oggi stesso per richiedere un preventivo personalizzato. Siamo qui per supportarti nella tua strategia di compliance e protezione dei dati.
Commenti recenti