La tutela della privacy al tempo dell'intelligenza artificiale
- Riccardo Gianello
- 3 mar
- Tempo di lettura: 2 min
L'intelligenza artificiale (IA) sta trasformando il modo in cui viviamo e lavoriamo, offrendo soluzioni avanzate per problemi complessi in settori anche essenziali come l'automazione e l'analisi dei dati.
Tuttavia, questa rivoluzione tecnologica solleva questioni importanti riguardo alla privacy.
L'elaborazione di grandi quantità di dati personali, necessaria per il funzionamento di molte IA, comporta rischi significativi, tra cui la possibilità di violazioni della privacy, utilizzi non autorizzati delle informazioni e sorveglianza massiva non sufficiente alla enorme mole d’informazioni raccolte.

L’istruttoria del 31/03/2023 sul caso di ChatGPT tratta proprio questo tema.
Secondo il Garante Italiano la società statunitense OpenAI, creatrice e gestore del famoso chatbot d’intelligenza artificiale generativa, ha trattato i dati personali degli utenti per addestrare ChatGPT stessa; senza aver prima individuato un’adeguata base giuridica.
Violando il principio di trasparenza e i relativi obblighi informativi nei confronti degli utenti.
Questo modello implica che le informazioni degli utenti che possono essere anche di natura sensibili siano trasferite e archiviate in luoghi che potrebbero non garantire i livelli di sicurezza richiesti o essere soggetti a normative meno rigorose, inoltre, una gestione centralizzata dei dati può attirare l'interesse di malintenzionati, aumentando il rischio di attacchi informatici.
Una possibile soluzione a questi problemi risiede nello sviluppo di sistemi d’intelligenza artificiale che operano esclusivamente in locale. Questi sistemi eseguono l'elaborazione dei dati direttamente sul dispositivo dell'utente, eliminando la necessità d’inviare informazioni sensibili a server esterni.
Tale approccio offre vantaggi significativi in termini di privacy e sicurezza, riducendo i rischi associati alla condivisione e archiviazione dei dati su piattaforme di terze parti. Ad esempio, IA locali come (LM Studio, Ollama, CodeLlama) possono essere implementate nelle più svariate attività ad esempio:
- applicazioni per il riconoscimento vocale o facciale,
- analisi dei dati e gestione delle preferenze personali,
- come sistemi di gestione dinamica,
garantendo in qualsiasi momento che le informazioni rimangano sotto il controllo diretto dell'utente.
Con l'avanzamento della potenza di calcolo dei dispositivi personali consentirebbe giá oggi di eseguire modelli IA complessi senza compromettere velocità, efficienza e sicurezza delle informazioni.
Questo approccio non solo protegge la privacy, ma favorisce anche la conformità alle normative sulla protezione dei dati, come il GDPR in Europa, che come sappiamo introduce il principio della minimizzazione del trattamento dei dati personali per qualsiasi trattamento in essere.
In conclusione, l'intelligenza artificiale che opera in locale rappresenta un passo importante verso una tecnologia più etica e rispettosa della privacy. Se da un lato è necessario continuare a innovare e sviluppare nuovi strumenti IA, dall'altro è fondamentale garantire che il progresso tecnologico vada di pari passo con la tutela dei diritti fondamentali degli utenti.



