Non è più solo curiosità o entusiasmo per l’intelligenza artificiale, perché sempre più persone iniziano a fermarsi un attimo e chiedersi cosa succede davvero ai propri dati quando usano questi strumenti ogni giorno.
Per mesi chatbot come ChatGPT e Gemini sono entrati nella routine quotidiana di milioni di utenti. Risposte rapide, aiuto nello studio, nel lavoro, nella gestione di problemi pratici. Poi qualcosa ha iniziato a cambiare.
Non un crollo improvviso, ma un rallentamento. Più attenzione, più dubbi, meno condivisione automatica.
La privacy diventa il vero nodo
Secondo un report di Malwarebytes, il tema che sta emergendo con più forza è quello della privacy. Non solo come preoccupazione teorica, ma come comportamento concreto.
Il dato più evidente riguarda la percezione del rischio: circa il 90% degli utenti intervistati teme che l’AI possa utilizzare i propri dati senza un consenso chiaro.
Non è un dettaglio. È una diffidenza diffusa, che sta cambiando il modo in cui le persone usano questi strumenti.
Meno dati personali, meno fiducia
La conseguenza è immediata. Sempre più utenti evitano di inserire informazioni sensibili. L’88% dichiara di non condividere liberamente dati personali con chatbot come ChatGPT o Gemini.
Il dato diventa ancora più netto quando si parla di salute. L’84% degli intervistati evita di inserire informazioni mediche, un segnale chiaro di quanto il confine tra utilità e rischio sia percepito come sottile.
Non significa che l’AI venga abbandonata del tutto. Ma viene usata in modo più distaccato, più controllato.
I primi segnali di abbandono
Il cambiamento più interessante riguarda l’utilizzo nel tempo. Secondo il report, il 43% degli utenti ha smesso di usare ChatGPT, mentre il 42% ha fatto lo stesso con Gemini.
Non è detto che si tratti di un addio definitivo. In molti casi si tratta di un uso più sporadico, meno integrato nella quotidianità. Ma il segnale resta.
La fase dell’entusiasmo iniziale sembra lasciare spazio a un approccio più prudente.
Proteggere i dati diventa una priorità
Gli utenti non si limitano a essere diffidenti. In molti casi stanno cambiando abitudini digitali. L’82% cerca di evitare la raccolta dati quando possibile, il 71% utilizza un ad blocker, mentre il 46% ricorre a una VPN.
Alcuni scelgono anche soluzioni più drastiche, come inserire dati falsi o utilizzare servizi per la rimozione delle informazioni personali.
Non riguarda solo l’AI. Una parte degli utenti sta riducendo l’uso di piattaforme social come Instagram e Facebook, segno che il tema della protezione dei dati è più ampio.
Un rapporto ancora incerto con l’intelligenza artificiale
Il punto centrale resta la mancanza di chiarezza. Molti utenti non hanno ben chiaro come vengano utilizzati i loro dati e quali siano i reali benefici dell’intelligenza artificiale nella loro vita quotidiana.
Questa incertezza genera sfiducia. Non blocca del tutto l’uso, ma lo rende più prudente, meno spontaneo.
Le grandi aziende del settore continuano a sviluppare strumenti sempre più avanzati, ma il rapporto con il pubblico sembra entrare in una fase diversa. Meno entusiasmo, più attenzione.
Resta da capire se questa diffidenza porterà a un cambiamento stabile oppure se è solo una fase di assestamento. Intanto, il modo in cui le persone usano l’AI non è più lo stesso di qualche mese fa.








