15.8 C
Lucca
venerdì 3 Aprile 2026
Segnala a Zazoom - Blog Directory
spot_img

Sembrano cartoni, ma sono pieni di violenza: “Tenete i bambini lontani dalle storie di frutta su TikTok”

“Tenete i bambini lontani dalle Storie di frutta su TikTok”. Sempre più creators allertano i genitori su quelli che sembrano innocenti cartoni animati e invece sono una minaccia concreta per la psiche dei più piccoli. Li chiamano “Fruit Drama” o “Storie di frutta” e sono l’ultima, inquietante, frontiera dell’Ai Slop, contenuti spazzatura generati in pochi secondi dalla intelligenza artificiale.

Ognuno di questi brevi video mostra e normalizza relazioni tossiche, tradimenti continui e scene di violenza spingendosi fino allo stupro. Contenuti che un tempo sarebbero stati contrassegnati da un bollino rosso e oggi sono invece liberamente disponibili sui social, mascherati dalla immagine “rassicurante” di personaggi di frutta umanizzati. In una scena una fragola scopre il tradimento del marito, piange, lo affronta. Lui la strangola.

Le “Storie di frutta” danneggiano la mente dei bambini non solo per il contenuto, ma anche per la grafica e le tecniche di produzione. Tutti questi video sono realizzati con colori estremamente accesi, enfatizzano i fisici perfetti e utilizzano un montaggio pensato per iperstimolare il cervello di chi guarda, caratterizzato da rapidi e costanti cambi di scena.

La soap opera di frutta

Il profilo protagonista di questo fenomeno è @ai.cinema021, un account anonimo che ha iniziato a pubblicare episodi il 13 marzo 2026 e in nove giorni ha raggiunto 3,1 milioni di follower. I like totali hanno già superato i 23,5 milioni. I singoli episodi macinano tra i 10 e i 34 milioni di visualizzazioni ciascuno. A fine marzo il profilo è stato bannato permanentemente dopo rimozioni massive di video (metà del catalogo sparito il 27 marzo), per violazioni su utilizzo di Ai non segnalato, engagement artificiale e contenuti controversi.

Numerosi account anonimi hanno replicato il format sotto forma di varianti come “Ai Fruit Island” o “Fruit Love Island”, scimmiottando il nome di un celebre programma televisivo.

Dietro non c’è uno studio di animazione, né un team creativo strutturato. Ogni episodio viene prodotto in circa tre ore principalmente attraverso due strumenti di generazione video: Kling e Luma Dream Machine, piattaforme che trasformano prompt testuali in sequenze animate dall’aspetto morbido, colorato, rassicurante. Il risultato è una soap opera con protagonisti pezzi di frutta antropomorfi costruita su drammi domestici che, appena si gratta la superficie, rivelano contenuti molto disturbanti.

Le trame che conquistano i più piccoli

La struttura narrativa è sempre la stessa: una coppia di frutta, spesso una fragola-moglie e un marito-banana, vive vicende da telenovela. I tradimenti sono il tema centrale. La fragola-moglie scopre che il marito la tradisce con un’altra. Oppure è lei ad avere una relazione segreta, da cui nasce un “figlio ibrido viola” — un elemento che, come si vedrà, porta con sé implicazioni di discriminazione razziale implicita.

Le trame incorporano gravidanze non consensuali, presentate come conseguenza naturale di rapporti forzati. Ci sono mariti che picchiano, strangolano, aggrediscono le proprie mogli-frutta davanti agli spettatori, genitori che prendono a cattive parole i figli davanti ad altri passanti antropomorfi.

Il paradosso è nella confezione. Tutto appare morbido, colorato, quasi rassicurante. I movimenti sono fluidi, le voci sintetizzate hanno un timbro neutro e tranquillo. Niente che segnali, a prima vista, un contenuto inappropriato, soprattutto in una società che tende a farsi un giudizio dei contenuti nei primissimi istanti di fruizione.

I figli “ibridi”

La presenza di figli “ibridi” che vengono mostrati come sbagliati o anormali non è frutto di una scelta narrativa consapevole del creatore, ma probabilmente il risultato di bias nei modelli di generazione video — che tendono a codificare come “anomala” la mescolanza di caratteristiche diverse.

Leggi anche: L’Ai ragiona come noi… ma chi è davvero quel “noi”?

Per un bambino che guarda senza strumenti critici, però, il messaggio che passa è lo stesso.

Il parallelo con Elsagate è immediato. Nel 2017, YouTube fu investita da migliaia di video che mostravano personaggi amati dai bambini — Elsa di Frozen, Spider-Man, Peppa Pig — in contesti violenti, sessuali o abusivi. Quei canali finivano per scelta nell’algoritmo Kids, raccogliendo milioni di visualizzazioni prima che la piattaforma intervenisse rimuovendo oltre 150.000 video e chiudendo 270 account, come ha documentato Wired in un’inchiesta del maggio 2025. Nel 2026, lo stesso meccanismo si ripete con una differenza sostanziale: la produzione è automatizzata e il volume di produzione è molto più difficile da contenere.

Perché funziona su TikTok e il brain rot sui bambini 

L’algoritmo di TikTok è costruito per massimizzare il tempo di visione, non per valutare l’adeguatezza dei contenuti rispetto all’età di chi li guarda.

In questo senso i “Fruit Drama” hanno tutti gli ingredienti per passare i filtri automatici ed essere spinti nel For You Page (Fyp) dei più piccoli: estetica cartoon, ritmo veloce, colori saturi, nessuna parola esplicitamente vietata.

La ricerca sull’Italian brain rot, il filone di contenuti assurdi e iperstimolanti che è esploso nei feed dei bambini nel 2025, ha dimostrato che questo tipo di materiale è costruito per sopraffare (“overwhelm”) i sensi dei più piccoli. Per i bambini sotto i 13 anni, le cui strutture cerebrali per il controllo degli impulsi e la regolazione emotiva sono ancora in formazione, l’esposizione ripetuta a questi stimoli altera la soglia dell’attenzione e, soprattutto, aumenta la tolleranza verso la violenza, che viene rappresentata come normale. Il brain rot (letteralmente “marciume cerebrale”) si costruisce su una catena di contenuti progressivamente più estremi e descrive precisamente il tunnel in cui vengono attratti i fruitori delle “Storie di frutta”.

Il tutto è aggravato dalla logica del binge watching: ogni episodio termina con un finale in sospeso (in gergo “cliffhanger”), che spinge il bambino a vedere il video successivo, come accade con le serie tv.

In Italia, il Garante per la protezione dei dati personali ha già vietato TikTok per i minori in alcune circostanze, ma l’applicazione è lacunosa. E mentre il dibattito normativo si arena sulle fasce d’età e sul consenso dei genitori, i bambini guardano una fragola che viene strangolata dal marito banana e non hanno nessuno strumento per capire che quella non è una storia normale.

Giovani

content.lab@adnkronos.com (Redazione)

© Riproduzione riservata

spot_img

Notizie correlate

Lucca
cielo coperto
15.8 ° C
18.4 °
15 °
41 %
0.9kmh
91 %
Ven
15 °
Sab
17 °
Dom
18 °
Lun
15 °
Mar
16 °

Ultimi articoli

SEGUICI SUI SOCIAL

VIDEO NEWS