Litterae.eu
Humanities & IT


L’intelligenza artificiale per rilevare segnali di bullismo: proposta di analisi linguistica in locale

immagine di un androide che legge un testo Individuare in ciò che scrive i segnali di un ragazzo che sta subendo una situazione di bullismo può essere complesso, poiché difficilmente descrive in modo diretto ciò che accade; può parlare per allusioni, celando le proprie emozioni, oppure raccontare episodi senza etichettarli come bullismo. Ragione per cui non basta un singolo modello di intelligenza artificiale per riconoscere automaticamente ogni caso.
Per non dire della sfera della privacy. È infatti evidente che, soprattutto parlando di bullismo e di minori, non è pensabile caricare a cuor leggero dati sensibili su server esterni. Poter effettuare analisi e osservazioni, mantenendo la massima riservatezza, è fondamentale.
Si può dunque ipotizzare un approccio efficace, modulare e completamente eseguibile in locale per individuare possibili segnali di disagio? La risposta è sì, impiegando strumenti gratuiti come GPT4All e modelli di analisi linguistica open source che funzionano anche per testi in italiano.
Proverò qui a offrire una panoramica la più chiara possibile di come si possa tentare di assemblare un sistema di analisi affidabile e rispettoso della privacy; naturalmente saranno utili alcune competenze tecniche.

Per cominciare occorre ripetere che non basta un solo modello, poiché il bullismo subito non è sempre espresso in modo esplicito. Un ragazzo può scrivere:
- "Non ho voglia di andare a scuola";
- "Mi evitano tutti";
- "Forse ho fatto qualcosa di sbagliato".

Frasi così non contengono insulti, ma possono essere campanelli d'allarme. Per questo serve un sistema che combini più prospettive, quali:
1. rilevazione delle emozioni espresse nel testo;
2. eventuali descrizioni di comportamenti aggressivi subiti;
3. interpretazione del contesto.
Un modello unico non è sufficiente, ma un insieme di strumenti può dare risultati piuttosto affidabili.

L'approccio più solido prevede tre componenti principali, tutte eseguibili in locale.
1. Analisi delle emozioni, per la quale esistono già modelli multilingui.
Il primo passo è identificare le emozioni presenti nel testo. Modelli leggeri e open source permettono di riconoscere tristezza, paura, ansia, vergogna, isolamento, rabbia repressa. Emozioni che, se ricorrenti, possono indicare una situazione di disagio.
Tra i modelli consigliabili:
- varianti multilingui basate su GoEmotions;
- classificatori multilingui del tipo "emotion detection", come ad esempio xlm-emo-t.
Sono in genere modelli piccoli, veloci e adatti anche a computer non particolarmente potenti.
2. Rilevazione di tossicità e aggressioni.
Il secondo livello analizza se il testo contiene riferimenti a prese in giro, minacce, esclusione, molestie online, insulti. Non serve che il ragazzo sia l'aggressore: questi modelli funzionano anche quando descrive ciò che subisce.
Tra i modelli utili:
- Detoxify;
- HateBERT (per l'italiano);
- Toxic-BERT.
Anche questi funzionano bene in locale e supportano testi in italiano.
3. Ragionamento contestuale con un LLM locale utilizzabile ad esempio con GPT4All.
Il terzo livello è quello che tira le somme: l'interpretazione. Qui entra in gioco un modello linguistico (LLM o GPT che dir si voglia) locale, come quelli disponibili tramite GPT4All.
Il suo compito è combinare il testo originale, le emozioni rilevate, i segnali di tossicità, e valutare se il quadro complessivo è coerente con una possibile situazione di bullismo o disagio significativo.
Tra i modelli consigliati:
- LLaMA‑3 Instruct (GGUF);
- Mistral 7B Instruct (GGUF);
- Phi‑3 Mini (GGUF).
Tutti e tre comprendono molto bene l'italiano e funzionano in locale senza connessione a internet.

Il sistema si articola in quattro fasi.
1. L'input: si trascrive o copia-incolla su file testo uno scritto del ragazzo, quale messaggino, email, diario, chat, elaborato, ecc.
2. L'analisi emotiva: il modello di rilevazione emozioni (alias "emotions detection") restituisce valori del tipo: tristezza 0.82, paura 0.74, isolamento 0.69.
3. L'analisi della tossicità: il modello di rilevazione tossicità individua frasi che descrivono prese in giro ripetute, esclusione sociale, comportamenti ostili.
4. Il ragionamento finale: l'LLM riceve tutti i dati e produce una valutazione ragionata, quale ad esempio: "Il testo mostra segnali di tristezza e paura, insieme alla descrizione di comportamenti ostili. Il che potrebbe indicare una situazione di bullismo o disagio persistente".

Questa proposta di approccio a più fasi può funzionare, perché replica ciò che farebbe un essere umano attento che ascolti le emozioni, osservi i comportamenti descritti, colleghi i puntini. Non si cerca una parola chiave, ma un pattern emotivo e narrativo. E soprattutto, si opera offline in locale, senza inviare dati sensibili a servizi esterni.
Non è quindi una scatola magica capace di riconoscere automaticamente ogni caso di bullismo, ma un'ipotesi tecnica, concreta e realizzabile, che combina analisi emotiva, rilevazione di comportamenti aggressivi e ragionamento contestuale tramite LLM. È un sistema che può diventare un valido strumento di supporto per genitori, educatori e professionisti, garantendo la massima tutela della privacy.


Approfondimenti

A. Ipotesi di documento tecnico
Titolo. Sistema locale per l'analisi di testi e l'individuazione di possibili segnali di bullismo.
Obiettivo. Progettare un sistema eseguibile interamente in locale, capace di analizzare testi in italiano e identificare segnali indiretti di disagio, paura, isolamento o potenziale vittimizzazione.
Approccio generale. Il sistema utilizza una pipeline a tre livelli:
1. analisi delle emozioni: identificazione di emozioni come tristezza, paura, ansia, vergogna, isolamento;
2. rilevazione di tossicità/aggressioni: individuazione di riferimenti a prese in giro, minacce, esclusione, molestie;
3. ragionamento contestuale tramite LLM locale: un modello linguistico combina i risultati dei due livelli precedenti e produce una valutazione ragionata.
Requisiti tecnici:
- ambiente Python 3.x;
- modelli da HuggingFace per misurazione di emozioni e tossicità;
- LLM in formato GGUF compatibile con GPT4All;
- hardware con CPU moderna, GPU opzionale;
- nessuna connessione a internet.
Output atteso:
- valori numerici delle emozioni;
- rilevazione di tossicità/aggressione;
- valutazione finale generata dall'LLM;
- eventuale spiegazione testuale.

B. Diagramma dell'architettura

C. Ipotesi di prompt ottimizzato per GPT4All
Sei un analista che valuta segnali di disagio nei testi scritti da adolescenti.
Riceverai:
1. Il testo originale
2. Le emozioni rilevate (con valori da 0 a 1)
3. I segnali di tossicità/aggressione individuati
Il tuo compito è:
- interpretare questi dati
- valutare se il testo mostra possibili segnali di bullismo o disagio significativo
- spiegare il perché in modo chiaro e non allarmistico
Non fare diagnosi. Non dare certezze. Limita la tua valutazione a ciò che emerge dal testo.
Ecco i dati:
[TESTO]
[EMOZIONI]
[TOSSICITÀ]
Fornisci una valutazione ragionata.

D. Mini prototipo in pseudo codice Python
# Caricamento modelli
emotion_model = load_model("modello_emozioni")
toxicity_model = load_model("modello_tossicita")
llm = GPT4All("modello_llm.gguf")
# Input
text = get_user_text("testo")
# Step 1: Analisi emozioni
emotion_scores = emotion_model.predict(text)
# Step 2: Analisi tossicità
toxicity_scores = toxicity_model.predict(text)
# Step 3: Preparazione prompt
prompt = f"""
Testo: {text}
Emozioni rilevate: {emotion_scores}
Segnali di tossicità: {toxicity_scores}
Valuto se il testo mostra possibili segnali di bullismo o disagio.
"""
# Step 4: Ragionamento LLM
analysis = llm.generate(prompt)
# Output finale
print(analysis)

E. Lista di modelli specifici da scaricare
1. Modelli per analisi emozioni
- joeddav/distilbert-base-multilingual-cased-goemotions (previa traduzione del testo in inglese)
- xlm-emo-t (buon funzionamento anche per l'italiano)
2. Modelli per tossicità/aggressioni
- HateBERT (per l'italiano)
- unitary/toxic-bert
- Detoxify (versione original o multilingual)
3. Modelli LLM compatibili con GPT4All (GGUF)
- LLaMA‑3 Instruct GGUF (ottima comprensione dell'italiano, molto equilibrato)
- Mistral 7B Instruct GGUF (veloce, preciso, ottimo per ragionamento);
- Phi‑3 Mini GGUF (leggerissimo e sorprendentemente efficace).
Migliore combinazione per l'italiano che ho testato personalmente in locale:
- xlm-emo-t per il rilevamento delle emozioni,
- HateBERT per il rilevamento di tossicità;
- LLaMA‑3 Instruct GGUF per il ragionamento conclusivo.

F. Esempio di output finale generato dal sistema
Input dell'utente, ovvero l'ipotetico testo da analizzare:
"Ultimamente non mi sento molto bene a scuola. Durante l'intervallo cerco di stare da solo perché quando mi avvicino agli altri fanno battute su di me. Non sono cattive cattive, ma mi fanno sentire stupido. Preferisco non dire niente a casa, tanto non capirebbero".
Ipotetici risultati dei modelli:
Analisi emozioni:
- tristezza: 0.81
- paura: 0.63
- isolamento: 0.77
- vergogna: 0.58
- rabbia repressa: 0.22

Analisi tossicità/aggressioni:
- riferimenti a prese in giro: 0.71
- esclusione sociale: 0.66
- tono ostile percepito: 0.54

Analisi finale del modello LLM
Il testo mostra una combinazione significativa di tristezza, isolamento e vergogna. L'autore descrive situazioni in cui viene preso in giro e tende a evitare i compagni durante l'intervallo, elementi che possono indicare un disagio sociale.
Anche se le battute non vengono definite "cattive", l'effetto emotivo è comunque negativo: la persona si sente "stupida" e preferisce isolarsi. Inoltre, il fatto che non voglia parlarne a casa suggerisce una difficoltà a chiedere aiuto o a esprimere il proprio malessere.
Questi elementi non permettono di affermare con certezza che si tratti di bullismo, ma indicano un possibile stato di disagio che merita attenzione. Sarebbe utile approfondire la situazione, offrire ascolto e creare uno spazio sicuro in cui la persona possa parlare liberamente di ciò che vive.

Si tratta di un output prudente, non allarmistico, chiaro e leggibile anche da un non tecnico. Ed è proprio il tipo di output che un sistema locale ben configurato può generare.

Ci sono anche dei caveat naturalmente. Nessun modello, soprattutto in un ambito così delicato, è infallibile e deterministico al 100%. Di conseguenza la consapevolezza di utilizzare uno strumento utile ma non perfetto e la supervisione e interpretazione umana dei risultati rimangono imprescindibili.

Ultimo aggiornamento: gennaio 2026.


Site designed by litterae.eu. © 2004-2026. All rights reserved.
Info GDPR EU 2016/679: no cookies used, no personal data collected.
p.iva / vat number: 02757940206