Modelli AI utilizzati da Qlara
La sezione AI di Qlara raccoglie tutte le informazioni relative ai modelli di intelligenza artificiale utilizzati per alimentare le funzionalità della piattaforma: generazione di testi, immagini, moderazione dei contenuti e analisi contestuale. L’obiettivo di questa categoria è garantire trasparenza, sicurezza e tracciabilità tecnologica: ogni modello elencato è documentato con la propria licenza d’uso, funzione operativa e fonte ufficiale. Qlara combina modelli open source e tecnologie proprietarie in un’infrastruttura orchestrata, progettata per mantenere un equilibrio tra potenza generativa, efficienza computazionale e compliance etico-legale.
Questa sezione include:
-
Documentazione dei modelli di linguaggio, immagine e moderazione.
-
Dettagli su framework, librerie e pipeline di inferenza.
-
Linee guida sull’uso dei modelli in conformità con le rispettive licenze open source.
-
Descrizione delle ottimizzazioni (quantizzazione, LoRA, acceleratori) applicate internamente.
1. Panoramica generale
L’infrastruttura AI di Qlara si basa su una combinazione modulare di modelli multimodali e motori di inferenza leggeri, integrati tramite pipeline ottimizzate per i casi d’uso della piattaforma:
-
Generazione testuale (copywriting e assistenza conversazionale)
-
Generazione ed editing di immagini
-
Moderazione e classificazione dei contenuti
-
Comprensione visiva (captioning e mascheratura)
Ogni componente è stato selezionato per garantire licenze compatibili (Apache 2.0 o MIT) e trasparenza d’uso.
2. Modelli linguistici
Modello |
Funzione |
Licenza |
Fonte |
---|---|---|---|
Mistral-Small-24B-Instruct-2501 (AWQ) |
Modello linguistico principale per generazione copy, assistenza conversazionale e logiche di intervista. Versione quantizzata AWQ per massima efficienza. |
Apache 2.0 |
|
GPT-OSS (20B, GGUF con llama.cpp) |
Alternativa compatta e compatibile con llama.cpp; utilizzata per task di generazione secondaria e fallback. |
Apache 2.0 |
|
vLLM |
vLLM è un motore di serving per modelli linguistici (LLM) ottimizzato per massimizzare la velocità e l’efficienza GPU. |
Apache 2.0 |
Libreria di inferenza:
-
llama.cpp (MIT License) – per esecuzione quantizzata su CPU e GPU.
3. Modelli di generazione e editing di immagini
Modello |
Funzione |
Licenza |
Fonte |
---|---|---|---|
Stable Diffusion XL 1.0 base |
Generazione di immagini da prompt testuale ad alta risoluzione. |
CreativeML Open RAIL++-M |
|
ByteDance/SDXL-Lightning |
Variante ottimizzata di SDXL per generazioni ultraveloci (4–8 step). |
CreativeML Open RAIL++-M |
|
Qwen-Image / Qwen-Image-Edit |
Modelli multimodali per generazione e editing. Utilizzano versione quantizzata tramite nunchaku. |
Apache 2.0 |
|
Flux Schnell |
Generatore di immagini testuali rapido, quantizzato con nunchaku. |
Apache 2.0 |
|
Florence-2 |
Captioning automatico e bounding-box per maschere visive. |
MIT |
|
SAM-2 |
Segmentazione e creazione maschere di oggetti. |
Apache 2.0 |
|
ControlNet / Union PLUS |
Editing e refining strutturale di immagini. |
Apache 2.0 |
|
IP Adapter |
Adattamento di stile da immagine sorgente a target. |
Apache 2.0 |
|
Lightning LoRA |
Ottimizzazioni per ridurre da 50 a 4/8 step di generazione |
Apache 2.0 |
Libreria di inferenza:
-
nunchaku (Apache 2.0) – backend unificato per esecuzione e quantizzazione dei modelli visivi.
4. Modelli di moderazione e sicurezza
Modello |
Funzione |
Licenza |
Fonte |
---|---|---|---|
EraX-Anti-NSFW (YOLO11 base) |
Moderazione di contenuti visivi, rilevazione pornografia/nudità. |
Apache 2.0 |
|
Qwen2.5-VL-7B-Instruct-AWQ |
Comprensione multimodale e moderazione semantica. |
Apache 2.0 |
|
CLIP (OpenAI) |
Comprensione rapida e classificazione promptabile delle immagini. |
MIT |
Librerie associate:
-
Ultralytics YOLOv11 (AGPL v3.0) – motore di inferenza per EraX.
-
Florence-2 + CLIP – supporto alla caption e cross-validation di contenuti.
5. Pipeline d’uso all’interno di Qlara
Area funzionale |
Modelli impiegati |
Obiettivo |
---|---|---|
Copywriting e generazione testi marketing |
Mistral-Small-24B, GPT-OSS |
Creazione testi promozionali, headline, email e descrizioni automatiche. |
Generazione immagini e creatività |
SDXL, Qwen-Image, Flux Schnell, IP Adapter |
Creazione visual coerenti con i contenuti testuali. |
Editing e refinement grafico |
Qwen-Image-Edit, ControlNet, SAM-2 |
Modifica localizzata, mascherature e rigenerazione di elementi. |
Moderazione contenuti |
EraX-Anti-NSFW, CLIP, Qwen2.5-VL |
Prevenzione contenuti inappropriati o vietati. |
Comprensione contestuale multimodale |
Florence-2, CLIP, Qwen2.5-VL |
Analisi e allineamento semantico tra testo e immagine. |
6. Principi di utilizzo e governance
-
Tutti i modelli sono impiegati nel rispetto delle licenze open source (Apache 2.0, MIT, RAIL).
-
Qlara non ri-addestra i modelli, ma li utilizza in modalità inferenza e quantizzata.
-
Tutte le chiamate AI vengono processate attraverso infrastruttura interna con monitoraggio etico e privacy-by-design.
-
I contenuti generati vengono verificati da pipeline di moderazione multilivello (semantica + visiva).
-
L’uso dei modelli è tracciato e versionato per garantire riproducibilità e accountability tecnica.
7. Roadmap di evoluzione AI
-
Integrazione futura di OWLv2 per mascheratura visiva avanzata.
-
Miglioramento della pipeline di comprehension cross-modal (testo–immagine).
-
Potenziamento della moderazione predittiva tramite ensemble Florence-2 + Qwen-VL.
-
Estensione dei modelli quantizzati nunchaku a inferenza distribuita su GPU.