Passa al contenuto
Italiano - Italia
  • Non sono presenti suggerimenti perché il campo di ricerca è vuoto.

Modelli AI utilizzati da Qlara

La sezione AI di Qlara raccoglie tutte le informazioni relative ai modelli di intelligenza artificiale utilizzati per alimentare le funzionalità della piattaforma: generazione di testi, immagini, moderazione dei contenuti e analisi contestuale. L’obiettivo di questa categoria è garantire trasparenza, sicurezza e tracciabilità tecnologica: ogni modello elencato è documentato con la propria licenza d’uso, funzione operativa e fonte ufficiale. Qlara combina modelli open source e tecnologie proprietarie in un’infrastruttura orchestrata, progettata per mantenere un equilibrio tra potenza generativa, efficienza computazionale e compliance etico-legale.

Questa sezione include:

  • Documentazione dei modelli di linguaggio, immagine e moderazione.

  • Dettagli su framework, librerie e pipeline di inferenza.

  • Linee guida sull’uso dei modelli in conformità con le rispettive licenze open source.

  • Descrizione delle ottimizzazioni (quantizzazione, LoRA, acceleratori) applicate internamente.

 

 

1. Panoramica generale

L’infrastruttura AI di Qlara si basa su una combinazione modulare di modelli multimodali e motori di inferenza leggeri, integrati tramite pipeline ottimizzate per i casi d’uso della piattaforma:

  • Generazione testuale (copywriting e assistenza conversazionale)

  • Generazione ed editing di immagini

  • Moderazione e classificazione dei contenuti

  • Comprensione visiva (captioning e mascheratura)

Ogni componente è stato selezionato per garantire licenze compatibili (Apache 2.0 o MIT) e trasparenza d’uso.

 

2. Modelli linguistici

 

Modello

Funzione

Licenza

Fonte

Mistral-Small-24B-Instruct-2501 (AWQ)

Modello linguistico principale per generazione copy, assistenza conversazionale e logiche di intervista. Versione quantizzata AWQ per massima efficienza.

Apache 2.0

Mistral-Small-24B-Instruct-2501

GPT-OSS (20B, GGUF con llama.cpp)

Alternativa compatta e compatibile con llama.cpp; utilizzata per task di generazione secondaria e fallback.

Apache 2.0

GPT-OSS 20B

vLLM

vLLM è un motore di serving per modelli linguistici (LLM) ottimizzato per massimizzare la velocità e l’efficienza GPU.

Apache 2.0

vLLM

Libreria di inferenza:

  • llama.cpp (MIT License) – per esecuzione quantizzata su CPU e GPU.

 

 

3. Modelli di generazione e editing di immagini

 

Modello

Funzione

Licenza

Fonte

Stable Diffusion XL 1.0 base

Generazione di immagini da prompt testuale ad alta risoluzione.

CreativeML Open RAIL++-M

Stability AI

ByteDance/SDXL-Lightning

Variante ottimizzata di SDXL per generazioni ultraveloci (4–8 step).

CreativeML Open RAIL++-M

ByteDance SDXL Lightning

Qwen-Image / Qwen-Image-Edit

Modelli multimodali per generazione e editing. Utilizzano versione quantizzata tramite nunchaku.

Apache 2.0

Qwen-Image, Qwen-Image-Edit

Flux Schnell

Generatore di immagini testuali rapido, quantizzato con nunchaku.

Apache 2.0

FLUX.1-schnell

Florence-2

Captioning automatico e bounding-box per maschere visive.

MIT

Florence-2

SAM-2

Segmentazione e creazione maschere di oggetti.

Apache 2.0

SAM-2

ControlNet / Union PLUS

Editing e refining strutturale di immagini.

Apache 2.0

ControlNet Plus

IP Adapter

Adattamento di stile da immagine sorgente a target.

Apache 2.0

IP Adapter

Lightning LoRA

Ottimizzazioni per ridurre da 50 a 4/8 step di generazione

Apache 2.0

Lightning LoRA

Libreria di inferenza:

  • nunchaku (Apache 2.0) – backend unificato per esecuzione e quantizzazione dei modelli visivi.

 

 

4. Modelli di moderazione e sicurezza

 

Modello

Funzione

Licenza

Fonte

EraX-Anti-NSFW (YOLO11 base)

Moderazione di contenuti visivi, rilevazione pornografia/nudità.

Apache 2.0

EraX Anti-NSFW

Qwen2.5-VL-7B-Instruct-AWQ

Comprensione multimodale e moderazione semantica.

Apache 2.0

Qwen2.5-VL-7B

CLIP (OpenAI)

Comprensione rapida e classificazione promptabile delle immagini.

MIT

CLIP

Librerie associate:

  • Ultralytics YOLOv11 (AGPL v3.0) – motore di inferenza per EraX.

  • Florence-2 + CLIP – supporto alla caption e cross-validation di contenuti.

 

 

5. Pipeline d’uso all’interno di Qlara

 

Area funzionale

Modelli impiegati

Obiettivo

Copywriting e generazione testi marketing

Mistral-Small-24B, GPT-OSS

Creazione testi promozionali, headline, email e descrizioni automatiche.

Generazione immagini e creatività

SDXL, Qwen-Image, Flux Schnell, IP Adapter

Creazione visual coerenti con i contenuti testuali.

Editing e refinement grafico

Qwen-Image-Edit, ControlNet, SAM-2

Modifica localizzata, mascherature e rigenerazione di elementi.

Moderazione contenuti

EraX-Anti-NSFW, CLIP, Qwen2.5-VL

Prevenzione contenuti inappropriati o vietati.

Comprensione contestuale multimodale

Florence-2, CLIP, Qwen2.5-VL

Analisi e allineamento semantico tra testo e immagine.

 

6. Principi di utilizzo e governance

  • Tutti i modelli sono impiegati nel rispetto delle licenze open source (Apache 2.0, MIT, RAIL).

  • Qlara non ri-addestra i modelli, ma li utilizza in modalità inferenza e quantizzata.

  • Tutte le chiamate AI vengono processate attraverso infrastruttura interna con monitoraggio etico e privacy-by-design.

  • I contenuti generati vengono verificati da pipeline di moderazione multilivello (semantica + visiva).

  • L’uso dei modelli è tracciato e versionato per garantire riproducibilità e accountability tecnica.

 

 

7. Roadmap di evoluzione AI

  • Integrazione futura di OWLv2 per mascheratura visiva avanzata.

  • Miglioramento della pipeline di comprehension cross-modal (testo–immagine).

  • Potenziamento della moderazione predittiva tramite ensemble Florence-2 + Qwen-VL.

  • Estensione dei modelli quantizzati nunchaku a inferenza distribuita su GPU.