i3k AI Software Company Milano - hero background
Italian deep-tech studio · Founded 2015 · Based in Milan

Infrastruttura AI sovrana per l'Europa regolamentata

Costruiamo strumenti di intelligenza artificiale progettati in Europa, da zero, con compliance integrata. Per organizzazioni che non possono mettere i propri dati in cloud statunitensi.

Apache 2.0 · AGPL-3.0
EIC Accelerator 2026 applicant
45+ stars su RAG Enterprise
Founded 2015 · Built in Milan
Scroll

Due prodotti complementari, una tesi

RAG Enterprise per document intelligence on-premise. Powered by EuLLM Engine — il nostro runtime EU-sovrano basato su llama.cpp e TurboQuant. Due prodotti, una infrastruttura, una tesi: dare a organizzazioni regolamentate europee gli strumenti per sostituire i SaaS AI americani senza compromessi.

RAG Enterprise

On-premise document intelligence. Open core: AGPL-3.0 + Pro 2.0.

  • Hybrid SQL-Vector
  • Anti-hallucination
  • Air-gap ready

EuLLM

Vertical AI foundry. From 70B generalists to 7B EU-domain specialists.

  • Rust engine
  • Distillation pipeline (Forge)
  • EU-hosted registry (Hub)
Soluzione AI Enterprise

RAG Enterprise

Un sistema di Retrieval-Augmented Generation 100% on-premise. I tuoi documenti non escono mai dal tuo server.

Open source community: 45+ GitHub stars · Active development

Open Source

Community Edition

Licenza AGPL-3.0

  • RAG completo — upload, query e risposta da documenti
  • Autenticazione multi-utente con JWT
  • Upload documenti PDF, DOCX, TXT con OCR (Tika + PyMuPDF)
  • Vector Search con Qdrant
  • LLM locale via Ollama (Llama, Mistral, ecc.)
  • Docker Compose — deploy in pochi minuti
  • Gestione utenti con pannello admin
  • UI React base inclusa
Enterprise

Enterprise Pro 2.0

Licenza Proprietaria

  • Tutto della Community, più:
  • Cross-Encoder Re-ranking per risposte più precise
  • Hybrid Search — BM25 + Vector + RRF combinati
  • Multi-Query Retrieval per query complesse
  • Analytics Dashboard integrata
  • Chat History persistente (SQLite)
  • Modern Chat UI verticale con copia messaggi
  • Multilingual Reranker (BGE-M3)
  • Modalità Offline completa
LLM Sovrani Europei

EULLM

Open Source

Piattaforma open-source per LLM sovrani europei. Inferenza Rust ad alte prestazioni, API OpenAI-compatibili, deployment EU-sovrano.

EULLM è l'infrastruttura open-source per eseguire modelli linguistici in Europa senza dipendenze cloud. Engine in Rust per inferenza ad alte prestazioni, Forge per specializzare i modelli e Hub come registry EU-compliant.

Engine

Engine

Runtime di Inferenza EU-Sovrano

  • Runtime di inferenza EU-sovrano — orchestrazione Rust su llama.cpp (MIT, sviluppato in UE)
  • Integra TurboQuant (compressione KV cache 3-bit, ~5x riduzione memoria, algoritmo ICLR 2026)
  • API OpenAI-compatibili. Deployment EU-only, zero telemetria fuori UE
  • Streaming, batching e gestione concorrenza
Forge

Forge

Specializzazione Modelli

  • Pipeline LoRA/QLoRA per fine-tuning efficiente
  • Conversione automatica in GGUF ottimizzato
  • Dataset builder da documenti aziendali
  • Benchmark e validazione automatica
Hub

Hub

Registry EU-Compliant

  • Catalogo modelli con schede EU AI Act
  • Versionamento e tracciabilità completa
  • Deploy one-click verso Engine locale
  • Licenze e provenienza dati verificabili

Pronto per l'EU AI Act

Schede modello, tracciabilità dei dati di addestramento e classificazione del rischio integrati nativamente.

Altri Progetti I3K

I3K Technologies opera anche due linee di prodotto adiacenti, nate da progetti R&D precedenti. Questi prodotti hanno una loro vita indipendente dal nostro focus deep-tech principale.

Chi Siamo

Studio deep-tech italiano fondato nel 2015. Sede a Milano. Costruiamo infrastruttura AI sovrana per organizzazioni in settori regolamentati che non possono — o non vogliono — affidare i propri dati a cloud statunitensi.

Due prodotti core: RAG Enterprise (document intelligence on-premise) ed EuLLM (vertical AI foundry open source). Due prodotti adiacenti: CRM81 e LetsAI. EIC Accelerator 2026 applicant.

Founder & CEO: Francesco Marchetti — 27+ anni in infrastrutture IT e telecomunicazioni europee.

Come costruiamo

Non pretendiamo di aver riscritto l'inferenza LLM da zero. Costruiamo su fondamenta open source solide come llama.cpp (MIT, sviluppato in Bulgaria) e TurboQuant (algoritmo pubblicato da Google Research, ICLR 2026, implementazione community MIT). Aggiungiamo il livello che manca: orchestrazione EU-sovrana, pipeline di distillazione, registry compliance AI Act, modelli verticali addestrati su dati europei. Il valore non è reinventare le primitive — è fornire il livello di compliance e verticalizzazione ancora assente nell'ecosistema AI.

Open source first

La maggior parte del nostro lavoro è open source. Il codice è il contratto.

Compliance by design

AI Act readiness, GDPR, on-premise. Integrata, non aggiunta dopo.

Sovranità dei dati EU

I tuoi dati non lasciano mai l'EU. Nessuna eccezione.

Pronto a Trasformare la Tua Azienda?

Parliamo del tuo progetto. Prima consulenza gratuita, senza impegno.

Prenota una Call

Prenota una call di 30 minuti

Prenota ora

WhatsApp

Scrivici su WhatsApp

Avvia chat

Sede

Milano, Italia