🏢 Panoramica Mistral AI
Mistral AI è un'azienda francese fondata nel 2023 da ex-ricercatori di Google e Meta, specializzata nello sviluppo di modelli di linguaggio efficienti e open-source. Con sede a Parigi, Mistral ha rivoluzionato il settore AI proponendo modelli ad alte prestazioni che possono essere eseguiti su hardware consumer, democratizzando l'accesso all'AI avanzata.
🚀 Novità Mistral
ℹ️ Ultimo aggiornamento: -
| Modello | Descrizione | Context Window | Input (€/1M) | Output (€/1M) | Capacità | Performance | Azione |
|---|---|---|---|---|---|---|---|
| mistral-large-latest | Modello flagship per compiti complessi e ragionamento avanzato | 128K token | €2.00 | €6.00 | ChatFunzioniCodice | 98% Complex Tasks |
|
| mistral-8x22b-instruct | Mixtral con contesto esteso, ideale per documenti lunghi | 64K token | €1.10 | €1.10 | ChatDocumento | 94% Long Context |
|
| mistral-8x7b-instruct | Mixtral bilanciato per velocità e qualità | 32K token | €0.70 | €0.70 | ChatVeloce | 90% Balanced |
|
| mistral-7b-instruct | Modello efficiente per task rapidi e deployment leggeri | 32K token | €0.25 | €0.25 | ChatEfficiente | 85% Efficient |
| Modello | Descrizione | Dimensione | Max Tokens | Prezzo (€/1M) | Performance | Azione |
|---|---|---|---|---|---|---|
| mistral-embed | Modello specializzato per generazione embeddings di alta qualità | 1024 dim | 8K token | €0.10 | 92% Quality |
đź”§ Deployment Locale con Ollama
Mistral AI offre versioni locali scaricabili di tutti i suoi modelli principali. Questi possono essere eseguiti su hardware consumer utilizzando framework come Ollama o vLLM, garantendo privacy dei dati e controllo completo sul deployment.
Comandi di Installazione:
📚 Documentazione API
Mistral AI offre API REST compatibili con il formato OpenAI, semplificando l'integrazione esistente.
Esempio di utilizzo:
Endpoint principali:
POST /chat/completions- Generazione testoPOST /embeddings- Generazione embeddingsGET /models- Lista modelli disponibili