KB

Google Gemini Models

Modelli AI avanzati di Google DeepMind e Google Cloud

๐Ÿข Panoramica Google AI

Google AI / Google DeepMind sviluppa modelli di linguaggio all'avanguardia tramite Gemini, la suite di modelli AI generativi. Con base tecnica a Mountain View e centro di ricerca a Londra, Google offre modelli scalabili su Google Cloud Vertex AI con prestazioni enterprise-grade SLA.

2023
Gemini Released
10B+
API Calls/Day
170+ paesi
Disponibilitร 
5+
Modelli Gemini

๐Ÿš€ Novitร  Google Gemini

โ„น๏ธ Ultimo aggiornamento: -

๐Ÿ’ฌ Modelli Linguistici
Modello Descrizione Context Window Input ($/1M) Output ($/1M) Capacitร  Performance Azione
gemini-2.0-flash Modello flagship veloce e efficiente per ragionamento avanzato e multimodal 1M token $0.075 $0.30 ChatVisionAudioVideo
99% Advanced
gemini-1.5-pro Modello pro con ragionamento avanzato e agentic capabilities 2M token $0.075 $0.30 ChatRagionamentoAgentic
96% Complex
gemini-1.5-flash Modello veloce e economico per compiti routine e high-throughput 1M token $0.01 $0.04 ChatVeloceEconomico
92% Fast
palm-2 Modello legacy per backward compatibility (EOL Q2 2026) 32K token $0.005 $0.015 ChatLegacy
80% Basic
๐Ÿ” Modelli Embedding
Modello Descrizione Dimensione Max Tokens Prezzo ($/1M) Performance Azione
text-embedding-004 Modello specializzato per generazione embeddings di alta qualitร  768 dim 2048 token $0.025
96% Quality
multimodal-embedding-001 Embedding multimodale per testi e immagini combinate 1408 dim 32K token $0.075
98% Multimodal
โ˜๏ธ Deployment su Google Cloud (Vertex AI)

๐Ÿš€ Managed Infrastructure con Vertex AI

Google Cloud Vertex AI offre managed infrastructure per deployare modelli Gemini con auto-scaling, monitoring integrato, e SLA garantiti. Perfetto per applicazioni production-ready con requisiti di alta disponibilitร .

Setup iniziale:

# Installa Google Cloud SDK pip install google-cloud-aiplatform # Autenticati con service account export GOOGLE_APPLICATION_CREDENTIALS="path/to/service-account.json" # Inizializza Vertex AI from vertexai.generative_models import GenerativeModel # Deploy con Vertex AI model = GenerativeModel("gemini-2.0-flash") response = model.generate_content("Analizza questo documento") print(response.text)
1M+
TPU/GPU disponibili
99.99%
SLA Garantito
Auto
Scaling
Multi-Region
Disponibile

๐Ÿ“š Documentazione API

Google Generative AI API e Vertex AI offrono accesso a modelli Gemini con integrazione nativa su Google Cloud.

Esempio di utilizzo (Google Generative AI):

import google.generativeai as genai # Configurazione API_KEY = "your-google-api-key" # Chat con Gemini via Generative AI API genai.configure(api_key=API_KEY) model = genai.GenerativeModel('gemini-2.0-flash') response = model.generate_content( content="Spiega l'intelligenza artificiale in 3 punti", generation_config={ "temperature": 0.7, "max_output_tokens": 500 } ) print(response.text)

Endpoint principali: