Microservice Control Plane

MCP Standard & Services

Linee guida operative per integrare il Microservice Control Plane (MCP) nella piattaforma AI-ONE: architettura, servizi di riferimento e risorse esterne per accelerare l’onboarding.

Che cos’è l’MCP

Il Microservice Control Plane (MCP) è lo standard che Daitan One adotta per orchestrare in modo sicuro e osservabile l’ecosistema di servizi, agenti e tool dedicati agli LLM. MCP definisce un insieme di contratti comuni (API, autenticazione, telemetria) e un catalogo di provider certificati così da garantire interoperabilità tra gateway LLM, servizi di retrieval, storage e workflow.

  • Protocollo uniforme per discovery, health check e capability negotiation.
  • Policy RBAC centralizzate con audit trail e controllo quota.
  • Registrazione metadati (telemetria, costi, SLA) con stream verso Langfuse e Prometheus.
  • Integrazione nativa con l’Admin Control Center e con gli agenti CrewAI/LangGraph.

Componenti principali

Control Plane Core

API Server e registry dei servizi MCP con repository delle capability, gestione versioni, validazione schema OpenAPI e secret vault.

Always-on

Gateway & Connectors

Integrazioni certificate: LLM Gateway (OpenAI, Anthropic, Azure), RAG services (PgVector, Qdrant), storage (MinIO, Postgres) e tool runtime (Langfuse, Temporal).

Connector Pack

Observability & Compliance

Pipeline di metriche, log e trace verso stack Prometheus / Loki / Grafana; enforcement di policy GDPR & EU AI Act con tagging dei dataset e check automatici.

SLO Ready

Developer Experience

SDK MCP, CLI per bootstrap servizi, template Compose/Kubernetes, libreria di blueprint per agenti di generazione codice e Knowledge Ops.

DX Toolkit

Flusso di integrazione consigliato

  1. Analisi requisiti: individua le capability necessarie (es. LLM streaming, memorizzazione documenti, tool esecuzione) e seleziona i provider MCP disponibili.
  2. Provisioning: registra il servizio sul Control Plane, assegna RBAC e quota, definisci health check e telemetry endpoint.
  3. Collegamento agenti: aggiorna i mapping in `config/providers.yaml` e in `config/agent_llm_mapping.json`, verifica compatibilità con workflow CrewAI o LangGraph.
  4. Monitoraggio: abilita log strutturati, “golden signals” e alert; integra con Plane.so per incident/change tracking.

Servizi MCP pronti all’uso

Core runtime

  • LLM Gateway 8159 (OpenAI, Anthropic, Azure, Gemini)
  • MCP Gateway 12008 con orchestrazione service graph
  • Temporal Workers per job asincroni e retry
  • Langfuse per tracing conversazionale e quality metrics

Knowledge & dati

  • PostgreSQL + pgvector per embeddings e metadata store
  • Qdrant vector DB multi-tenant per semantic retrieval
  • MinIO S3 compatibile per oggetti e asset multimediali
  • Atlas Data Hub per schema registry e governance

Risorse esterne e cataloghi MCP

Manteniamo aggiornata una raccolta di servizi MCP-compliant e di reference architecture da utilizzare come acceleratori progettuali. Consulta periodicamente le seguenti risorse: