OpenAI introduce Flex, un nuovo livello di servizio che riduce i costi per richieste AI non urgenti, con tempi di risposta più lunghi e disponibilità variabile.
OpenAI ha annunciato il lancio in beta di Flex, una modalità di elaborazione più economica dedicata a compiti di intelligenza artificiale a bassa priorità. Disponibile inizialmente solo per i modelli o3 e o4-mini, Flex è pensata per attività non in produzione, come arricchimento dati, valutazioni di modelli o elaborazioni asincrone.
A differenza del livello standard, Flex offre un costo significativamente inferiore grazie a una gestione più flessibile delle risorse, a fronte di risposte potenzialmente più lente e dell’occasionale indisponibilità del servizio. I costi per input e output dei token sono calcolati secondo le tariffe della Batch API.
Per utilizzare Flex tramite API, è sufficiente impostare il parametro service_tier="flex"
nella richiesta. Tuttavia, gli sviluppatori dovranno adattare i propri sistemi alla possibilità di timeout (impostati di default a 10 minuti, ma estendibili a 15), e gestire eventuali errori 429 Resource Unavailable tramite tecniche come il backoff esponenziale o il fallback al livello standard.
Flex si propone come soluzione etica e sostenibile per ottimizzare l’uso delle risorse computazionali in scenari dove l’efficienza economica prevale sulla rapidità, rispettando principi di equità e trasparenza nei costi.
📌 Cronologia e approfondimenti
- Batch API di OpenAI – Documentazione ufficiale
- Modello o3 – Annuncio di lancio
- Gestione backoff esponenziale – Guida tecnica
- Politiche sui costi e livelli di servizio – Pagina di pricing
- Elaborazione flessibile – OpenAI
🔎 Consigli di lettura
- OpenAI guida all’ottimizzazione API
- Strategie per workload AI asincroni
🧭 Abstract: vantaggi, rischi e impatti
Flex rappresenta un’opportunità per ridurre la spesa operativa in progetti AI non critici, promuovendo un uso efficiente e sostenibile delle risorse. Tuttavia, introduce rischi legati alla disponibilità e ai tempi di risposta, richiedendo maggiore robustezza nei sistemi che lo adottano. A livello sociale, può favorire l’accesso a soluzioni AI low-cost, ma va usato responsabilmente per evitare discriminazioni nell’accesso a servizi più performanti.
