La concurrence entre les acteurs de la GenAI semble plus que jamais de mise. Nouveau hasard du calendrier ou non, le jour-même où Meta lançait la famille Llama 3.1 et NVIDIA annonçait de nouveaux microservices NIM Llama 3.1, OpenAI a lancé une offre de fine-tuning gratuit pour son dernier LLM, GPT-4o mini, présenté le 18 juillet dernier.
Pour rappel, GPT-4o mini est présenté par OpenAI comme le plus rentable de ses modèles. Grâce à son faible coût et sa faible latence, il est particulièrement adapté aux scénarios enchaînant ou parallélisant plusieurs appels de modèle, par exemple l’appel de plusieurs API, ou une analyse de grands volumes de données contextuelles, comme l’intégration de bases de code complètes ou d’historiques de conversations. Les chatbots de support client peuvent également bénéficier de ses réponses rapides et précises en temps réel.
Un fine-tuning gratuit jusqu’au 23 septembre
Depuis le 23 juillet, les développeurs et entreprises peuvent entraîner gratuitement GPT-4o mini sur des données supplémentaires pour l’adapter à leurs besoins spécifiques, mais avec une limite quotidienne de 2 millions de jetons d’entraînement. Pour ceux qui dépassent cette limite, des frais de 3 , pour chaque million de jetons d’entraînement, une somme bien inférieure au fine-tuning de GPT-3,5 Turbo qui revient à 8 $ pour le même nombre de jetons.