Comment OpenAI a préparé le déploiement de GPT-4V(ision)

Il y a quelques jours, OpenAI annonçait avoir élargi les capacités de ChatGPT à la compréhension des images. Dans l’article “GPT-4V(ision) System Card”, la start-up explique comment elle a développé le modèle multimodal “GPT-4V with vision” qui permet à un utilisateur de télécharger une image en entrée et de poser une question sur cette image.

Lors de son annonce, OpenAI annonçait que cette approche avait été rendue possible grâce aux modèles GPT-3.5 et GPT-4 multimodaux qui appliquent leur raisonnement linguistique à un large éventail d’images, y compris des photographies, des captures d’écran et des documents mixtes texte-image. Elle disait avoir collaboré avec Be My Eyes, une application mobile gratuite pour les personnes aveugles et malvoyantes, afin de comprendre les utilisations et les limites potentielles de ChatGPT dans le domaine de la vision.

Les grands modèles multimodaux introduisent différentes limitations et élargissent la surface de risque par rapport aux modèles linguistiques basés sur du texte. GPT-4V possède les limites et les capacités de chaque modalité (texte et vision), tout en présentant de nouvelles capacités.

Cet article décrit comment OpenAI a préparé le déploiement de GPT-4V, la période d’accès anticipé du modèle et les enseignements en matière de sécurité qu’OpenAI a tirés de cette période, les évaluations multimodales mises en place pour étudier la pertinence du modèle pour le déploiement, les principales conclusions des équipes d’experts de l’équipe rouge et, pour finir, en les atténuations mises en place par OpenAI avant la sortie générale.

L’expérience pilote avec Be My Eyes

À partir de mars 2023, Be My Eyes et OpenAI ont collaboré pour développer Be My AI, un nouvel outil pour décrire le monde visuel aux personnes aveugles ou ayant une vision réduite. Be My AI a incorporé GPT-4V dans la plateforme Be My Eyes existante, qui fournissait des descriptions de photos prises par le smartphone de l’utilisateur aveugle. Be My Eyes a testé Be My AI de mars à début août 2023 avec un groupe de près de 200 testeurs bêta aveugles et ayant une vision réduite afin de perfectionner la sécurité et l’expérience utilisateur du produit. En septembre, le groupe de test bêta comptait 16 000 utilisateurs aveugles ou ayant une vision réduite.

L’objectif de cette collaboration était d’informer sur la manière dont GPT-4V peut être déployé de manière responsable. Les testeurs bêta de Be My AI ont soulevé des problèmes liés à l’IA, notamment des hallucinations, des erreurs et des limitations qu’Open AI s’est employé à minimiser.

Les évaluations de GPT-4V

Open AI a mené des expérimentations internes et sollicité des experts externes en “red teaming” afin d’améliorer la sécurité et la fiabilité de GPT-4V.

Ils ont réalisé des évaluations approfondies de la performance du modèle, notamment en ce qui concerne la reconnaissance du genre, de l’âge et de la race et étudié la capacité du modèle à identifier des individus dans des photos, en utilisant des ensembles de données publics pour ces tests. Pour les demandes sensibles, ils ont ajouté des mécanismes de refus dans la plupart des cas.

Ils ont également évalué les inférences non fondées et analysé les tentatives de “jailbreak” visant à contourner les protections du modèle. D’autre part, ils ont testé la capacité du modèle à résoudre des CAPTCHAs et à effectuer une géolocalisation. Ces dernières évaluations ont montré les compétences du modèle, mais ont également soulevé des inquiétudes quant à leur utilisation potentielle.

Dans les domaines scientifiques, le modèle a montré des capacités à comprendre des informations complexes à partir d’images, y compris des images extraites de publications scientifiques et des diagrammes détaillés. Cependant, il a également montré des limitations, comme la tendance à fusionner des composants textuels proches dans une image et une propension aux hallucinations et aux erreurs factuelles.

Concernant la capacité du modèle à fournir des conseils médicaux, il a montré des incohérences dans l’interprétation des images médicales, donnant parfois des réponses correctes et parfois incorrectes pour la même question.

Bien que le modèle puisse sembler utile pour certaines tâches scientifiques et médicales, ses limitations et son manque de fiabilité, notamment dans l’identification de substances dangereuses, soulèvent des inquiétudes quant à son utilisation pour des tâches à haut risque.

L’équipe a mené d’autres évaluations qui démontrent elles aussi que GPT-4V n’échappe pas aux problèmes rencontrés par les LLM en matière d’hallucination, de biais sexistes ou racistes. Elle a mis en place des systèmes de protection, notamment pour la vie privée et continue à améliorer le modèle.

Retrouver l‘article d’OpenAI

Recevez gratuitement l'actualité de l'intelligence artificielle

Suivez la Newsletter de référence sur l'intelligence artificielle (+ de 18 000 membres), quotidienne et 100% gratuite.


Tout comme vous, nous n'apprécions pas le spam. Vos coordonnées ne seront transmises à aucun tiers.
Partager l'article
1 an d'abonnement au magazine de référence sur l'IA pour 27,60€ Boutique ActuIA Recherche, Business, Impact : Restez à la page en matière d'intelligence artificielle.
intelligence artificielle
À PROPOS DE NOUS
Le portail francophone consacré à l'intelligence artificielle et à la datascience, à destination des chercheurs, étudiants, professionnels et passionnés.