Cofondée en 2021 par les frère et sœur Daniela et Dario Amodei, qui avaient travaillé auparavant chez OpenAI, rejoints par la suite par d’anciens collaborateurs de la start-up, Anthropic est aujourd’hui un des leaders de l’IA générative et un sérieux concurrent pour OpenAI. La société, a été, suite à une erreur de l’un de ses sous-traitants, victime d’une fuite de données.
L’objectif d’Anthropic est de rendre les systèmes plus fiables, orientables et interprétables grâce à l’IA constitutionnelle, une approche d’entraînement des modèles de langage visant à inculquer des valeurs et des principes spécifiques dans les systèmes d’IA.
La start-up qui a dévoilé Claude 2 en juillet 2023, puis présenté Claude Instant 1,2, disponible pour les entreprises via son API le mois suivant, a lancé le forfait payant Claude Pro en septembre dernier. Evaluée à plus de 18 milliards de dollars, elle a la confiance de grandes entreprises comme Google, Amazon, Salesforce ou l’éditeur allemand SAP.
Constatant une fuite de données due à l’un de ses prestataires qui a partagé involontairement un fichier contenant des informations sur ses clients avec un tiers (un sous-ensemble de noms de clients et de soldes créditeurs ouverts de 2023), la société a aussitôt prévenu les clients concernés comme on peut le constater sur ce mail divulgué par le média Windowsreport :
Alerte importante concernant votre compte.
Nous tenions à vous informer que l’un de nos sous-traitants a acheminé par inadvertance des informations sur les comptes clients d’Anthropic à un tiers. Les informations comprenaient le nom de votre compte, tel qu’il est conservé dans nos systèmes, et les informations sur les comptes clients au 31 décembre 2023 – c’est-à-dire qu’il était indiqué que vous étiez un client avec des soldes créditeurs ouverts à la fin de l’année. Ces informations n’incluaient pas de données personnelles sensibles, y compris des informations bancaires ou de paiement, ni d’invites/sorties. D’après notre enquête à ce jour, les actions de l’entrepreneur étaient une erreur isolée qui n’a pas résulté d’une violation de l’un de nos systèmes et qui n’a entraîné aucune de ses violations. Nous n’avons pas non plus connaissance d’un comportement malveillant découlant de cette divulgation.
Bien que ces données ne soient pas sensibles, l’entreprise a invité ses clients à faire preuve de prudence, notamment s’ils étaient contactés supposément par Anthropic pour une demande de paiement ou une modification des instructions de paiement, et de ne surtout pas révéler leurs informations d’identification ou leurs mots de passe.
Quand bien même cette fuite de données ne soit pas liée à ses systèmes d’IA internes mais à une erreur humaine comme dans une grande majorité des cas, Anthropic devra redoubler d’efforts pour restaurer la confiance de ses clients et mettre en place des mesures de sécurité renforcées pour éviter de telles fuites à l’avenir. D’autant plus qu’un des principaux freins à l’adoption des IA génératives par les entreprises est la violation de leurs données propriétaires.