Lorsque le conseil d’administration d’OpenAI a remercié Sam Altman vendredi dernier, il s’était justifié en disant que le PDG “n’avait pas toujours été franc dans ses communications avec le conseil”. Il faisait peut-être allusion à une lettre de plusieurs chercheurs l’avertissant de la découverte d’une IA surpuissante, mais qui s’inquiétaient du risque qu’elle pourrait faire courir à l’humanité, selon des sources de Reuters.
Parmi les préoccupations du conseil figuraient également des inquiétudes concernant la commercialisation rapide de ces avancées sans une compréhension adéquate de leurs implications.
Cette IA si puissante a été développée dans le cadre d’un projet appelé Q* (prononcé Q Star) se rapprocherait fortement de l’IAG (Intelligence Artificielle Générale), l’objectif de la société.
OpenAI met en avant sur son site :
“Notre mission est de veiller à ce que l’intelligence artificielle générale, c’est-à-dire les systèmes d’IA généralement plus intelligents que les humains, profite à l’ensemble de l’humanité”.
Le modèle Q*
Selon l’une des sources de Reuters, Q* a montré des capacités notables dans la résolution de problèmes mathématiques. Bien que les exercices qu’il a réalisés soient du niveau de l’école primaire, le fait qu’il ait des capacités de raisonnement proches de l’intelligence humaine a suscité l’optimisme des chercheurs.
Il pourrait représenter, selon eux, une percée majeure vers l’IAG (AGI en anglais) qu’OpenAI définit comme des systèmes autonomes capables de surpasser les humains dans la plupart des tâches économiquement utiles.
La lettre des chercheurs avait également mentionné les travaux d’une équipe de “scientifiques de l’IA”, ce qui a été confirmé par plusieurs sources. L’une d’elles a indiqué qu’elle était formée des équipes “Code Gen” et “Math Gen” et explorait comment optimiser les modèles d’IA existants pour améliorer leur raisonnement et éventuellement effectuer des travaux scientifiques.
OpenAI n’a pas voulu commenter, la société a simplement confirmé l’existence du projet Q* à ses employés.
Il faut avouer qu’il est un peu compliqué de s’y retrouver. Pourquoi alerter sur les dangers des IA plus évoluées que GPT4, appeler à une pause dans les recherches tout en continuant à développer des modèles plus puissants qui pourraient prendre des décisions autonomes sans mettre de garde-fous ? En tout cas, OpenAI, qui aurait pu craindre de perdre la confiance de ses clients avec tous ces revirements de situation, s’en tire plutôt bien pour l’instant…