IA

La guerre des assistants IA s’intensifie avec Claude Pro, le rival de ChatGPT Plus

Jeudi, Anthropic, fabricant d’IA et concurrent d’OpenAI, a lancé Claude Pro, une version sur abonnement de son assistant d’IA en ligne Claude.ai, qui fonctionne de manière similaire à ChatGPT. Cette version est disponible pour 20 $/mois aux États-Unis ou 18 livres/mois au Royaume-Uni, et promet des limites d’utilisation cinq fois plus élevées, un accès prioritaire à Claude pendant les périodes de fort trafic, et un accès anticipé aux nouvelles fonctionnalités au fur et à mesure de leur apparition.

Comme ChatGPT, Claude Pro permet de composer des textes, de les résumer, de les analyser, de résoudre des énigmes logiques, etc.

Claude.ai est l’interface conversationnelle qu’Anthropic propose pour son modèle de langage Claude 2 AI, de la même manière que ChatGPT fournit une application pour les modèles sous-jacents GPT-3.5 et GPT-4. En février, OpenAI a choisi la voie de l’abonnement pour ChatGPT Plus, qui, pour 20 dollars par mois, donne également un accès anticipé aux nouvelles fonctionnalités, mais débloque également l’accès à GPT-4, qui est le modèle de langage le plus puissant d’OpenAI.

Qu’est-ce que Claude a de plus que ChatGPT ? L’une des grandes différences est une fenêtre contextuelle de 100 000 tokens, ce qui signifie qu’il peut traiter environ 75 000 mots à la fois. Les jetons sont des fragments de mots utilisés lors du traitement du texte. Cela signifie que Claude peut analyser des documents plus longs ou tenir des conversations plus longues sans perdre la mémoire du sujet traité. ChatGPT ne peut traiter qu’environ 8 000 tokens en mode GPT-4.

« Pour moi, le plus important est la limite de 100 000 jetons », a déclaré Simon Willison, chercheur en IA, à Ars Technica. « C’est énorme ! Cela ouvre de toutes nouvelles possibilités, et je l’utilise plusieurs fois par semaine rien que pour cette fonction ». Simon Willison écrit régulièrement sur son blog à propos de l’utilisation de Claude, et il l’utilise souvent pour nettoyer les transcriptions de ses conférences en personne. Il met toutefois en garde contre les « hallucinations », lorsque Claude invente parfois des choses.

« J’ai vu plus d’hallucinations dans Claude que dans GPT-4« , dit Willison, ce qui me rend nerveux à l’idée de l’utiliser pour des tâches plus longues, car il y a beaucoup plus d’occasions de glisser quelque chose d’halluciné sans que je m’en aperçoive.

Capture d'écran de l'interface web publique de Claude 2, un grand modèle de langage d'Anthropic.
Agrandir / Capture d’écran de l’interface web publique de Claude 2, un grand modèle linguistique d’Anthropic.

Ars Technica

Willison a également rencontré des problèmes avec le filtre de moralité de Claude, qui lui a causé des ennuis par accident : « J’ai essayé de l’utiliser sur la transcription d’un épisode de podcast, et il a traité la majeure partie du texte avant d’effacer tout ce qu’il avait fait, juste devant mes yeux ! J’ai fini par comprendre qu’ils avaient commencé à parler d’alertes à la bombe contre des centres de données vers la fin de l’épisode, et Claude a été déclenché par cela et a supprimé toute la transcription. »

A LIRE AUSSI  Outils d'IA pour les petites entreprises

Que signifie « 5 fois plus d’utilisation » ?

Le principal argument de vente d’Anthropic pour l’abonnement Claude Pro est « 5 fois plus d’utilisation », mais la société ne communique pas clairement sur ce que sont les limites d’utilisation de Claude dans le cadre de l’abonnement gratuit. Laissant tomber des indices comme des miettes de pain, la société a rédigé un document d’assistance sur le sujet qui dit : « Si vos conversations sont relativement courtes (environ 200 phrases en anglais, en supposant que vos phrases font entre 15 et 20 mots), vous pouvez vous attendre à envoyer au moins 100 messages toutes les 8 heures, souvent plus en fonction de la capacité actuelle de Claude. Plus des deux tiers de toutes les conversations sur claude.ai (en date de septembre 2023) ont été de cette durée. »

Dans une autre déclaration quelque peu énigmatique, Anthropic écrit : « Si vous téléchargez une copie de Le Grand Gatsbyil se peut que vous ne puissiez envoyer que 20 messages dans cette conversation en l’espace de 8 heures ». Nous ne ferons pas le calcul, mais si vous connaissez le nombre de mots exact du classique de F. Scott Fitzgerald, il est possible de connaître les limites réelles de Claude. Nous avons demandé des précisions à Anthropic hier et n’avons pas reçu de réponse avant la publication.

Quoi qu’il en soit, Anthropic indique clairement que pour un modèle d’IA avec une limite de contexte de 100 000 mots, les limites d’utilisation sont nécessaires parce que le calcul impliqué est coûteux. « Un modèle aussi performant que Claude 2 nécessite beaucoup d’ordinateurs puissants pour fonctionner, en particulier lorsqu’il s’agit de répondre à des pièces jointes volumineuses et à de longues conversations », écrit Anthropic dans le document d’assistance. « Nous avons fixé ces limites pour nous assurer que Claude puisse être mis à la disposition de nombreuses personnes pour un essai gratuit, tout en permettant aux utilisateurs puissants d’intégrer Claude dans leurs flux de travail quotidiens. »

Vendredi, Anthropic a également lancé Claude Instant 1.2, une version moins chère et plus rapide de Claude, disponible via une API. Cependant, elle est moins performante que Claude 2 pour les tâches logiques.

S’il est clair que les grands modèles de langage comme Claude peuvent faire des choses intéressantes, il semble que leurs inconvénients et leur tendance à la confabulation les empêchent d’être utilisés à plus grande échelle en raison de problèmes de fiabilité. Néanmoins, M. Willison est un fan de Claude 2 sous sa forme en ligne : « Je suis ravi de voir qu’il continue à s’améliorer. Les 100 000 jetons sont une grande victoire, et le fait que l’on puisse y télécharger des PDF est vraiment pratique.