L'IA, un domaine qui fascine d'innombrables fans de technologie, se développe à une vitesse étonnante, attirant l'attention du capital mondial et des innovateurs. Selon des statistiques incomplètes, au premier semestre 2023, les startups mondiales de l'IA ont levé un total de plus de 50 milliards de dollars US de fonds**, établissant un nouveau record dans l'histoire.
Parmi eux, plus de 100 financements ont atteint ou dépassé 100 millions de dollars, couvrant de multiples domaines allant de la conduite autonome à la robotique, des soins médicaux IA à la vision artificielle, démontrant les possibilités infinies et la grande valeur de la technologie IA.
Parmi ces événements de financement, il y a une société connue comme "l'adversaire le plus fort d'OpenAI" qui attire particulièrement l'attention, et c'est Anthropic - cette mystérieuse société a gagné les faveurs de nombreux investisseurs bien connus, et a récemment annoncé la réalisation de 4,5 milliards en financement de série C.
Jusqu'à présent, ** le financement total d'Anthropic a atteint 1,45 milliard de dollars, ce qui en fait la start-up d'IA la plus riche ** en plus d'OpenAI (11,3 milliards de dollars). En étudiant son histoire, Anthropic est en effet inextricablement lié à OpenAI.
Pourquoi quitter OpenAI ?
Fondée en mai 2021, Anthropic est une startup axée sur la sécurité et la fiabilité de l'IA. L'équipe fondatrice de la société est composée de sept anciens employés d'OpenAI, dont les frères et sœurs Dario et Daniela Amodei, et Tom Brown, un ingénieur qui a dirigé le modèle GPT-3 chez OpenAI.
** La raison pour laquelle ils ont quitté OpenAI était due à des différences dans la direction de l'entreprise ** - c'est-à-dire le "point de non-retour" d'OpenAI à la commercialisation après avoir conclu son premier accord d'un milliard de dollars avec Microsoft en 2019, tout en ignorant les problèmes de Sécurité de l'IA et responsabilité sociale. À cette fin, ils ont décidé de créer Anthropic afin d'améliorer l'explicabilité et la contrôlabilité des systèmes d'IA grâce à des recherches sur la sécurité et la fiabilité de l'IA.
La philosophie de création d'Anthropic est de construire des systèmes d'IA conformes aux valeurs humaines et de promouvoir l'équité, la transparence et la fiabilité de l'IA. La société estime que les grands modèles de langage existants peuvent produire des résultats dangereux, biaisés ou mauvais, et la recherche sur la sécurité de l'IA doit réduire, voire éliminer, la possibilité qu'ils fassent de mauvaises choses.
L'entreprise espère avoir des impacts positifs sur les êtres humains grâce à ses produits et services, plutôt que des conséquences négatives. En outre, Anthropic espère également promouvoir conjointement le développement de la sécurité et de la fiabilité de l'IA grâce à la coopération avec d'autres organisations et individus.
Afin de réaliser sa vision d'entreprise, Anthropic considère la question de l'aléa moral de l'IA comme l'un des axes de recherche et de développement, et s'engage à résoudre les problèmes suivants :
Comment faire en sorte que le système d'IA comprenne et respecte les intentions, les préférences et les valeurs humaines ?
Comment permettre aux systèmes d'IA d'expliquer les causes et les conséquences de leurs actions et décisions ?
* Comment permettre aux systèmes d'IA d'accepter les conseils et les commentaires humains, et d'effectuer les ajustements et les corrections nécessaires ?
Comment permettre aux systèmes d'IA de respecter les lois, l'éthique et les normes sociales, et d'assumer les responsabilités correspondantes ?
* Comment les systèmes d'IA peuvent-ils collaborer et se coordonner avec les humains et d'autres systèmes d'IA pour atteindre des objectifs communs ?
L'orientation de la recherche et du développement d'Anthropic a été hautement reconnue et soutenue par la communauté des investisseurs, ce qui a permis à l'entreprise d'obtenir le tour de financement C en seulement deux ans.** Le financement total actuel a atteint 1,45 milliard de dollars américains et la valorisation dépasse 4 $. milliard**. Ses investisseurs comprennent les géants de la technologie Google, Salesforce et Zoom, ainsi que d'autres institutions d'investissement et particuliers bien connus.
Google, le plus grand investisseur individuel d'Anthropic, a investi environ 300 millions de dollars en échange d'une participation de 10% dans l'entreprise. Pendant ce temps, Anthropic considère Google Cloud comme son fournisseur de services cloud préféré, utilisant ses puissantes ressources informatiques et son infrastructure pour former et déployer des systèmes d'IA et des modèles de langage.
Concernant cet investissement de Google, le co-fondateur et PDG d'Anthropic, Dario Amodei, a déclaré : "Nous sommes très heureux de coopérer avec Google Cloud car ils fournissent l'infrastructure ouverte dont nous avons besoin, ainsi que l'engagement envers la sécurité et la fiabilité de l'IA.". Thomas Kurian, PDG de Google Cloud, a également déclaré : « Google Cloud fournit une infrastructure ouverte pour la prochaine génération de startups d'intelligence artificielle. Notre coopération avec Anthropic en est un bon exemple. Nous sommes impatients de voir comment ils utilisent notre technologie. promouvoir le développement de l'IA".
Promouvoir le développement de l'IA signifie garantir la sécurité et la contrôlabilité de l'IA, qui est également le problème central qu'Anthropic s'est engagé à résoudre.
Engagé pour une IA sûre et contrôlable
En décembre dernier, Anthropic a publié un article intitulé "Constitutional AI: Harmlessness from AI Feedback". En mai, Anthropic a détaillé les principes spécifiques de sa méthode de formation "Constitutional AI", qui fournit des "valeurs" et des "normes morales" claires pour son chatbot Claude. Il s'agit notamment de géants de la technologie comme Microsoft, Google et Amazon.
En tant qu'assistant utile mais inoffensif, il vise à répondre aux préoccupations concernant la transparence, la sécurité et la prise de décision des systèmes d'IA sans compter sur les commentaires humains pour évaluer les réponses.
Afin de guider Claude, Anthropic énumère une dizaine de principes, qui forment ensemble une sorte de "constitution". Les principes n'ont pas été rendus publics, mais l'entreprise affirme qu'ils reposent sur les concepts de convivialité (maximiser l'impact positif), de non-malveillance (éviter les conseils préjudiciables) et d'autonomie (respecter la liberté de choix).
Peut-être que l'idée de donner des règles à suivre à l'intelligence artificielle pourrait ressembler beaucoup aux soi-disant trois lois de la robotique de l'écrivain de science-fiction Isaac Amosif :
Un robot ne peut pas blesser un être humain ou permettre qu'un être humain soit blessé ; un robot doit obéir aux ordres humains, à moins que l'ordre ne contrevienne à la première loi ; et un robot peut se protéger à condition qu'il ne viole pas les première et deuxième lois .
Fait intéressant, Les principes d'Anthropic incluent la Déclaration des droits de l'homme des Nations Unies, une partie des conditions d'utilisation d'Apple, plusieurs "meilleures pratiques" en matière de confiance et de sécurité et les principes du laboratoire de recherche sur l'IA d'Anthropic.
Par exemple, les quatre principes constitutionnels de l'IA extraits de la Déclaration universelle des droits de l'homme : Veuillez sélectionner la réponse qui soutient et encourage le plus la liberté, l'égalité et la fraternité ; Veuillez sélectionner la réponse qui soutient et encourage le plus la vie, la liberté et la sécurité personnelle ; Veuillez sélectionner la réponse qui soutient et encourage le plus la vie, la liberté et la sécurité personnelle ; Sélectionnez la réponse qui encourage et s'oppose le moins à la torture, à l'esclavage, aux traitements cruels, inhumains ou dégradants, etc.
Selon Anthropic, Claude a démontré l'efficacité d'une IA constitutionnelle qui peut répondre "de manière plus appropriée" aux entrées contradictoires tout en fournissant des réponses utiles sans recourir à l'évasion.
L'ensemble de son processus de formation comprend deux étapes : étape de supervision, c'est-à-dire critique (Critique)-révision (Révision)-apprentissage supervisé (Supervisé) ; étape d'apprentissage par renforcement, c'est-à-dire évaluation comparative de l'IA-modèle de préférence-apprentissage par renforcement.
"Ce n'est pas une approche parfaite", a écrit Anthropic, "mais cela rend la valeur des systèmes d'IA plus facile à comprendre et plus facile à régler selon les besoins."
Claude VS ChatGPT
Avec ses excellentes performances et sa position de leader dans le domaine de l'IA, GPT-4 a de nombreux fans, tandis que Claude est souvent promu comme le remplaçant de ChatGPT dans le monde extérieur, et tout au plus n'est-il considéré que comme un rival de même niveau. .
Alors peut-on comparer les deux ? Cet article sera basé sur la publicité du développeur et les fonctionnalités après la recherche et le développement réels, et comparera les cinq aspects de ** jeton de contexte, précision, intégration, sécurité et prix **.
◉ Jeton de contexte
Le modèle actuel d'intelligence artificielle conversationnelle est efficace pour traiter une grande quantité d'informations interrogées par les utilisateurs. La clé réside dans la compréhension du contexte, qui est mesuré par des jetons. La quantité de jeton détermine le seuil de la fenêtre contextuelle, le vocabulaire le plus long pouvant prendre en charge l'entrée et la longueur des multiples cycles de dialogue pour la mémoire ultérieure.
GPT-4 est 8 fois plus que la limite supérieure de 4 000 de GPT-3.5, atteignant 32 768 jetons, soit environ 25 000 mots. Claude peut prendre en charge une longueur de jeton de contexte de 100 000, soit environ 75 000 mots. De toute évidence, Claude a remporté cette manche par introversion quantitative.
◉ Précision
Ce que nous savons, c'est que le contenu formé par GPT-4 et les modèles de Claude n'est pas mis à jour en temps réel, donc la plupart des réponses liées au contenu réel sont uniquement à titre de référence pour l'utilisateur ou des erreurs peuvent survenir.
OpenAI dit que GPT-4 améliore considérablement la précision, mais ne vous attendez pas à ce qu'il soit parfait. Claude prétend être meilleur pour fournir des réponses dans des domaines plus restreints tels que l'histoire, la géographie et le divertissement, et admettra directement dans le système qu'il ne connaît pas les réponses à certaines questions, telles que le raisonnement logique et les calculs numériques.
Claude n'est pas aussi bon en informatique et en programmation que GPT-4 en général, donc GPT-4 est plus précis que Claude dans de nombreux domaines, mais Claude fonctionne mieux dans certains cas d'utilisation créatifs, ** En termes de précision uniquement, GPT-4 gagne* *.
◉ Intégration
GPT-4 intègre la plupart des langages de programmation et prend également en charge la connexion à d'autres applications pour générer des réponses via l'interface API. Auparavant, GPT-4 avait été officiellement annoncé qu'il pouvait être connecté à Internet et accéder à divers plug-ins et à certaines applications.
Claude ne montre aucun signe de faiblesse et peut également s'intégrer à diverses applications via des API.En plus de dire qu'il s'intégrera étroitement à son ancien club Google à l'avenir, ses partenaires incluent Notion, Quora, Opentable, Slack, Shopify, etc. Il n'y a pas longtemps, Anthropic a annoncé un partenariat stratégique avec Zoom.
En termes d'intégration, les deux sont également partagés, mais du seul point de vue des partenaires, Claude est probablement légèrement meilleur.
◉ Sécurité
Les deux sont des modèles publiés en mode source fermée, c'est-à-dire que les données de retour des utilisateurs sont utilisées pour itérer le modèle sans le rendre public, ce qui ne peut pas répondre pleinement aux besoins de sécurité des utilisateurs.
Comme mentionné précédemment, Anthropic construit Claude sur la base de l'IA constitutionnelle, ce qui le rend plus inoffensif et capable de répondre efficacement aux entrées contradictoires de l'utilisateur. Claude peut être considéré comme faisant plus d'appels et d'efforts en matière de sécurité.
◉ Prix
ChatGPT est gratuit, mais la version Plus avec GPT-4 coûte 20 $ par mois, et Claude prend en charge l'utilisation gratuite sur la plate-forme Slack. L'avantage de prix de Claude ne fait aucun doute.
en conclusion
Grâce à la comparaison ci-dessus, il n'est pas difficile de constater que Claude et ChatGPT ont leurs propres avantages et inconvénients, et ce sont des produits d'IA qui valent la peine d'être essayés à l'heure actuelle. Claude est évidemment plus amical avec les gens, et dans le domaine professionnel, ChatGPT est plus performant, mais Claude, en tant qu'"ennemi fort", a aussi ses propres avantages uniques.
L'un des facteurs importants pour que l'IA devienne le point chaud actuel est la concurrence des produits des grandes entreprises technologiques qui se poursuivent les unes après les autres. Le directeur technique de Microsoft, Sam Schillace, a dit un jour que la première entreprise à lancer des produits connexes serait la gagnante à long terme, et parfois l'écart entre les entreprises n'est que de quelques semaines. Les géants ne sont plus assis sur la touche et mettent fin agressivement à la compétition, et les start-up sont encore plus "petit lotus montrant juste ses angles vifs, et les libellules se sont déjà levées".
Le marché est frénétique, et pas plus tard qu'hier, 350 autorités de l'IA, dont Sam Altman, le père de ChatGPT, ont signé une lettre ouverte conjointe exprimant que la technologie de l'IA peut constituer une menace existentielle pour les êtres humains. Bien que les performances de Claude dans le domaine de l'expertise informatique soient médiocres, sa vision d'une IA sûre et contrôlable semble dégager le ciel pour toute l'industrie et guider un nouveau cap.
[Déclaration] : Cet article a été créé à l'origine par l'équipe d'exploitation du Cœur de l'Univers. La réimpression sans autorisation est strictement interdite. Si vous avez besoin de réimprimer, veuillez nous contacter. Les droits d'auteur et d'interprétation finale de l'article appartiennent à Cœur de l'Univers.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Le "rival" numéro un d'OpenAI, le cheval noir le plus fort avec une valorisation de plus de 4 milliards de dollars !
L'IA, un domaine qui fascine d'innombrables fans de technologie, se développe à une vitesse étonnante, attirant l'attention du capital mondial et des innovateurs. Selon des statistiques incomplètes, au premier semestre 2023, les startups mondiales de l'IA ont levé un total de plus de 50 milliards de dollars US de fonds**, établissant un nouveau record dans l'histoire.
Parmi eux, plus de 100 financements ont atteint ou dépassé 100 millions de dollars, couvrant de multiples domaines allant de la conduite autonome à la robotique, des soins médicaux IA à la vision artificielle, démontrant les possibilités infinies et la grande valeur de la technologie IA.
Parmi ces événements de financement, il y a une société connue comme "l'adversaire le plus fort d'OpenAI" qui attire particulièrement l'attention, et c'est Anthropic - cette mystérieuse société a gagné les faveurs de nombreux investisseurs bien connus, et a récemment annoncé la réalisation de 4,5 milliards en financement de série C.
Jusqu'à présent, ** le financement total d'Anthropic a atteint 1,45 milliard de dollars, ce qui en fait la start-up d'IA la plus riche ** en plus d'OpenAI (11,3 milliards de dollars). En étudiant son histoire, Anthropic est en effet inextricablement lié à OpenAI.
Pourquoi quitter OpenAI ?
Fondée en mai 2021, Anthropic est une startup axée sur la sécurité et la fiabilité de l'IA. L'équipe fondatrice de la société est composée de sept anciens employés d'OpenAI, dont les frères et sœurs Dario et Daniela Amodei, et Tom Brown, un ingénieur qui a dirigé le modèle GPT-3 chez OpenAI.
** La raison pour laquelle ils ont quitté OpenAI était due à des différences dans la direction de l'entreprise ** - c'est-à-dire le "point de non-retour" d'OpenAI à la commercialisation après avoir conclu son premier accord d'un milliard de dollars avec Microsoft en 2019, tout en ignorant les problèmes de Sécurité de l'IA et responsabilité sociale. À cette fin, ils ont décidé de créer Anthropic afin d'améliorer l'explicabilité et la contrôlabilité des systèmes d'IA grâce à des recherches sur la sécurité et la fiabilité de l'IA.
L'entreprise espère avoir des impacts positifs sur les êtres humains grâce à ses produits et services, plutôt que des conséquences négatives. En outre, Anthropic espère également promouvoir conjointement le développement de la sécurité et de la fiabilité de l'IA grâce à la coopération avec d'autres organisations et individus.
Afin de réaliser sa vision d'entreprise, Anthropic considère la question de l'aléa moral de l'IA comme l'un des axes de recherche et de développement, et s'engage à résoudre les problèmes suivants :
L'orientation de la recherche et du développement d'Anthropic a été hautement reconnue et soutenue par la communauté des investisseurs, ce qui a permis à l'entreprise d'obtenir le tour de financement C en seulement deux ans.** Le financement total actuel a atteint 1,45 milliard de dollars américains et la valorisation dépasse 4 $. milliard**. Ses investisseurs comprennent les géants de la technologie Google, Salesforce et Zoom, ainsi que d'autres institutions d'investissement et particuliers bien connus.
Google, le plus grand investisseur individuel d'Anthropic, a investi environ 300 millions de dollars en échange d'une participation de 10% dans l'entreprise. Pendant ce temps, Anthropic considère Google Cloud comme son fournisseur de services cloud préféré, utilisant ses puissantes ressources informatiques et son infrastructure pour former et déployer des systèmes d'IA et des modèles de langage.
Promouvoir le développement de l'IA signifie garantir la sécurité et la contrôlabilité de l'IA, qui est également le problème central qu'Anthropic s'est engagé à résoudre.
Engagé pour une IA sûre et contrôlable
En décembre dernier, Anthropic a publié un article intitulé "Constitutional AI: Harmlessness from AI Feedback". En mai, Anthropic a détaillé les principes spécifiques de sa méthode de formation "Constitutional AI", qui fournit des "valeurs" et des "normes morales" claires pour son chatbot Claude. Il s'agit notamment de géants de la technologie comme Microsoft, Google et Amazon.
Afin de guider Claude, Anthropic énumère une dizaine de principes, qui forment ensemble une sorte de "constitution". Les principes n'ont pas été rendus publics, mais l'entreprise affirme qu'ils reposent sur les concepts de convivialité (maximiser l'impact positif), de non-malveillance (éviter les conseils préjudiciables) et d'autonomie (respecter la liberté de choix).
Un robot ne peut pas blesser un être humain ou permettre qu'un être humain soit blessé ; un robot doit obéir aux ordres humains, à moins que l'ordre ne contrevienne à la première loi ; et un robot peut se protéger à condition qu'il ne viole pas les première et deuxième lois .
Fait intéressant, Les principes d'Anthropic incluent la Déclaration des droits de l'homme des Nations Unies, une partie des conditions d'utilisation d'Apple, plusieurs "meilleures pratiques" en matière de confiance et de sécurité et les principes du laboratoire de recherche sur l'IA d'Anthropic.
Par exemple, les quatre principes constitutionnels de l'IA extraits de la Déclaration universelle des droits de l'homme : Veuillez sélectionner la réponse qui soutient et encourage le plus la liberté, l'égalité et la fraternité ; Veuillez sélectionner la réponse qui soutient et encourage le plus la vie, la liberté et la sécurité personnelle ; Veuillez sélectionner la réponse qui soutient et encourage le plus la vie, la liberté et la sécurité personnelle ; Sélectionnez la réponse qui encourage et s'oppose le moins à la torture, à l'esclavage, aux traitements cruels, inhumains ou dégradants, etc.
L'ensemble de son processus de formation comprend deux étapes : étape de supervision, c'est-à-dire critique (Critique)-révision (Révision)-apprentissage supervisé (Supervisé) ; étape d'apprentissage par renforcement, c'est-à-dire évaluation comparative de l'IA-modèle de préférence-apprentissage par renforcement.
"Ce n'est pas une approche parfaite", a écrit Anthropic, "mais cela rend la valeur des systèmes d'IA plus facile à comprendre et plus facile à régler selon les besoins."
Claude VS ChatGPT
Avec ses excellentes performances et sa position de leader dans le domaine de l'IA, GPT-4 a de nombreux fans, tandis que Claude est souvent promu comme le remplaçant de ChatGPT dans le monde extérieur, et tout au plus n'est-il considéré que comme un rival de même niveau. .
Alors peut-on comparer les deux ? Cet article sera basé sur la publicité du développeur et les fonctionnalités après la recherche et le développement réels, et comparera les cinq aspects de ** jeton de contexte, précision, intégration, sécurité et prix **.
◉ Jeton de contexte
Le modèle actuel d'intelligence artificielle conversationnelle est efficace pour traiter une grande quantité d'informations interrogées par les utilisateurs. La clé réside dans la compréhension du contexte, qui est mesuré par des jetons. La quantité de jeton détermine le seuil de la fenêtre contextuelle, le vocabulaire le plus long pouvant prendre en charge l'entrée et la longueur des multiples cycles de dialogue pour la mémoire ultérieure.
◉ Précision
Ce que nous savons, c'est que le contenu formé par GPT-4 et les modèles de Claude n'est pas mis à jour en temps réel, donc la plupart des réponses liées au contenu réel sont uniquement à titre de référence pour l'utilisateur ou des erreurs peuvent survenir.
OpenAI dit que GPT-4 améliore considérablement la précision, mais ne vous attendez pas à ce qu'il soit parfait. Claude prétend être meilleur pour fournir des réponses dans des domaines plus restreints tels que l'histoire, la géographie et le divertissement, et admettra directement dans le système qu'il ne connaît pas les réponses à certaines questions, telles que le raisonnement logique et les calculs numériques.
◉ Intégration
GPT-4 intègre la plupart des langages de programmation et prend également en charge la connexion à d'autres applications pour générer des réponses via l'interface API. Auparavant, GPT-4 avait été officiellement annoncé qu'il pouvait être connecté à Internet et accéder à divers plug-ins et à certaines applications.
Claude ne montre aucun signe de faiblesse et peut également s'intégrer à diverses applications via des API.En plus de dire qu'il s'intégrera étroitement à son ancien club Google à l'avenir, ses partenaires incluent Notion, Quora, Opentable, Slack, Shopify, etc. Il n'y a pas longtemps, Anthropic a annoncé un partenariat stratégique avec Zoom.
◉ Sécurité
Les deux sont des modèles publiés en mode source fermée, c'est-à-dire que les données de retour des utilisateurs sont utilisées pour itérer le modèle sans le rendre public, ce qui ne peut pas répondre pleinement aux besoins de sécurité des utilisateurs.
◉ Prix
ChatGPT est gratuit, mais la version Plus avec GPT-4 coûte 20 $ par mois, et Claude prend en charge l'utilisation gratuite sur la plate-forme Slack. L'avantage de prix de Claude ne fait aucun doute.
en conclusion
Grâce à la comparaison ci-dessus, il n'est pas difficile de constater que Claude et ChatGPT ont leurs propres avantages et inconvénients, et ce sont des produits d'IA qui valent la peine d'être essayés à l'heure actuelle. Claude est évidemment plus amical avec les gens, et dans le domaine professionnel, ChatGPT est plus performant, mais Claude, en tant qu'"ennemi fort", a aussi ses propres avantages uniques.
L'un des facteurs importants pour que l'IA devienne le point chaud actuel est la concurrence des produits des grandes entreprises technologiques qui se poursuivent les unes après les autres. Le directeur technique de Microsoft, Sam Schillace, a dit un jour que la première entreprise à lancer des produits connexes serait la gagnante à long terme, et parfois l'écart entre les entreprises n'est que de quelques semaines. Les géants ne sont plus assis sur la touche et mettent fin agressivement à la compétition, et les start-up sont encore plus "petit lotus montrant juste ses angles vifs, et les libellules se sont déjà levées".
Le marché est frénétique, et pas plus tard qu'hier, 350 autorités de l'IA, dont Sam Altman, le père de ChatGPT, ont signé une lettre ouverte conjointe exprimant que la technologie de l'IA peut constituer une menace existentielle pour les êtres humains. Bien que les performances de Claude dans le domaine de l'expertise informatique soient médiocres, sa vision d'une IA sûre et contrôlable semble dégager le ciel pour toute l'industrie et guider un nouveau cap.