À première vue, l'IA x Web3 semble être des technologies indépendantes, chacune reposant sur des principes fondamentalement différents et servant des fonctions différentes. Cependant, une analyse plus approfondie révèle que ces deux technologies ont la possibilité d'équilibrer les compromis mutuels, que leurs avantages uniques peuvent se compléter mutuellement et se renforcer mutuellement. Balaji Srinivasan a brillamment exposé ce concept de capacité complémentaire lors de la conférence SuperAI, suscitant une comparaison détaillée de la façon dont ces technologies interagissent.
Les Tokens ont émergé des efforts de décentralisation des punks anonymes du réseau, en suivant une approche ascendante, et ont évolué au fil des dix longues années grâce aux efforts concertés de nombreuses entités indépendantes à travers le monde. En revanche, l'intelligence artificielle a été développée selon une approche descendante, dominée par quelques géants technologiques. Ces entreprises déterminent le rythme et la dynamique de l'industrie, et la barrière à l'entrée est déterminée par l'intensité des ressources plutôt que par la complexité technique.
Ces deux technologies ont fondamentalement des natures différentes. Fondamentalement, TOKEN est un système déterministe qui produit des résultats immuables, tels que la prévisibilité des fonctions de hachage ou des preuves à divulgation nulle de connaissance. Cela contraste nettement avec la probabilité et l'imprévisibilité habituelles de l'intelligence artificielle.
De même, la technologie de chiffrement se distingue dans la validation, garantissant l'authenticité et la sécurité des transactions, et établissant des processus et systèmes sans confiance, tandis que l'intelligence artificielle se concentre sur la création de contenu numérique riche. Cependant, lors de la création de contenu numérique riche, garantir l'origine du contenu et prévenir l'usurpation d'identité devient un défi.
Heureusement, le TOKEN offre un concept opposé numériquement riche - la rareté numérique. Il fournit des outils relativement matures qui peuvent être appliqués à la technologie de l'intelligence artificielle pour garantir la fiabilité de la source de contenu et éviter les problèmes de vol d'identité.
Un avantage significatif de TOKEN est sa capacité à attirer un grand nombre de matériels et de capitaux dans un réseau coordonné pour servir des objectifs spécifiques. Cette capacité est particulièrement bénéfique pour l'intelligence artificielle qui nécessite une grande puissance de calcul. La mobilisation de ressources sous-utilisées pour fournir une puissance de calcul moins chère peut considérablement améliorer l'efficacité de l'intelligence artificielle.
En comparant ces deux grandes technologies, nous pouvons non seulement apprécier leur contribution respective, mais aussi voir comment elles ont ouvert ensemble de nouvelles voies pour la technologie et l'économie. Chaque technologie peut compenser les lacunes de l'autre et créer un avenir plus intégré et innovant. Dans cet article de blog, nous explorons la nouvelle carte émergente de l'industrie AI x Web3, en mettant l'accent sur certains domaines verticaux émergents à ces points de croisement technologiques.
Source : IOSG Ventures
2.1 Calcul du réseau
Le graphique sectoriel commence par présenter les réseaux de calcul, qui cherchent à résoudre le problème de l'approvisionnement limité en GPU et à essayer de Goutte les coûts de calcul de manière différente. Ce qui mérite une attention particulière est ce qui suit :
Interopérabilité GPU non uniforme: Il s'agit d'une tentative très ambitieuse avec des risques techniques et une incertitude élevés, mais si elle réussit, elle pourrait créer des résultats d'une ampleur et d'une influence considérables, rendant toutes les ressources de calcul interchangeables. Fondamentalement, cette idée consiste à construire un compilateur et d'autres prérequis pour permettre l'insertion de n'importe quelle ressource matérielle du côté de l'approvisionnement, tandis que l'hétérogénéité de tous les matériels sera totalement abstraite du côté de la demande, de sorte que vos demandes de calcul puissent être routées vers n'importe quelle ressource du réseau. Si cette vision réussit, elle réduirait la dépendance actuelle de Goutte sur le logiciel CUDA, qui est entièrement dominé par les développeurs d'IA. Bien que les risques techniques soient élevés, de nombreux experts doutent fortement de la faisabilité de cette approche.
Agrégation de GPU haute performance : intègre les GPU les plus populaires au monde dans un réseau distribué et sans autorisation, sans se soucier des problèmes d'interopérabilité entre les ressources GPU non uniformes.
Agrégation de GPU grand public : désigne l'agrégation de certains GPU de faible performance mais potentiellement disponibles sur des appareils grand public, ces GPU étant des ressources sous-utilisées du côté de l'offre. Il répond aux besoins de ceux qui sont prêts à sacrifier les performances et la vitesse pour obtenir des processus d'entraînement moins chers et plus longs.
2.2 Formation et inférence
Les réseaux de calcul sont principalement utilisés pour deux fonctions principales : l'entraînement et l'inférence. La demande de ces réseaux provient des projets Web 2.0 et Web 3.0. Dans le domaine du Web 3.0, des projets tels que Bittensor utilisent des ressources de calcul pour affiner les modèles. En ce qui concerne l'inférence, les projets Web 3.0 mettent l'accent sur la vérifiabilité du processus. Cet accent a donné naissance à l'inférence vérifiable en tant que domaine vertical du marché, où les projets explorent comment intégrer l'inférence IA dans les smart contracts tout en respectant les principes de la décentralisation.
2.3 Plateforme d'agent intelligent
Ensuite, il s'agit de la plateforme d'agent intelligent, le schéma donne un aperçu des problèmes fondamentaux à résoudre pour les start-ups de ce secteur :
Interopérabilité, découverte et capacité de communication des agents : les agents peuvent se découvrir mutuellement et communiquer.
Capacité de construction et de gestion de clusters d'agents : les agents peuvent former des clusters et gérer d'autres agents.
Propriété et marché des agents d'IA : Fournir la propriété et le marché des agents d'IA.
Ces caractéristiques mettent en évidence l'importance d'un système flexible et modulaire, qui peut s'intégrer parfaitement à diverses applications de chaînes de blocs et d'intelligence artificielle. Les agents d'IA pourraient changer radicalement notre façon d'interagir avec Internet, et nous croyons qu'ils utiliseront l'infrastructure pour soutenir leurs opérations. Nous envisageons que les agents d'IA dépendront de l'infrastructure dans les domaines suivants :
Utilisation de la capture distribuée pour accéder en temps réel aux données du réseau
Utiliser les canaux DeFi pour les paiements entre agents
Le besoin de dépôts économiques n'est pas seulement pour punir les comportements inappropriés, mais aussi pour améliorer la découvrabilité des agents (c'est-à-dire utiliser le dépôt comme signal économique pendant le processus de découverte)
Utiliser le consensus pour décider quels événements devraient entraîner des réductions
Normes d'interopérabilité ouvertes et cadre d'agence pour soutenir la construction d'ensembles composites
Évaluer les performances passées en fonction de l'histoire des données immuables et sélectionner en temps réel le collectif d'agents approprié
Source : IOSG Ventures
2.4Data Layer
Dans la fusion de l'IA et du Web3, les données sont une partie essentielle. Les données sont un actif stratégique dans la compétition de l'IA et constituent une ressource clé avec les ressources de calcul. Cependant, cette catégorie est souvent négligée car la majeure partie de l'attention de l'industrie est concentrée sur le niveau de calcul. En réalité, les primitives offrent de nombreuses directions de valeur intéressantes dans le processus d'acquisition de données, principalement dans les deux directions suivantes de haut niveau:
Accéder aux données publiques de l'Internet
Accéder aux données protégées
Accéder aux données publiques de l'Internet : Ce domaine vise à construire un réseau de crawlers distribué, capable de parcourir l'ensemble de l'Internet en quelques jours, d'obtenir de vastes ensembles de données ou d'accéder en temps réel à des données Internet très spécifiques. Cependant, pour collecter de vastes ensembles de données sur Internet, la demande en réseau est très élevée, nécessitant au moins quelques centaines de Nœud pour commencer à effectuer un travail significatif. Heureusement, Grass, un réseau de crawlers distribués, compte déjà plus de 2 millions de Nœud partageant activement la bande passante Internet, dans le but de parcourir l'ensemble de l'Internet. Cela démontre le potentiel énorme des incitations économiques pour attirer des ressources précieuses.
Bien que Grass offre un environnement de concurrence équitable en matière de données publiques, il existe toujours des problèmes d'accès aux ensembles de données propriétaires exploitant les données potentielles. Plus précisément, de nombreuses données sensibles sont encore stockées de manière sécurisée pour protéger la vie privée. De nombreuses start-ups utilisent des outils cryptographiques permettant aux développeurs d'IA de construire et d'affiner des modèles linguistiques de grande taille en utilisant la structure de base des ensembles de données propriétaires tout en maintenant la confidentialité des informations sensibles.
Les technologies telles que l'apprentissage fédéral, la confidentialité différentielle, l'environnement d'exécution de confiance, le calcul entièrement homomorphe et la calcul multi-parties offrent différents niveaux de protection de la vie privée et de compromis. Les articles de recherche de Bagel () résument de manière excellente ces technologies. Non seulement ces technologies protègent la vie privée des données dans le processus d'apprentissage automatique, mais elles permettent également de mettre en place des solutions d'IA complètes de protection de la vie privée au niveau du calcul.
2.5 Source de données et de modèles
La technologie de la source des données et des modèles vise à établir un processus qui peut garantir aux utilisateurs qu'ils interagissent avec les modèles et les données prévus. De plus, ces technologies garantissent l'authenticité et la provenance. Par exemple, la technologie de watermarking est l'une des technologies de la source des modèles, qui intègre directement une signature dans l'algorithme d'apprentissage machine, plus précisément dans les poids du modèle, de sorte qu'il est possible de vérifier si le raisonnement provient du modèle prévu lors de la récupération.
2.6 Application
En termes d'application, les possibilités de conception sont infinies. Dans le paysage industriel ci-dessus, nous avons répertorié quelques cas de développement particulièrement prometteurs liés à l'application de la technologie de l'IA dans le domaine du Web 3.0. Comme ces cas d'utilisation sont largement auto-descriptifs, nous ne ferons aucun commentaire supplémentaire à ce sujet. Cependant, il est important de noter que la convergence de l'IA et du Web 3.0 a le potentiel de remodeler de nombreux domaines, car ces nouveaux paradigmes offrent aux développeurs une plus grande liberté pour créer de nouveaux cas d'utilisation innovants et optimiser les cas d'utilisation existants.
Résumé
La fusion de l'IA et du Web3 offre des perspectives innovantes et prometteuses. En exploitant les avantages uniques de chaque technologie, nous pouvons relever divers défis et ouvrir de nouvelles voies techniques. L'interaction synergique entre l'IA et le Web3 dans cette industrie émergente peut stimuler le progrès et remodeler notre expérience numérique future et notre façon d'interagir en ligne.
La fusion de la rareté numérique et de l'abondance numérique, la mobilisation des ressources insuffisamment utilisées pour réaliser l'efficacité de calcul, ainsi que l'établissement de pratiques de données sécurisées et de protection de la vie privée, définiront l'ère de l'évolution technologique de la prochaine génération.
Cependant, nous devons reconnaître que ce secteur en est encore à ses balbutiements et que le paysage actuel du secteur pourrait devenir obsolète dans un court laps de temps. Le rythme rapide de l'innovation signifie que les solutions de pointe d'aujourd'hui pourraient rapidement être remplacées par de nouvelles percées. Néanmoins, les concepts fondamentaux abordés - tels que les réseaux de calcul, les plateformes d'agents et les protocoles de données - mettent en évidence les énormes possibilités de fusion de l'intelligence artificielle et du Web 3.0.
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
IOSG: L'illustration de la fusion de l'IA et de Web3
À première vue, l'IA x Web3 semble être des technologies indépendantes, chacune reposant sur des principes fondamentalement différents et servant des fonctions différentes. Cependant, une analyse plus approfondie révèle que ces deux technologies ont la possibilité d'équilibrer les compromis mutuels, que leurs avantages uniques peuvent se compléter mutuellement et se renforcer mutuellement. Balaji Srinivasan a brillamment exposé ce concept de capacité complémentaire lors de la conférence SuperAI, suscitant une comparaison détaillée de la façon dont ces technologies interagissent.
Les Tokens ont émergé des efforts de décentralisation des punks anonymes du réseau, en suivant une approche ascendante, et ont évolué au fil des dix longues années grâce aux efforts concertés de nombreuses entités indépendantes à travers le monde. En revanche, l'intelligence artificielle a été développée selon une approche descendante, dominée par quelques géants technologiques. Ces entreprises déterminent le rythme et la dynamique de l'industrie, et la barrière à l'entrée est déterminée par l'intensité des ressources plutôt que par la complexité technique.
Ces deux technologies ont fondamentalement des natures différentes. Fondamentalement, TOKEN est un système déterministe qui produit des résultats immuables, tels que la prévisibilité des fonctions de hachage ou des preuves à divulgation nulle de connaissance. Cela contraste nettement avec la probabilité et l'imprévisibilité habituelles de l'intelligence artificielle.
De même, la technologie de chiffrement se distingue dans la validation, garantissant l'authenticité et la sécurité des transactions, et établissant des processus et systèmes sans confiance, tandis que l'intelligence artificielle se concentre sur la création de contenu numérique riche. Cependant, lors de la création de contenu numérique riche, garantir l'origine du contenu et prévenir l'usurpation d'identité devient un défi.
Heureusement, le TOKEN offre un concept opposé numériquement riche - la rareté numérique. Il fournit des outils relativement matures qui peuvent être appliqués à la technologie de l'intelligence artificielle pour garantir la fiabilité de la source de contenu et éviter les problèmes de vol d'identité.
Un avantage significatif de TOKEN est sa capacité à attirer un grand nombre de matériels et de capitaux dans un réseau coordonné pour servir des objectifs spécifiques. Cette capacité est particulièrement bénéfique pour l'intelligence artificielle qui nécessite une grande puissance de calcul. La mobilisation de ressources sous-utilisées pour fournir une puissance de calcul moins chère peut considérablement améliorer l'efficacité de l'intelligence artificielle.
En comparant ces deux grandes technologies, nous pouvons non seulement apprécier leur contribution respective, mais aussi voir comment elles ont ouvert ensemble de nouvelles voies pour la technologie et l'économie. Chaque technologie peut compenser les lacunes de l'autre et créer un avenir plus intégré et innovant. Dans cet article de blog, nous explorons la nouvelle carte émergente de l'industrie AI x Web3, en mettant l'accent sur certains domaines verticaux émergents à ces points de croisement technologiques.
Source : IOSG Ventures
2.1 Calcul du réseau
Le graphique sectoriel commence par présenter les réseaux de calcul, qui cherchent à résoudre le problème de l'approvisionnement limité en GPU et à essayer de Goutte les coûts de calcul de manière différente. Ce qui mérite une attention particulière est ce qui suit :
2.2 Formation et inférence
Les réseaux de calcul sont principalement utilisés pour deux fonctions principales : l'entraînement et l'inférence. La demande de ces réseaux provient des projets Web 2.0 et Web 3.0. Dans le domaine du Web 3.0, des projets tels que Bittensor utilisent des ressources de calcul pour affiner les modèles. En ce qui concerne l'inférence, les projets Web 3.0 mettent l'accent sur la vérifiabilité du processus. Cet accent a donné naissance à l'inférence vérifiable en tant que domaine vertical du marché, où les projets explorent comment intégrer l'inférence IA dans les smart contracts tout en respectant les principes de la décentralisation.
2.3 Plateforme d'agent intelligent
Ensuite, il s'agit de la plateforme d'agent intelligent, le schéma donne un aperçu des problèmes fondamentaux à résoudre pour les start-ups de ce secteur :
Ces caractéristiques mettent en évidence l'importance d'un système flexible et modulaire, qui peut s'intégrer parfaitement à diverses applications de chaînes de blocs et d'intelligence artificielle. Les agents d'IA pourraient changer radicalement notre façon d'interagir avec Internet, et nous croyons qu'ils utiliseront l'infrastructure pour soutenir leurs opérations. Nous envisageons que les agents d'IA dépendront de l'infrastructure dans les domaines suivants :
Source : IOSG Ventures
2.4Data Layer
Dans la fusion de l'IA et du Web3, les données sont une partie essentielle. Les données sont un actif stratégique dans la compétition de l'IA et constituent une ressource clé avec les ressources de calcul. Cependant, cette catégorie est souvent négligée car la majeure partie de l'attention de l'industrie est concentrée sur le niveau de calcul. En réalité, les primitives offrent de nombreuses directions de valeur intéressantes dans le processus d'acquisition de données, principalement dans les deux directions suivantes de haut niveau:
Accéder aux données publiques de l'Internet : Ce domaine vise à construire un réseau de crawlers distribué, capable de parcourir l'ensemble de l'Internet en quelques jours, d'obtenir de vastes ensembles de données ou d'accéder en temps réel à des données Internet très spécifiques. Cependant, pour collecter de vastes ensembles de données sur Internet, la demande en réseau est très élevée, nécessitant au moins quelques centaines de Nœud pour commencer à effectuer un travail significatif. Heureusement, Grass, un réseau de crawlers distribués, compte déjà plus de 2 millions de Nœud partageant activement la bande passante Internet, dans le but de parcourir l'ensemble de l'Internet. Cela démontre le potentiel énorme des incitations économiques pour attirer des ressources précieuses.
Bien que Grass offre un environnement de concurrence équitable en matière de données publiques, il existe toujours des problèmes d'accès aux ensembles de données propriétaires exploitant les données potentielles. Plus précisément, de nombreuses données sensibles sont encore stockées de manière sécurisée pour protéger la vie privée. De nombreuses start-ups utilisent des outils cryptographiques permettant aux développeurs d'IA de construire et d'affiner des modèles linguistiques de grande taille en utilisant la structure de base des ensembles de données propriétaires tout en maintenant la confidentialité des informations sensibles.
Les technologies telles que l'apprentissage fédéral, la confidentialité différentielle, l'environnement d'exécution de confiance, le calcul entièrement homomorphe et la calcul multi-parties offrent différents niveaux de protection de la vie privée et de compromis. Les articles de recherche de Bagel () résument de manière excellente ces technologies. Non seulement ces technologies protègent la vie privée des données dans le processus d'apprentissage automatique, mais elles permettent également de mettre en place des solutions d'IA complètes de protection de la vie privée au niveau du calcul.
2.5 Source de données et de modèles
La technologie de la source des données et des modèles vise à établir un processus qui peut garantir aux utilisateurs qu'ils interagissent avec les modèles et les données prévus. De plus, ces technologies garantissent l'authenticité et la provenance. Par exemple, la technologie de watermarking est l'une des technologies de la source des modèles, qui intègre directement une signature dans l'algorithme d'apprentissage machine, plus précisément dans les poids du modèle, de sorte qu'il est possible de vérifier si le raisonnement provient du modèle prévu lors de la récupération.
2.6 Application
En termes d'application, les possibilités de conception sont infinies. Dans le paysage industriel ci-dessus, nous avons répertorié quelques cas de développement particulièrement prometteurs liés à l'application de la technologie de l'IA dans le domaine du Web 3.0. Comme ces cas d'utilisation sont largement auto-descriptifs, nous ne ferons aucun commentaire supplémentaire à ce sujet. Cependant, il est important de noter que la convergence de l'IA et du Web 3.0 a le potentiel de remodeler de nombreux domaines, car ces nouveaux paradigmes offrent aux développeurs une plus grande liberté pour créer de nouveaux cas d'utilisation innovants et optimiser les cas d'utilisation existants.
Résumé
La fusion de l'IA et du Web3 offre des perspectives innovantes et prometteuses. En exploitant les avantages uniques de chaque technologie, nous pouvons relever divers défis et ouvrir de nouvelles voies techniques. L'interaction synergique entre l'IA et le Web3 dans cette industrie émergente peut stimuler le progrès et remodeler notre expérience numérique future et notre façon d'interagir en ligne.
La fusion de la rareté numérique et de l'abondance numérique, la mobilisation des ressources insuffisamment utilisées pour réaliser l'efficacité de calcul, ainsi que l'établissement de pratiques de données sécurisées et de protection de la vie privée, définiront l'ère de l'évolution technologique de la prochaine génération.
Cependant, nous devons reconnaître que ce secteur en est encore à ses balbutiements et que le paysage actuel du secteur pourrait devenir obsolète dans un court laps de temps. Le rythme rapide de l'innovation signifie que les solutions de pointe d'aujourd'hui pourraient rapidement être remplacées par de nouvelles percées. Néanmoins, les concepts fondamentaux abordés - tels que les réseaux de calcul, les plateformes d'agents et les protocoles de données - mettent en évidence les énormes possibilités de fusion de l'intelligence artificielle et du Web 3.0.