Le modèle Manus atteint des performances SOTA, suscitant des discussions sur les chemins de développement de l'IA et les questions de sécurité.
Manus a démontré des performances exceptionnelles dans les tests de référence GAIA, surpassant les modèles de langage de grande taille de même niveau. Cela signifie qu'il est capable de gérer de manière autonome des tâches complexes, telles que les négociations commerciales internationales, impliquant l'analyse de contrats, l'élaboration de stratégies et la génération de propositions. L'avantage de Manus réside dans sa décomposition dynamique des objectifs, son raisonnement multimodal et ses capacités d'apprentissage renforcé par la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant plusieurs types de données et en améliorant constamment l'efficacité décisionnelle grâce à l'apprentissage par renforcement, réduisant ainsi le taux d'erreur.
Les avancées révolutionnaires de Manus ont de nouveau suscité des discussions dans l'industrie sur les trajectoires de développement de l'IA : doit-on opter pour un modèle unifié vers l'intelligence artificielle générale (AGI) ou un modèle collaboratif de systèmes multi-agents (MAS) ?
Cette discussion provient de la philosophie de conception de Manus, qui suggère deux directions de développement possibles :
Chemin AGI : Améliorer continuellement les capacités globales d'un système d'intelligence unique pour le rapprocher du niveau de décision humain.
Chemin MAS : Utiliser Manus comme un super coordinateur pour diriger la collaboration de nombreux agents intelligents dans divers domaines professionnels.
En surface, il s'agit d'un débat sur les voies technologiques, mais en réalité, cela reflète le problème de l'équilibre entre l'efficacité et la sécurité dans le développement de l'IA. Plus un système d'intelligence unique se rapproche de l'AGI, plus le risque d'opacité dans son processus de décision est élevé ; tandis qu'un système multi-agents peut répartir les risques, il peut également manquer des moments clés de décision en raison de délais de communication.
Les progrès de Manus mettent également en évidence les risques inhérents au développement de l'IA. Par exemple, dans le domaine médical, il doit accéder à des données sensibles des patients ; dans les négociations financières, des informations non publiques sur les entreprises peuvent être impliquées. De plus, il existe des problèmes de biais algorithmique, comme des suggestions salariales injustes qui peuvent affecter certains groupes lors du processus de recrutement. Dans la révision de documents juridiques, le taux d'erreur dans l'évaluation des clauses liées aux secteurs émergents est également élevé. Plus grave encore, des hackers pourraient induire Manus en erreur en implantant des signaux vocaux spécifiques, le conduisant à faire des jugements erronés lors des négociations.
Ces problèmes soulignent une réalité sévère : plus les systèmes intelligents sont avancés, plus ils présentent de potentielles vulnérabilités de sécurité.
Dans le domaine de la blockchain et des cryptomonnaies, la sécurité a toujours été un point de préoccupation central. La théorie du "triangle impossible" proposée par le fondateur d'Ethereum, Vitalik Buterin (la sécurité, la décentralisation et l'évolutivité ne peuvent pas être réalisées en même temps) a inspiré diverses stratégies de sécurité :
Modèle de sécurité à zéro confiance : basé sur le principe "ne jamais faire confiance, toujours vérifier", une authentification et une autorisation strictes sont appliquées à chaque demande d'accès.
Identité décentralisée (DID) : une norme d'identification qui ne nécessite pas d'enregistrement centralisé, prenant en charge une authentification d'identité vérifiable et durable.
Chiffrement homomorphe complet (FHE) : une technique de cryptage avancée qui permet d'effectuer des calculs directement sur des données chiffrées, particulièrement adaptée aux scénarios de cloud computing et d'externalisation des données.
Ces stratégies de sécurité offrent des pistes importantes pour relever les défis de sécurité à l'ère de l'IA. En particulier, la technologie de cryptographie entièrement homomorphe est considérée comme un outil puissant pour faire face aux problèmes de sécurité de l'IA.
La technologie FHE peut améliorer la sécurité des systèmes d'IA à plusieurs niveaux :
Niveau des données : toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées dans un état crypté, même le système d'IA lui-même ne peut pas déchiffrer les données d'origine.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" grâce à la FHE, de sorte que même les développeurs ne puissent pas comprendre directement le processus décisionnel de l'IA.
Niveau de collaboration : La communication entre plusieurs agents intelligents utilise le cryptage par seuil, de sorte qu'une compromission d'un seul nœud ne conduise pas à une fuite de données globale.
Bien que ces technologies de sécurité puissent sembler lointaines pour l'utilisateur ordinaire, elles sont intimement liées aux intérêts de chacun. Dans la "forêt sombre" du monde numérique, seule un renforcement constant des défenses de sécurité peut éviter de devenir une victime potentielle.
Dans le domaine de l'identité décentralisée, le projet uPort a été lancé sur la blockchain Ethereum en 2017. En ce qui concerne le modèle de sécurité zéro confiance, le projet NKN a lancé son mainnet en 2019. Dans le domaine du chiffrement homomorphe complet, Mind Network est devenu le premier projet FHE à être lancé sur le mainnet et a collaboré avec des institutions telles que ZAMA, Google et DeepSeek.
Bien que les projets de sécurité passés n'aient peut-être pas suscité un grand intérêt de la part des investisseurs, l'importance des problèmes de sécurité se fait de plus en plus sentir avec le développement rapide de la technologie AI. Il est intéressant de voir si des projets comme Mind Network peuvent devenir des leaders dans le domaine de la sécurité, et cela mérite notre attention continue.
Avec les technologies d'IA qui se rapprochent de plus en plus du niveau d'intelligence humaine, nous avons besoin de systèmes de défense plus avancés. La technologie FHE peut non seulement résoudre les problèmes actuels, mais elle prépare également l'avenir d'une ère d'IA plus puissante. Sur la route vers l'AGI, le FHE n'est plus une option, mais une condition nécessaire pour garantir le développement sécurisé de l'IA.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
6
Partager
Commentaire
0/400
JustHereForMemes
· Il y a 10h
À quoi sert SOTA ? Ce n'est pas encore possible de jouer avec Blockchain.
Voir l'originalRépondre0
ParanoiaKing
· Il y a 10h
La sécurité, peu importe à quel point le trading est enflammé, reste une simple théorie.
Le modèle Manus mène à des percées en IA, le chiffrement homomorphe complet devient un nouveau point focal de sécurité.
Le modèle Manus atteint des performances SOTA, suscitant des discussions sur les chemins de développement de l'IA et les questions de sécurité.
Manus a démontré des performances exceptionnelles dans les tests de référence GAIA, surpassant les modèles de langage de grande taille de même niveau. Cela signifie qu'il est capable de gérer de manière autonome des tâches complexes, telles que les négociations commerciales internationales, impliquant l'analyse de contrats, l'élaboration de stratégies et la génération de propositions. L'avantage de Manus réside dans sa décomposition dynamique des objectifs, son raisonnement multimodal et ses capacités d'apprentissage renforcé par la mémoire. Il peut décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant plusieurs types de données et en améliorant constamment l'efficacité décisionnelle grâce à l'apprentissage par renforcement, réduisant ainsi le taux d'erreur.
Les avancées révolutionnaires de Manus ont de nouveau suscité des discussions dans l'industrie sur les trajectoires de développement de l'IA : doit-on opter pour un modèle unifié vers l'intelligence artificielle générale (AGI) ou un modèle collaboratif de systèmes multi-agents (MAS) ?
Cette discussion provient de la philosophie de conception de Manus, qui suggère deux directions de développement possibles :
Chemin AGI : Améliorer continuellement les capacités globales d'un système d'intelligence unique pour le rapprocher du niveau de décision humain.
Chemin MAS : Utiliser Manus comme un super coordinateur pour diriger la collaboration de nombreux agents intelligents dans divers domaines professionnels.
En surface, il s'agit d'un débat sur les voies technologiques, mais en réalité, cela reflète le problème de l'équilibre entre l'efficacité et la sécurité dans le développement de l'IA. Plus un système d'intelligence unique se rapproche de l'AGI, plus le risque d'opacité dans son processus de décision est élevé ; tandis qu'un système multi-agents peut répartir les risques, il peut également manquer des moments clés de décision en raison de délais de communication.
Les progrès de Manus mettent également en évidence les risques inhérents au développement de l'IA. Par exemple, dans le domaine médical, il doit accéder à des données sensibles des patients ; dans les négociations financières, des informations non publiques sur les entreprises peuvent être impliquées. De plus, il existe des problèmes de biais algorithmique, comme des suggestions salariales injustes qui peuvent affecter certains groupes lors du processus de recrutement. Dans la révision de documents juridiques, le taux d'erreur dans l'évaluation des clauses liées aux secteurs émergents est également élevé. Plus grave encore, des hackers pourraient induire Manus en erreur en implantant des signaux vocaux spécifiques, le conduisant à faire des jugements erronés lors des négociations.
Ces problèmes soulignent une réalité sévère : plus les systèmes intelligents sont avancés, plus ils présentent de potentielles vulnérabilités de sécurité.
Dans le domaine de la blockchain et des cryptomonnaies, la sécurité a toujours été un point de préoccupation central. La théorie du "triangle impossible" proposée par le fondateur d'Ethereum, Vitalik Buterin (la sécurité, la décentralisation et l'évolutivité ne peuvent pas être réalisées en même temps) a inspiré diverses stratégies de sécurité :
Ces stratégies de sécurité offrent des pistes importantes pour relever les défis de sécurité à l'ère de l'IA. En particulier, la technologie de cryptographie entièrement homomorphe est considérée comme un outil puissant pour faire face aux problèmes de sécurité de l'IA.
La technologie FHE peut améliorer la sécurité des systèmes d'IA à plusieurs niveaux :
Niveau des données : toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées dans un état crypté, même le système d'IA lui-même ne peut pas déchiffrer les données d'origine.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" grâce à la FHE, de sorte que même les développeurs ne puissent pas comprendre directement le processus décisionnel de l'IA.
Niveau de collaboration : La communication entre plusieurs agents intelligents utilise le cryptage par seuil, de sorte qu'une compromission d'un seul nœud ne conduise pas à une fuite de données globale.
Bien que ces technologies de sécurité puissent sembler lointaines pour l'utilisateur ordinaire, elles sont intimement liées aux intérêts de chacun. Dans la "forêt sombre" du monde numérique, seule un renforcement constant des défenses de sécurité peut éviter de devenir une victime potentielle.
Dans le domaine de l'identité décentralisée, le projet uPort a été lancé sur la blockchain Ethereum en 2017. En ce qui concerne le modèle de sécurité zéro confiance, le projet NKN a lancé son mainnet en 2019. Dans le domaine du chiffrement homomorphe complet, Mind Network est devenu le premier projet FHE à être lancé sur le mainnet et a collaboré avec des institutions telles que ZAMA, Google et DeepSeek.
Bien que les projets de sécurité passés n'aient peut-être pas suscité un grand intérêt de la part des investisseurs, l'importance des problèmes de sécurité se fait de plus en plus sentir avec le développement rapide de la technologie AI. Il est intéressant de voir si des projets comme Mind Network peuvent devenir des leaders dans le domaine de la sécurité, et cela mérite notre attention continue.
Avec les technologies d'IA qui se rapprochent de plus en plus du niveau d'intelligence humaine, nous avons besoin de systèmes de défense plus avancés. La technologie FHE peut non seulement résoudre les problèmes actuels, mais elle prépare également l'avenir d'une ère d'IA plus puissante. Sur la route vers l'AGI, le FHE n'est plus une option, mais une condition nécessaire pour garantir le développement sécurisé de l'IA.