Sécurité de l'IA problématique, le chiffrement homomorphe complet pourrait être la solution.
Avec le développement rapide de la technologie de l'intelligence artificielle, Manus a réalisé des performances révolutionnaires dans le test de référence GAIA, surpassant les grands modèles de langage de même niveau. Manus a démontré sa capacité à effectuer de manière autonome des tâches complexes, telles que les négociations commerciales internationales, qui impliquent des connaissances spécialisées dans divers domaines. Par rapport aux systèmes traditionnels, Manus présente des avantages significatifs en matière de décomposition dynamique des objectifs, de raisonnement multimodal et d'apprentissage renforcé par la mémoire.
Cependant, les progrès de Manus ont également suscité des débats animés dans l'industrie sur la voie de développement de l'IA : surgira-t-il un agent d'intelligence artificielle générale unifiée (AGI), ou plusieurs agents intelligents spécialisés (MAS) travailleront-ils en collaboration ? Ce débat reflète en réalité la question de l'équilibre entre efficacité et sécurité dans le développement de l'IA. Lorsqu'un agent unique se rapproche de l'AGI, l'opacité du processus décisionnel augmente le risque ; tandis que la collaboration de plusieurs agents peut disperser le risque, elle peut également entraîner des retards de communication et faire manquer des moments décisifs pour prendre des décisions.
Le développement de Manus amplifie sans le vouloir les risques de sécurité inhérents à l'IA. Dans le cadre médical, il nécessite l'accès aux données génomiques sensibles des patients ; dans les négociations financières, il peut impliquer des informations financières non divulguées par les entreprises. De plus, les systèmes d'IA font face à des problèmes tels que le biais algorithmique et les attaques adversariales. Par exemple, lors du processus de recrutement, des suggestions de salaire injustes peuvent être faites pour certains groupes, ou lors de la révision de documents juridiques, la précision des jugements sur les termes des secteurs émergents peut être faible. Plus grave encore, des hackers pourraient interférer avec le jugement des systèmes d'IA lors des négociations en insérant des signaux audio spécifiques.
Face à ces défis, l'industrie explore diverses solutions de sécurité. Parmi celles-ci, la technologie de chiffrement homomorphe complet (FHE) est considérée comme un outil puissant pour résoudre les problèmes de sécurité à l'ère de l'IA. Le FHE permet d'effectuer des calculs sur des données chiffrées sans nécessiter de décryptage pour traiter des informations sensibles.
Au niveau des données, le FHE peut garantir que toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées en état de chiffrement, même le système d'IA lui-même ne peut pas déchiffrer les données brutes. Au niveau des algorithmes, le "modèle d'entraînement chiffré" réalisé par le FHE peut protéger le processus de décision de l'IA contre toute forme d'espionnage. Dans le cadre de la collaboration entre agents multiples, l'utilisation de techniques de chiffrement par seuil peut empêcher qu'un seul nœud compromis ne conduise à une fuite de données globales.
Bien que les technologies de sécurité Web3 puissent sembler éloignées pour l'utilisateur moyen, elles sont essentielles pour protéger les intérêts des utilisateurs. Dans l'industrie de la blockchain, certains projets explorent des technologies de sécurité telles que l'identité décentralisée et les modèles de sécurité Zero Trust. Cependant, par rapport à d'autres domaines plus médiatisés, les projets de sécurité sont souvent négligés par les spéculateurs.
Avec les technologies de l'IA s'approchant continuellement du niveau d'intelligence humaine, il devient de plus en plus important d'établir un système de défense solide. Les technologies de sécurité telles que le chiffrement homomorphe complet (FHE) peuvent non seulement résoudre des problèmes actuels, mais aussi établir une base pour un avenir avec une IA plus puissante. Sur la route vers l'AGI, ces technologies de sécurité ne sont plus des options, mais une condition nécessaire pour assurer le fonctionnement fiable des systèmes d'IA.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
7
Partager
Commentaire
0/400
StrawberryIce
· 07-30 22:37
Si vous ne comprenez pas, demandez ce qui se passe avec ce problème de sécurité.
Voir l'originalRépondre0
ThatsNotARugPull
· 07-30 17:22
Les machines sont plus malines que moi gg
Voir l'originalRépondre0
fomo_fighter
· 07-30 17:16
Une autre solution de piratage est sortie, j'attends de me faire gifler.
Voir l'originalRépondre0
MemeCoinSavant
· 07-30 17:15
selon mon analyse mémétique approfondie, MA n'est qu'un AGI avec un peu plus de copium pour être honnête... hopium décentralisé vraiment vraiment
Voir l'originalRépondre0
GasFeeLover
· 07-30 17:14
Y a-t-il vraiment des gens qui croient encore en AGI ?
Voir l'originalRépondre0
Rekt_Recovery
· 07-30 17:01
honnêtement, j'ai déjà été ruiné par des bots de trading... je ne touche pas à ce truc manus avec une perche de 3 mètres, pour être franc.
Voir l'originalRépondre0
MainnetDelayedAgain
· 07-30 16:54
Faisons le point, c'est déjà le 5ème projet de cette année qui prétend vouloir créer un agent intelligent sécurisé... cela fait 326 jours depuis le premier projet fantaisiste, en attendant une mise à jour des données.
Chiffrement homomorphe complet : le bouclier de sécurité à l'ère de l'IA et la clé du développement de l'AGI
Sécurité de l'IA problématique, le chiffrement homomorphe complet pourrait être la solution.
Avec le développement rapide de la technologie de l'intelligence artificielle, Manus a réalisé des performances révolutionnaires dans le test de référence GAIA, surpassant les grands modèles de langage de même niveau. Manus a démontré sa capacité à effectuer de manière autonome des tâches complexes, telles que les négociations commerciales internationales, qui impliquent des connaissances spécialisées dans divers domaines. Par rapport aux systèmes traditionnels, Manus présente des avantages significatifs en matière de décomposition dynamique des objectifs, de raisonnement multimodal et d'apprentissage renforcé par la mémoire.
Cependant, les progrès de Manus ont également suscité des débats animés dans l'industrie sur la voie de développement de l'IA : surgira-t-il un agent d'intelligence artificielle générale unifiée (AGI), ou plusieurs agents intelligents spécialisés (MAS) travailleront-ils en collaboration ? Ce débat reflète en réalité la question de l'équilibre entre efficacité et sécurité dans le développement de l'IA. Lorsqu'un agent unique se rapproche de l'AGI, l'opacité du processus décisionnel augmente le risque ; tandis que la collaboration de plusieurs agents peut disperser le risque, elle peut également entraîner des retards de communication et faire manquer des moments décisifs pour prendre des décisions.
Le développement de Manus amplifie sans le vouloir les risques de sécurité inhérents à l'IA. Dans le cadre médical, il nécessite l'accès aux données génomiques sensibles des patients ; dans les négociations financières, il peut impliquer des informations financières non divulguées par les entreprises. De plus, les systèmes d'IA font face à des problèmes tels que le biais algorithmique et les attaques adversariales. Par exemple, lors du processus de recrutement, des suggestions de salaire injustes peuvent être faites pour certains groupes, ou lors de la révision de documents juridiques, la précision des jugements sur les termes des secteurs émergents peut être faible. Plus grave encore, des hackers pourraient interférer avec le jugement des systèmes d'IA lors des négociations en insérant des signaux audio spécifiques.
Face à ces défis, l'industrie explore diverses solutions de sécurité. Parmi celles-ci, la technologie de chiffrement homomorphe complet (FHE) est considérée comme un outil puissant pour résoudre les problèmes de sécurité à l'ère de l'IA. Le FHE permet d'effectuer des calculs sur des données chiffrées sans nécessiter de décryptage pour traiter des informations sensibles.
Au niveau des données, le FHE peut garantir que toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées en état de chiffrement, même le système d'IA lui-même ne peut pas déchiffrer les données brutes. Au niveau des algorithmes, le "modèle d'entraînement chiffré" réalisé par le FHE peut protéger le processus de décision de l'IA contre toute forme d'espionnage. Dans le cadre de la collaboration entre agents multiples, l'utilisation de techniques de chiffrement par seuil peut empêcher qu'un seul nœud compromis ne conduise à une fuite de données globales.
Bien que les technologies de sécurité Web3 puissent sembler éloignées pour l'utilisateur moyen, elles sont essentielles pour protéger les intérêts des utilisateurs. Dans l'industrie de la blockchain, certains projets explorent des technologies de sécurité telles que l'identité décentralisée et les modèles de sécurité Zero Trust. Cependant, par rapport à d'autres domaines plus médiatisés, les projets de sécurité sont souvent négligés par les spéculateurs.
Avec les technologies de l'IA s'approchant continuellement du niveau d'intelligence humaine, il devient de plus en plus important d'établir un système de défense solide. Les technologies de sécurité telles que le chiffrement homomorphe complet (FHE) peuvent non seulement résoudre des problèmes actuels, mais aussi établir une base pour un avenir avec une IA plus puissante. Sur la route vers l'AGI, ces technologies de sécurité ne sont plus des options, mais une condition nécessaire pour assurer le fonctionnement fiable des systèmes d'IA.