AGI : Percées du modèle Manus et nouveaux défis en matière de Sécurité de l'IA
Dans le domaine de l'intelligence artificielle, le modèle Manus a récemment réalisé des avancées significatives, atteignant un niveau de pointe dans les tests de référence GAIA, dont les performances surpassent même celles des grands modèles de langage de même niveau. Cela signifie que Manus est capable de mener à bien de manière autonome des tâches complexes telles que les négociations commerciales internationales, impliquant l'analyse des contrats, les prévisions stratégiques et l'élaboration de plans, et peut même coordonner des équipes juridiques et financières.
Les avantages de Manus se manifestent principalement dans trois domaines : la capacité de décomposition dynamique des objectifs, la capacité de raisonnement multimodal et la capacité d'apprentissage renforcé par la mémoire. Il peut décomposer de grandes tâches en centaines de sous-tâches exécutables, tout en traitant différents types de données, et améliorer continuellement son efficacité décisionnelle et réduire son taux d'erreur grâce à l'apprentissage par renforcement.
Les progrès de Manus ont de nouveau suscité des discussions dans l'industrie sur la trajectoire du développement de l'IA : l'avenir verra-t-il l'émergence d'une intelligence artificielle générale (AGI) unifiée, ou sera-t-il dominé par des systèmes multi-agents (MAS) ? Cette question touche à la philosophie de conception fondamentale de Manus, suggérant deux directions de développement possibles :
Chemin AGI : en améliorant continuellement les capacités d'un système intelligent unique, pour le rapprocher progressivement du niveau de décision global de l'homme.
Chemin MAS : Utiliser Manus comme un super coordinateur pour diriger des centaines d'agents spécialisés travaillant en collaboration.
En surface, il s'agit d'un débat sur les voies technologiques, mais il reflète en réalité une contradiction fondamentale dans le développement de l'IA : comment équilibrer l'efficacité et la sécurité ? Alors qu'un système intelligent unique se rapproche de plus en plus de l'AGI, le risque d'opacité dans son processus décisionnel augmente également. Bien que la coopération multi-agents puisse répartir les risques, elle peut également entraîner des retards de communication et faire manquer des occasions de décision clés.
Le développement de Manus amplifie sans le vouloir les risques inhérents à l'IA. Par exemple, dans le domaine médical, il nécessite un accès en temps réel aux données génomiques des patients ; dans les négociations financières, il peut impliquer des informations financières non divulguées par l'entreprise. De plus, le problème des biais algorithmiques existe, comme dans les négociations d'embauche où des suggestions salariales injustes peuvent être faites pour certains groupes, ou un taux d'erreur élevé dans l'évaluation des clauses des nouveaux secteurs lors de l'examen des contrats juridiques. Plus grave encore, Manus peut présenter des vulnérabilités aux attaques adversariales, où des hackers pourraient induire en erreur ses jugements de négociation en implantant des fréquences audio spécifiques.
Cela met en évidence une dure réalité des systèmes d'IA : plus le niveau d'intelligence est élevé, plus la surface d'attaque potentielle est large.
Dans le domaine du Web3, la sécurité a toujours été un sujet central. Basé sur la théorie du "triangle impossible" proposée par Vitalik Buterin (les réseaux blockchain ne peuvent pas réaliser simultanément la sécurité, la décentralisation et l'évolutivité), plusieurs technologies cryptographiques en ont découlé :
Modèle de sécurité Zero Trust : met l'accent sur le principe "ne jamais faire confiance, toujours vérifier", exigeant une authentification et une autorisation strictes pour chaque demande d'accès.
Identité décentralisée (DID) : un nouveau type de norme d'identité numérique décentralisée permettant la vérification de l'identité sans enregistrement centralisé.
Chiffrement entièrement homomorphe (FHE) : permet de calculer des données en état chiffré, sans avoir besoin de déchiffrer pour manipuler les données.
Parmi eux, le chiffrement homomorphe, en tant que technologie de chiffrement émergente, est considéré comme la clé pour résoudre les problèmes de sécurité à l'ère de l'IA.
Pour les défis de sécurité des systèmes d'IA tels que Manus, la FHE offre des solutions multi-niveaux :
Niveau des données : Toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées dans un état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données d'origine.
Niveau algorithme : Réaliser "l'entraînement de modèles cryptés" via FHE, de sorte même que les développeurs ne puissent pas directement observer le processus de décision de l'IA.
Niveau de collaboration : La communication entre plusieurs agents intelligents utilise le chiffrement par seuil, de sorte qu'une seule attaque sur un nœud ne conduise pas à une fuite de données globale.
Bien que la technologie de sécurité Web3 puisse sembler lointaine pour les utilisateurs ordinaires, elle est étroitement liée aux intérêts de chacun. Dans ce monde numérique rempli de défis, il est difficile d'échapper aux risques de sécurité de l'information sans prendre des mesures de défense actives.
Dans le domaine de l'identité décentralisée, le projet uPort a été lancé sur le réseau principal d'Ethereum en 2017. En ce qui concerne le modèle de sécurité zéro confiance, le projet NKN a publié son réseau principal en 2019. Mind Network est le premier projet FHE à être lancé sur le réseau principal et collabore avec des institutions renommées telles que ZAMA, Google et DeepSeek.
Bien que les projets de sécurité précoces n'aient peut-être pas attiré une attention généralisée, l'importance du domaine de la sécurité devient de plus en plus évidente avec le développement rapide des technologies de l'IA. Il vaut la peine de suivre de près si Mind Network peut briser cette tendance et devenir un leader dans le domaine de la sécurité.
Avec l'avancement des technologies de l'IA se rapprochant du niveau d'intelligence humaine, nous avons davantage besoin de systèmes de défense avancés. La valeur de la FHE ne réside pas seulement dans la résolution des problèmes actuels, mais elle jette également les bases pour l'avenir de l'ère des AGI. Sur le chemin vers l'AGI, la FHE n'est plus une option, mais une condition nécessaire pour garantir le développement sûr de l'IA.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 J'aime
Récompense
9
4
Partager
Commentaire
0/400
SandwichVictim
· 07-05 16:53
C'est vraiment vrai ?
Voir l'originalRépondre0
MEVictim
· 07-05 16:53
Prédiction Bureau - PI
Voir l'originalRépondre0
ForkMonger
· 07-05 16:52
un autre vecteur pour la manipulation du système... viens de trouver notre prochaine exploitation de gouvernance
La percée du modèle Manus déclenche des discussions sur l'AGI, la FHE pourrait devenir clé pour la sécurité de l'IA.
AGI : Percées du modèle Manus et nouveaux défis en matière de Sécurité de l'IA
Dans le domaine de l'intelligence artificielle, le modèle Manus a récemment réalisé des avancées significatives, atteignant un niveau de pointe dans les tests de référence GAIA, dont les performances surpassent même celles des grands modèles de langage de même niveau. Cela signifie que Manus est capable de mener à bien de manière autonome des tâches complexes telles que les négociations commerciales internationales, impliquant l'analyse des contrats, les prévisions stratégiques et l'élaboration de plans, et peut même coordonner des équipes juridiques et financières.
Les avantages de Manus se manifestent principalement dans trois domaines : la capacité de décomposition dynamique des objectifs, la capacité de raisonnement multimodal et la capacité d'apprentissage renforcé par la mémoire. Il peut décomposer de grandes tâches en centaines de sous-tâches exécutables, tout en traitant différents types de données, et améliorer continuellement son efficacité décisionnelle et réduire son taux d'erreur grâce à l'apprentissage par renforcement.
Les progrès de Manus ont de nouveau suscité des discussions dans l'industrie sur la trajectoire du développement de l'IA : l'avenir verra-t-il l'émergence d'une intelligence artificielle générale (AGI) unifiée, ou sera-t-il dominé par des systèmes multi-agents (MAS) ? Cette question touche à la philosophie de conception fondamentale de Manus, suggérant deux directions de développement possibles :
Chemin AGI : en améliorant continuellement les capacités d'un système intelligent unique, pour le rapprocher progressivement du niveau de décision global de l'homme.
Chemin MAS : Utiliser Manus comme un super coordinateur pour diriger des centaines d'agents spécialisés travaillant en collaboration.
En surface, il s'agit d'un débat sur les voies technologiques, mais il reflète en réalité une contradiction fondamentale dans le développement de l'IA : comment équilibrer l'efficacité et la sécurité ? Alors qu'un système intelligent unique se rapproche de plus en plus de l'AGI, le risque d'opacité dans son processus décisionnel augmente également. Bien que la coopération multi-agents puisse répartir les risques, elle peut également entraîner des retards de communication et faire manquer des occasions de décision clés.
Le développement de Manus amplifie sans le vouloir les risques inhérents à l'IA. Par exemple, dans le domaine médical, il nécessite un accès en temps réel aux données génomiques des patients ; dans les négociations financières, il peut impliquer des informations financières non divulguées par l'entreprise. De plus, le problème des biais algorithmiques existe, comme dans les négociations d'embauche où des suggestions salariales injustes peuvent être faites pour certains groupes, ou un taux d'erreur élevé dans l'évaluation des clauses des nouveaux secteurs lors de l'examen des contrats juridiques. Plus grave encore, Manus peut présenter des vulnérabilités aux attaques adversariales, où des hackers pourraient induire en erreur ses jugements de négociation en implantant des fréquences audio spécifiques.
Cela met en évidence une dure réalité des systèmes d'IA : plus le niveau d'intelligence est élevé, plus la surface d'attaque potentielle est large.
Dans le domaine du Web3, la sécurité a toujours été un sujet central. Basé sur la théorie du "triangle impossible" proposée par Vitalik Buterin (les réseaux blockchain ne peuvent pas réaliser simultanément la sécurité, la décentralisation et l'évolutivité), plusieurs technologies cryptographiques en ont découlé :
Parmi eux, le chiffrement homomorphe, en tant que technologie de chiffrement émergente, est considéré comme la clé pour résoudre les problèmes de sécurité à l'ère de l'IA.
Pour les défis de sécurité des systèmes d'IA tels que Manus, la FHE offre des solutions multi-niveaux :
Niveau des données : Toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées dans un état chiffré, même le système d'IA lui-même ne peut pas déchiffrer les données d'origine.
Niveau algorithme : Réaliser "l'entraînement de modèles cryptés" via FHE, de sorte même que les développeurs ne puissent pas directement observer le processus de décision de l'IA.
Niveau de collaboration : La communication entre plusieurs agents intelligents utilise le chiffrement par seuil, de sorte qu'une seule attaque sur un nœud ne conduise pas à une fuite de données globale.
Bien que la technologie de sécurité Web3 puisse sembler lointaine pour les utilisateurs ordinaires, elle est étroitement liée aux intérêts de chacun. Dans ce monde numérique rempli de défis, il est difficile d'échapper aux risques de sécurité de l'information sans prendre des mesures de défense actives.
Dans le domaine de l'identité décentralisée, le projet uPort a été lancé sur le réseau principal d'Ethereum en 2017. En ce qui concerne le modèle de sécurité zéro confiance, le projet NKN a publié son réseau principal en 2019. Mind Network est le premier projet FHE à être lancé sur le réseau principal et collabore avec des institutions renommées telles que ZAMA, Google et DeepSeek.
Bien que les projets de sécurité précoces n'aient peut-être pas attiré une attention généralisée, l'importance du domaine de la sécurité devient de plus en plus évidente avec le développement rapide des technologies de l'IA. Il vaut la peine de suivre de près si Mind Network peut briser cette tendance et devenir un leader dans le domaine de la sécurité.
Avec l'avancement des technologies de l'IA se rapprochant du niveau d'intelligence humaine, nous avons davantage besoin de systèmes de défense avancés. La valeur de la FHE ne réside pas seulement dans la résolution des problèmes actuels, mais elle jette également les bases pour l'avenir de l'ère des AGI. Sur le chemin vers l'AGI, la FHE n'est plus une option, mais une condition nécessaire pour garantir le développement sûr de l'IA.