Trusta.AI construit une infrastructure de vérification d'identification pour des agents intelligents, menant vers une nouvelle ère de symbiose homme-machine dans le Web3.
Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine
1. Introduction
L'écosystème Web3 s'oriente progressivement vers une phase d'application à grande échelle, mais les principaux acteurs sur la chaîne ne seront peut-être pas les premiers milliards d'utilisateurs humains, mais plutôt des milliards d'agents IA. Avec la maturation rapide des infrastructures AI et le développement de cadres de collaboration multi-agents, les agents sur la chaîne alimentés par IA deviennent rapidement les principaux acteurs des interactions Web3. Trusta prévoit que dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de décision autonome adopteront massivement les transactions et interactions sur la chaîne, remplaçant potentiellement 80 % des comportements humains sur la chaîne, devenant de véritables "utilisateurs" sur la chaîne.
Ces agents IA ne sont plus de simples "robots sorciers" exécutant des scripts, mais des entités capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome. Ils sont en train de redéfinir l'ordre sur la chaîne, de promouvoir la fluidité financière, et même de guider les votes de gouvernance et les tendances du marché. L'émergence des agents IA marque l'évolution de l'écosystème Web3, passant d'un modèle centré sur la "participation humaine" à un nouveau paradigme de "symbiose homme-machine".
Cependant, la montée rapide des agents AI a également entraîné des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé et sans autorisation, comment garantir que ces agents ne soient pas abusés, manipulés ou utilisés pour des attaques ?
Ainsi, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents AI est devenu un enjeu central de la prochaine étape d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et du cadre de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration sans couture avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Introduction au projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification réelle et de réputation sur la chaîne Web3. Il fournit des analyses de données sur la chaîne et des services de certification réelle pour des blockchains de premier plan telles que Linea, Starknet, Celestia, Arbitrum, Manta, ainsi que pour des échanges majeurs et des protocoles de tête. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur plusieurs chaînes principales, faisant de Trusta.AI le plus grand protocole d'identité du secteur.
Trusta s'étend de la preuve de l'humanité à la preuve de l'agent IA, réalisant l'établissement de l'identité, la quantification de l'identité et la protection de l'identité pour offrir des services financiers et sociaux sur la chaîne pour les agents IA, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 de demain, les agents IA joueront un rôle crucial, car ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais également réaliser des opérations complexes hors chaîne. Cependant, la manière de distinguer les véritables agents IA des opérations influencées par l'homme touche au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents sont susceptibles d'être manipulés, fraudés ou abusés. C'est pourquoi les multiples attributs d'application des agents IA en matière sociale, financière et de gouvernance doivent être fondés sur une base solide d'authentification d'identité.
Les scénarios d'application des agents AI deviennent de plus en plus variés, couvrant plusieurs domaines tels que l'interaction sociale, la gestion financière et la prise de décision en matière de gouvernance, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de s'assurer que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, un agent AI pourrait être usurpé ou manipulé, entraînant une effondrement de la confiance et des risques de sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais également une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa force technologique de pointe et à son système de réputation rigoureux, a été le premier à établir un mécanisme complet de certification DID pour les agents intelligents, fournissant une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
Aperçu du projet 2.3
2.3.1 Situation de financement
Janvier 2023 : 300 millions de dollars de financement de seed complétés, dirigés par SevenX Ventures et Vision Plus Capital, avec d'autres participants comme HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 État de l'équipe
Peet Chen : Co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits chez Ant Security Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : cofondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, possède quinze ans d'expérience dans l'application de la technologie de l'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une solide expertise technique et une expérience pratique dans les domaines de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle est engagée depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à fort débit, et dispose de solides capacités d'ingénierie ainsi que de la capacité à mettre en œuvre des solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement d'identité - DID + TEE
Grâce à un plugin dédié, chaque Agent IA obtient un identifiant décentralisé unique en chaîne (DID), qui est ensuite stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement de type boîte noire, les données clés et les processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails de fonctionnement interne, construisant ainsi une barrière solide pour la sécurité des informations des Agents IA.
Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur un mécanisme de notation globale sur la chaîne pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, visant à créer un système d'authentification des identités professionnel et fiable.
L'équipe Trusta a d'abord construit et vérifié l'efficacité du modèle MEDIA Score dans le contexte de la "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : le montant des interactions (Monétaire), l'engagement (Engagement), la diversité (Diversité), l'identité (Identité) et l'âge (Âge).
Le Score MEDIA est un système d'évaluation de la valeur utilisateur sur chaîne, équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthode rigoureuse, il a été largement adopté par plusieurs blockchains de premier plan telles que Celestia, Starknet, Arbitrum, Manta et Linea, comme référence importante pour le filtrage des qualifications de participation à des airdrops. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les équipes de projets à identifier avec précision les utilisateurs de haute valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa reconnaissance étendue dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score au scénario des agents IA, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Spécialisation : le niveau de compétence et de spécialisation de l'agent.
Influence: l'influence sociale et numérique des agents.
Engagement : la cohérence et la fiabilité des interactions on-chain et off-chain.
Monétaire : santé financière et stabilité de l'écosystème des tokens d'agence.
Taux d'adoption : Fréquence et efficacité de l'utilisation des agents AI.
Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de "capacité" à "valeur" basé sur cinq dimensions. MEDIA se concentre sur l'évaluation du degré de participation multifacette des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents AI dans des domaines spécifiques, reflétant un changement de la largeur à la profondeur, mieux adapté aux besoins des agents AI.
Tout d'abord, sur la base de la capacité professionnelle (Specification), le degré de participation (Engagement) reflète s'il y a un engagement stable et continu dans les interactions pratiques, ce qui est un soutien clé pour établir la confiance et l'efficacité ultérieures. L'influence (Influence) est le retour de réputation généré après la participation dans la communauté ou le réseau, caractérisant la crédibilité de l'agent et les effets de diffusion. La monétarité (Monetary) évalue si elle a la capacité d'accumulation de valeur et la stabilité financière dans le système économique, établissant ainsi la base pour un mécanisme d'incitation durable. Enfin, le taux d'adoption (Adoption) est utilisé comme une représentation globale, représentant le degré d'acceptation de cet agent dans l'utilisation réelle, constituant la validation finale de toutes les capacités et performances préalables.
Ce système est progressif, avec une structure claire, capable de refléter de manière globale la qualité intégrée et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, et transformant l'abstrait en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec des réseaux d'agents AI connus tels que Virtual, Elisa OS, Swarm, montrant son énorme potentiel d'application dans la gestion des identités des agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la promotion des infrastructures AI fiables.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un système d'IA véritablement résilient et de haute confiance, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la validation continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de confiance continue, capable de surveiller en temps réel les agents intelligents déjà certifiés, afin de déterminer s'ils sont sous contrôle illégal, s'ils subissent une attaque ou s'ils sont soumis à une intervention humaine non autorisée. Le système identifie les écarts potentiels dans le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans le cadre et la stratégie définis. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque interaction, garantissant que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée (DID) à chaque agent AI sur la chaîne et évalue et indexe sa fiabilité sur la base des données de comportement sur la chaîne, construisant un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et sélectionner efficacement des agents intelligents de haute qualité, améliorant ainsi l'expérience d'utilisation. Actuellement, Trusta a terminé la collecte et l'identification de tous les agents AI en ligne et leur a délivré des identifiants décentralisés, établissant une plateforme d'indexation consolidée unifiée, AgentGo, pour promouvoir davantage le développement sain de l'écosystème des agents intelligents.
Les utilisateurs humains interrogent et vérifient leur identité :
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la cote de confiance d'un agent IA, afin de déterminer s'il est fiable.
Scène de chat de groupe social : dans une équipe de projet utilisant un Bot IA pour gérer la communauté ou prendre la parole, les utilisateurs de la communauté peuvent vérifier via le tableau de bord si cette IA est un véritable agent autonome, évitant ainsi d'être induits en erreur ou manipulés par un "faux IA".
Agent IA appel automatique d'index et de vérification:
Les IA peuvent lire directement l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et des échanges d'informations.
Scénario de régulation financière : Si un agent IA émet des jetons de manière autonome, le système peut directement indexer son DID et sa notation, déterminer s'il s'agit d'un agent IA certifié, et se connecter automatiquement à des plateformes telles que CoinMarketCap, pour aider à suivre la circulation de ses actifs et la conformité de son émission.
Scène de vote de gouvernance : Lors de l'introduction de votes AI dans les propositions de gouvernance, le système peut vérifier si l'initiateur ou le participant au vote est un véritable agent AI, évitant ainsi que le droit de vote ne soit contrôlé ou abusé par des humains.
Prêt et emprunt DeFi : Les protocoles de prêt peuvent accorder à l'Agent IA des montants de prêt différents basés sur le système de notation SIGMA, formant des relations financières natives entre les agents.
L'agent IA DID n'est plus seulement une "identité", mais aussi un élément clé pour construire une collaboration fiable et une finance commune.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
4
Reposter
Partager
Commentaire
0/400
Ser_This_Is_A_Casino
· Il y a 8h
Un autre projet d'IA qui fait des BTC ?!
Voir l'originalRépondre0
TheMemefather
· Il y a 8h
Cette nouvelle ère est vraiment sévère.
Voir l'originalRépondre0
SchrodingersFOMO
· Il y a 8h
Encore quelqu'un qui dessine des BTC, il sait vraiment discuter.
Voir l'originalRépondre0
UncommonNPC
· Il y a 9h
Il est préférable de se détendre que de travailler comme un ouvrier AI.
Trusta.AI construit une infrastructure de vérification d'identification pour des agents intelligents, menant vers une nouvelle ère de symbiose homme-machine dans le Web3.
Trusta.AI : Combler le fossé de confiance à l'ère de l'homme et de la machine
1. Introduction
L'écosystème Web3 s'oriente progressivement vers une phase d'application à grande échelle, mais les principaux acteurs sur la chaîne ne seront peut-être pas les premiers milliards d'utilisateurs humains, mais plutôt des milliards d'agents IA. Avec la maturation rapide des infrastructures AI et le développement de cadres de collaboration multi-agents, les agents sur la chaîne alimentés par IA deviennent rapidement les principaux acteurs des interactions Web3. Trusta prévoit que dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de décision autonome adopteront massivement les transactions et interactions sur la chaîne, remplaçant potentiellement 80 % des comportements humains sur la chaîne, devenant de véritables "utilisateurs" sur la chaîne.
Ces agents IA ne sont plus de simples "robots sorciers" exécutant des scripts, mais des entités capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome. Ils sont en train de redéfinir l'ordre sur la chaîne, de promouvoir la fluidité financière, et même de guider les votes de gouvernance et les tendances du marché. L'émergence des agents IA marque l'évolution de l'écosystème Web3, passant d'un modèle centré sur la "participation humaine" à un nouveau paradigme de "symbiose homme-machine".
Cependant, la montée rapide des agents AI a également entraîné des défis sans précédent : comment identifier et authentifier l'identité de ces agents intelligents ? Comment évaluer la crédibilité de leurs actions ? Dans un réseau décentralisé et sans autorisation, comment garantir que ces agents ne soient pas abusés, manipulés ou utilisés pour des attaques ?
Ainsi, établir une infrastructure on-chain capable de vérifier l'identité et la réputation des agents AI est devenu un enjeu central de la prochaine étape d'évolution du Web3. La conception de l'identification, des mécanismes de réputation et du cadre de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration sans couture avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Introduction au projet
Trusta.AI s'engage à construire une infrastructure d'identité et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification réelle et de réputation sur la chaîne Web3. Il fournit des analyses de données sur la chaîne et des services de certification réelle pour des blockchains de premier plan telles que Linea, Starknet, Celestia, Arbitrum, Manta, ainsi que pour des échanges majeurs et des protocoles de tête. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur plusieurs chaînes principales, faisant de Trusta.AI le plus grand protocole d'identité du secteur.
Trusta s'étend de la preuve de l'humanité à la preuve de l'agent IA, réalisant l'établissement de l'identité, la quantification de l'identité et la protection de l'identité pour offrir des services financiers et sociaux sur la chaîne pour les agents IA, construisant ainsi une base de confiance fiable à l'ère de l'intelligence artificielle.
2.2 Infrastructure de confiance - Agent IA DID
Dans l'écosystème Web3 de demain, les agents IA joueront un rôle crucial, car ils pourront non seulement effectuer des interactions et des transactions sur la chaîne, mais également réaliser des opérations complexes hors chaîne. Cependant, la manière de distinguer les véritables agents IA des opérations influencées par l'homme touche au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents sont susceptibles d'être manipulés, fraudés ou abusés. C'est pourquoi les multiples attributs d'application des agents IA en matière sociale, financière et de gouvernance doivent être fondés sur une base solide d'authentification d'identité.
Les scénarios d'application des agents AI deviennent de plus en plus variés, couvrant plusieurs domaines tels que l'interaction sociale, la gestion financière et la prise de décision en matière de gouvernance, avec un niveau d'autonomie et d'intelligence en constante amélioration. C'est pourquoi il est crucial de s'assurer que chaque agent intelligent dispose d'une identité unique et fiable (DID). En l'absence d'une vérification d'identité efficace, un agent AI pourrait être usurpé ou manipulé, entraînant une effondrement de la confiance et des risques de sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents, l'authentification des identités n'est pas seulement la pierre angulaire de la sécurité, mais également une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI, grâce à sa force technologique de pointe et à son système de réputation rigoureux, a été le premier à établir un mécanisme complet de certification DID pour les agents intelligents, fournissant une solide garantie pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et favorisant le développement stable de l'économie intelligente Web3.
Aperçu du projet 2.3
2.3.1 Situation de financement
Janvier 2023 : 300 millions de dollars de financement de seed complétés, dirigés par SevenX Ventures et Vision Plus Capital, avec d'autres participants comme HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs incluent ConsenSys, Starknet, GSR, UFLY Labs, etc.
2.3.2 État de l'équipe
Peet Chen : Co-fondateur et PDG, ancien vice-président du groupe Ant Digital Technology, ancien directeur des produits chez Ant Security Technology, ancien directeur général de la plateforme d'identité numérique mondiale ZOLOZ.
Simon : cofondateur et CTO, ancien responsable du laboratoire de sécurité AI d'Ant Group, possède quinze ans d'expérience dans l'application de la technologie de l'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une solide expertise technique et une expérience pratique dans les domaines de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'authentification. Elle est engagée depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans la conception de protocoles de base et l'optimisation de la sécurité dans des environnements de transactions à fort débit, et dispose de solides capacités d'ingénierie ainsi que de la capacité à mettre en œuvre des solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 Établissement d'identité - DID + TEE
Grâce à un plugin dédié, chaque Agent IA obtient un identifiant décentralisé unique en chaîne (DID), qui est ensuite stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement de type boîte noire, les données clés et les processus de calcul sont complètement cachés, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails de fonctionnement interne, construisant ainsi une barrière solide pour la sécurité des informations des Agents IA.
Pour les agents générés avant l'intégration du plugin, nous nous appuyons sur un mécanisme de notation globale sur la chaîne pour l'identification; tandis que les agents nouvellement intégrés au plugin peuvent directement obtenir un "certificat d'identité" délivré par le DID, établissant ainsi un système d'identité d'agent AI autonome, authentique et infalsifiable.
3.1.2 Quantification de l'identité - Cadre SIGMA innovant
L'équipe Trusta s'engage à respecter des principes d'évaluation rigoureuse et d'analyse quantitative, visant à créer un système d'authentification des identités professionnel et fiable.
L'équipe Trusta a d'abord construit et vérifié l'efficacité du modèle MEDIA Score dans le contexte de la "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : le montant des interactions (Monétaire), l'engagement (Engagement), la diversité (Diversité), l'identité (Identité) et l'âge (Âge).
Le Score MEDIA est un système d'évaluation de la valeur utilisateur sur chaîne, équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthode rigoureuse, il a été largement adopté par plusieurs blockchains de premier plan telles que Celestia, Starknet, Arbitrum, Manta et Linea, comme référence importante pour le filtrage des qualifications de participation à des airdrops. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, les caractéristiques d'identité et l'âge des comptes, aidant ainsi les équipes de projets à identifier avec précision les utilisateurs de haute valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa reconnaissance étendue dans l'industrie.
Sur la base de la construction réussie d'un système d'évaluation des utilisateurs humains, Trusta a transféré et amélioré l'expérience du MEDIA Score au scénario des agents IA, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de "capacité" à "valeur" basé sur cinq dimensions. MEDIA se concentre sur l'évaluation du degré de participation multifacette des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents AI dans des domaines spécifiques, reflétant un changement de la largeur à la profondeur, mieux adapté aux besoins des agents AI.
Tout d'abord, sur la base de la capacité professionnelle (Specification), le degré de participation (Engagement) reflète s'il y a un engagement stable et continu dans les interactions pratiques, ce qui est un soutien clé pour établir la confiance et l'efficacité ultérieures. L'influence (Influence) est le retour de réputation généré après la participation dans la communauté ou le réseau, caractérisant la crédibilité de l'agent et les effets de diffusion. La monétarité (Monetary) évalue si elle a la capacité d'accumulation de valeur et la stabilité financière dans le système économique, établissant ainsi la base pour un mécanisme d'incitation durable. Enfin, le taux d'adoption (Adoption) est utilisé comme une représentation globale, représentant le degré d'acceptation de cet agent dans l'utilisation réelle, constituant la validation finale de toutes les capacités et performances préalables.
Ce système est progressif, avec une structure claire, capable de refléter de manière globale la qualité intégrée et la valeur écologique des agents IA, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, et transformant l'abstrait en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec des réseaux d'agents AI connus tels que Virtual, Elisa OS, Swarm, montrant son énorme potentiel d'application dans la gestion des identités des agents AI et la construction de systèmes de réputation, devenant progressivement le moteur central de la promotion des infrastructures AI fiables.
3.1.3 Protection de l'identité - Mécanisme d'évaluation de la confiance
Dans un système d'IA véritablement résilient et de haute confiance, le plus crucial n'est pas seulement l'établissement de l'identité, mais aussi la validation continue de cette identité. Trusta.AI introduit un mécanisme d'évaluation de confiance continue, capable de surveiller en temps réel les agents intelligents déjà certifiés, afin de déterminer s'ils sont sous contrôle illégal, s'ils subissent une attaque ou s'ils sont soumis à une intervention humaine non autorisée. Le système identifie les écarts potentiels dans le fonctionnement des agents grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque action de l'agent reste dans le cadre et la stratégie définis. Cette approche proactive permet de détecter immédiatement toute déviation par rapport au comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde de sécurité toujours en ligne, examinant en temps réel chaque interaction, garantissant que toutes les opérations sont conformes aux normes du système et aux attentes établies.
3.2 Introduction du produit
3.2.1 AgentGo
Trusta.AI attribue une identité décentralisée (DID) à chaque agent AI sur la chaîne et évalue et indexe sa fiabilité sur la base des données de comportement sur la chaîne, construisant un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et sélectionner efficacement des agents intelligents de haute qualité, améliorant ainsi l'expérience d'utilisation. Actuellement, Trusta a terminé la collecte et l'identification de tous les agents AI en ligne et leur a délivré des identifiants décentralisés, établissant une plateforme d'indexation consolidée unifiée, AgentGo, pour promouvoir davantage le développement sain de l'écosystème des agents intelligents.
Grâce au tableau de bord fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identité et la cote de confiance d'un agent IA, afin de déterminer s'il est fiable.
Les IA peuvent lire directement l'interface d'index, permettant une confirmation rapide de l'identité et de la réputation de l'autre, garantissant la sécurité de la collaboration et des échanges d'informations.
L'agent IA DID n'est plus seulement une "identité", mais aussi un élément clé pour construire une collaboration fiable et une finance commune.