La couche de confiance de l'IA : le réseau Mira et ses solutions pour résoudre les biais et les hallucinations de l'IA
Récemment, le réseau Mira a officiellement lancé son réseau de test public, ce projet vise à construire une couche de confiance pour l'intelligence artificielle. Alors, pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-il ce problème ?
Lorsque l'on discute de l'IA, les gens s'intéressent souvent à ses puissantes capacités. Cependant, les problèmes de "hallucinations" ou de biais de l'IA sont souvent négligés. Ce que l'on appelle les "hallucinations" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des informations, fournissant des explications qui semblent raisonnables mais qui ne sont en réalité pas précises. Par exemple, si l'on demande à l'IA pourquoi la lune est rose, elle pourrait fournir une série d'explications qui semblent raisonnables mais qui ne sont en réalité pas correctes.
L'apparition de "hallucinations" ou de biais dans l'IA est liée à certaines des voies technologiques actuelles de l'IA. Par exemple, l'IA générative réalise des sorties cohérentes et raisonnables en prédisant le contenu "le plus probable", mais cette méthode peut parfois être difficile à vérifier. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même du contenu fictif, ce qui peut affecter la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle basé sur les données conduisent presque inévitablement à des hallucinations de l'IA. Bien que ce problème puisse ne pas avoir de conséquences graves immédiates dans des contenus de connaissances générales ou de divertissement, il peut avoir des impacts significatifs dans des domaines nécessitant une rigueur élevée tels que la médecine, le droit, l'aviation et la finance. Par conséquent, résoudre les problèmes d'hallucination et de biais de l'IA est devenu l'un des défis centraux dans le processus de développement de l'IA.
Le projet Mira tente précisément de résoudre ce problème. Son objectif est de construire une couche de confiance pour l'IA, de réduire les biais et les illusions de l'IA, et d'améliorer la fiabilité de l'IA. Alors, comment Mira atteint-elle cet objectif ?
La stratégie fondamentale de Mira consiste à valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira adopte une méthode de validation par consensus décentralisée.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Cela exploite non seulement les avantages du domaine de la cryptographie, mais réduit également les biais et les illusions grâce à un modèle de validation collective par la collaboration de multiples modèles.
En ce qui concerne l'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Les opérateurs de nœuds participent à la validation de ces déclarations, et pour garantir l'honnêteté des opérateurs de nœuds, Mira utilise un mécanisme d'incitation/punition économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat en différentes déclarations vérifiables, puis les distribue aux nœuds pour validation, et enfin, compile les résultats pour parvenir à un consensus. Afin de protéger la vie privée des clients, les déclarations seront distribuées à différents nœuds par un moyen de fragmentation aléatoire.
Les opérateurs de nœuds sont responsables de l'exécution des modèles de validateurs, de la gestion des déclarations et de la soumission des résultats de validation. Leur motivation à participer à la validation vient des gains qu'ils peuvent obtenir. Ces gains proviennent de la valeur créée pour les clients, à savoir la réduction du taux d'erreurs de l'IA dans des domaines clés. Pour prévenir les comportements spéculatifs des nœuds répondant de manière aléatoire, les nœuds qui s'écartent continuellement du consensus se verront pénaliser en perdant des jetons de mise.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, apportant une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les illusions de l'IA, et répondant à des exigences de précision et de taux de précision plus élevés. En bref, Mira tente de construire une couche de confiance pour l'IA, ce qui est d'une grande importance pour promouvoir le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira via Klok (une application de chat LLM basée sur Mira), expérimenter les sorties AI vérifiées et avoir la chance de gagner des points Mira. Cela offre aux utilisateurs une occasion de comparer de manière intuitive les différences entre les sorties AI avant et après vérification, démontrant le potentiel du réseau Mira à améliorer la fiabilité de l'AI.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
16 J'aime
Récompense
16
5
Partager
Commentaire
0/400
GmGmNoGn
· Il y a 3h
mira est en train de générer du trafic kol ?
Voir l'originalRépondre0
RektRecovery
· Il y a 3h
mdr un autre "couche de confiance" qui va se faire détruire dans 3... 2... 1...
Voir l'originalRépondre0
SeeYouInFourYears
· Il y a 3h
Comment l'IA peut-elle raconter des histoires aussi bien ?
Voir l'originalRépondre0
hodl_therapist
· Il y a 3h
Quand l'IA pourra-t-elle corriger elle-même les illusions ?
Voir l'originalRépondre0
GasWastingMaximalist
· Il y a 3h
Cette vague haussière, je vais d'abord spéculer par respect.
Le test public du réseau Mira est en ligne, créant une couche de confiance en IA pour résoudre les problèmes de biais et d'illusion.
La couche de confiance de l'IA : le réseau Mira et ses solutions pour résoudre les biais et les hallucinations de l'IA
Récemment, le réseau Mira a officiellement lancé son réseau de test public, ce projet vise à construire une couche de confiance pour l'intelligence artificielle. Alors, pourquoi l'IA a-t-elle besoin d'être digne de confiance ? Comment Mira résout-il ce problème ?
Lorsque l'on discute de l'IA, les gens s'intéressent souvent à ses puissantes capacités. Cependant, les problèmes de "hallucinations" ou de biais de l'IA sont souvent négligés. Ce que l'on appelle les "hallucinations" de l'IA, en termes simples, signifie que l'IA peut parfois "inventer" des informations, fournissant des explications qui semblent raisonnables mais qui ne sont en réalité pas précises. Par exemple, si l'on demande à l'IA pourquoi la lune est rose, elle pourrait fournir une série d'explications qui semblent raisonnables mais qui ne sont en réalité pas correctes.
L'apparition de "hallucinations" ou de biais dans l'IA est liée à certaines des voies technologiques actuelles de l'IA. Par exemple, l'IA générative réalise des sorties cohérentes et raisonnables en prédisant le contenu "le plus probable", mais cette méthode peut parfois être difficile à vérifier. De plus, les données d'entraînement elles-mêmes peuvent contenir des erreurs, des biais ou même du contenu fictif, ce qui peut affecter la qualité de la sortie de l'IA. En d'autres termes, l'IA apprend des modèles linguistiques humains, et non des faits eux-mêmes.
Le mécanisme de génération de probabilités actuel et le modèle basé sur les données conduisent presque inévitablement à des hallucinations de l'IA. Bien que ce problème puisse ne pas avoir de conséquences graves immédiates dans des contenus de connaissances générales ou de divertissement, il peut avoir des impacts significatifs dans des domaines nécessitant une rigueur élevée tels que la médecine, le droit, l'aviation et la finance. Par conséquent, résoudre les problèmes d'hallucination et de biais de l'IA est devenu l'un des défis centraux dans le processus de développement de l'IA.
Le projet Mira tente précisément de résoudre ce problème. Son objectif est de construire une couche de confiance pour l'IA, de réduire les biais et les illusions de l'IA, et d'améliorer la fiabilité de l'IA. Alors, comment Mira atteint-elle cet objectif ?
La stratégie fondamentale de Mira consiste à valider les sorties de l'IA par le consensus de plusieurs modèles d'IA. C'est essentiellement un réseau de validation qui utilise le consensus de plusieurs modèles d'IA pour vérifier la fiabilité des sorties de l'IA. Plus important encore, Mira adopte une méthode de validation par consensus décentralisée.
La clé du réseau Mira réside dans la validation de consensus décentralisée. Cela exploite non seulement les avantages du domaine de la cryptographie, mais réduit également les biais et les illusions grâce à un modèle de validation collective par la collaboration de multiples modèles.
En ce qui concerne l'architecture de validation, le protocole Mira prend en charge la conversion de contenus complexes en déclarations de validation indépendantes. Les opérateurs de nœuds participent à la validation de ces déclarations, et pour garantir l'honnêteté des opérateurs de nœuds, Mira utilise un mécanisme d'incitation/punition économique cryptographique. Différents modèles d'IA et des opérateurs de nœuds décentralisés participent ensemble pour garantir la fiabilité des résultats de validation.
L'architecture réseau de Mira comprend la conversion de contenu, la validation distribuée et un mécanisme de consensus. Tout d'abord, le système décompose le contenu candidat en différentes déclarations vérifiables, puis les distribue aux nœuds pour validation, et enfin, compile les résultats pour parvenir à un consensus. Afin de protéger la vie privée des clients, les déclarations seront distribuées à différents nœuds par un moyen de fragmentation aléatoire.
Les opérateurs de nœuds sont responsables de l'exécution des modèles de validateurs, de la gestion des déclarations et de la soumission des résultats de validation. Leur motivation à participer à la validation vient des gains qu'ils peuvent obtenir. Ces gains proviennent de la valeur créée pour les clients, à savoir la réduction du taux d'erreurs de l'IA dans des domaines clés. Pour prévenir les comportements spéculatifs des nœuds répondant de manière aléatoire, les nœuds qui s'écartent continuellement du consensus se verront pénaliser en perdant des jetons de mise.
Dans l'ensemble, Mira propose une nouvelle approche pour assurer la fiabilité de l'IA. Elle construit un réseau de validation de consensus décentralisé basé sur plusieurs modèles d'IA, apportant une plus grande fiabilité aux services d'IA pour les clients, réduisant les biais et les illusions de l'IA, et répondant à des exigences de précision et de taux de précision plus élevés. En bref, Mira tente de construire une couche de confiance pour l'IA, ce qui est d'une grande importance pour promouvoir le développement approfondi des applications d'IA.
Actuellement, les utilisateurs peuvent participer au test public de Mira via Klok (une application de chat LLM basée sur Mira), expérimenter les sorties AI vérifiées et avoir la chance de gagner des points Mira. Cela offre aux utilisateurs une occasion de comparer de manière intuitive les différences entre les sorties AI avant et après vérification, démontrant le potentiel du réseau Mira à améliorer la fiabilité de l'AI.