Camada de Confiança da IA: Rede Mira e suas soluções para preconceitos e alucinações da IA
Recentemente, a rede Mira lançou oficialmente a sua rede de testes pública, um projeto que visa construir uma camada de confiança para a inteligência artificial. Então, por que a IA precisa ser confiável? Como é que a Mira resolve esse problema?
Ao discutir a IA, as pessoas tendem a se concentrar mais em suas poderosas capacidades. No entanto, o problema das "ilusões" ou preconceitos da IA é frequentemente ignorado. O que se chama de "ilusão" da IA, em termos simples, é que a IA às vezes "inventa" informações, fornecendo explicações que parecem razoáveis, mas que na verdade não são precisas. Por exemplo, se perguntar à IA por que a lua é rosa, ela pode fornecer uma série de explicações que soam razoáveis, mas que na verdade não estão corretas.
A "ilusão" ou preconceito que aparece na IA está relacionada a algumas das trajetórias tecnológicas atuais da IA. Por exemplo, a IA generativa alcança saídas coerentes e razoáveis ao prever o conteúdo "mais provável", mas esse método às vezes é difícil de verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até mesmo conteúdos fictícios, o que afeta a qualidade da saída da IA. Em outras palavras, a IA aprende padrões da linguagem humana, e não os fatos em si.
O atual mecanismo de geração de probabilidades e o modelo orientado por dados quase inevitavelmente levarão a IA a produzir alucinações. Embora, em conteúdos gerais de conhecimento ou entretenimento, esse problema possa não causar consequências graves imediatamente, em áreas que exigem alta rigorosidade, como saúde, direito, aviação e finanças, pode ter um impacto significativo. Assim, resolver os problemas de alucinação e preconceito da IA tornou-se um dos desafios centrais no processo de desenvolvimento da IA.
O projeto Mira está a tentar resolver este problema. O seu objetivo é construir uma camada de confiança para a IA, reduzindo o preconceito e as ilusões da IA, aumentando a fiabilidade da IA. Então, como é que a Mira alcança este objetivo?
A estratégia central da Mira é validar a saída de IA através do consenso de múltiplos modelos de IA. É essencialmente uma rede de validação que utiliza o consenso de vários modelos de IA para verificar a fiabilidade da saída de IA. Mais importante ainda, a Mira adotou uma forma de validação de consenso descentralizada.
A chave da rede Mira está na validação de consenso descentralizada. Isso não apenas aproveita as vantagens do campo da criptografia, mas também reduz preconceitos e ilusões por meio de um modelo de validação coletiva com múltiplos modelos.
Em termos de arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações de verificação independentes. Os operadores de nós participam na validação dessas declarações e, para garantir a honestidade dos operadores de nós, o Mira adota um mecanismo de incentivos/punições econômicas criptográficas. Diferentes modelos de IA e operadores de nós descentralizados participam juntos para garantir a confiabilidade dos resultados de verificação.
A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismos de consenso. Primeiro, o sistema decompõe o conteúdo candidato em diferentes declarações verificáveis, que são então distribuídas para os nós para validação, e por fim, os resultados são consolidados para alcançar um consenso. Para proteger a privacidade dos clientes, as declarações são distribuídas para diferentes nós de forma aleatória e fragmentada.
Os operadores de nós são responsáveis por executar modelos de validadores, processar declarações e submeter resultados de validação. A motivação para participar da validação vem das recompensas que podem ser obtidas. Essas recompensas são originadas do valor criado para os clientes, ou seja, a redução da taxa de erro da IA em áreas críticas. Para evitar comportamentos especulativos de resposta aleatória dos nós, os nós que se desviam continuamente do consenso terão seus tokens de staking reduzidos.
De um modo geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Ela constrói uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, trazendo maior confiabilidade aos serviços de IA dos clientes, reduzindo o viés e as alucinações da IA, e atendendo à demanda por maior precisão e exatidão. Em suma, a Mira está tentando construir uma camada de confiança para a IA, o que é de grande importância para impulsionar o desenvolvimento aprofundado das aplicações de IA.
Atualmente, os usuários podem participar da rede de testes públicos da Mira através do Klok (um aplicativo de chat LLM baseado na Mira), experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira. Isso oferece aos usuários uma oportunidade intuitiva de comparar as diferenças nas saídas de IA antes e depois da verificação, demonstrando o potencial da rede Mira em melhorar a confiabilidade da IA.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
16 Curtidas
Recompensa
16
7
Compartilhar
Comentário
0/400
RamenDeFiSurvivor
· 3h atrás
Corri para a ilusão, fui-me embora.
Ver originalResponder0
ChainDetective
· 4h atrás
Está novamente a desenhar BTC? É fiável?
Ver originalResponder0
GmGmNoGn
· 10h atrás
mira está a aumentar o tráfego do kol?
Ver originalResponder0
RektRecovery
· 10h atrás
lmao outro "nível de confiança" que vai ser destruído em 3... 2... 1...
Ver originalResponder0
SeeYouInFourYears
· 10h atrás
a IA é tão boa a contar histórias!
Ver originalResponder0
hodl_therapist
· 10h atrás
Quando é que a IA poderá corrigir ilusões por si mesma?
Ver originalResponder0
GasWastingMaximalist
· 10h atrás
Esta onda bullish eu vou primeiro negociar como respeito
A rede Mira entra em teste público, criando uma camada de confiança em IA para resolver problemas de preconceito e ilusões.
Camada de Confiança da IA: Rede Mira e suas soluções para preconceitos e alucinações da IA
Recentemente, a rede Mira lançou oficialmente a sua rede de testes pública, um projeto que visa construir uma camada de confiança para a inteligência artificial. Então, por que a IA precisa ser confiável? Como é que a Mira resolve esse problema?
Ao discutir a IA, as pessoas tendem a se concentrar mais em suas poderosas capacidades. No entanto, o problema das "ilusões" ou preconceitos da IA é frequentemente ignorado. O que se chama de "ilusão" da IA, em termos simples, é que a IA às vezes "inventa" informações, fornecendo explicações que parecem razoáveis, mas que na verdade não são precisas. Por exemplo, se perguntar à IA por que a lua é rosa, ela pode fornecer uma série de explicações que soam razoáveis, mas que na verdade não estão corretas.
A "ilusão" ou preconceito que aparece na IA está relacionada a algumas das trajetórias tecnológicas atuais da IA. Por exemplo, a IA generativa alcança saídas coerentes e razoáveis ao prever o conteúdo "mais provável", mas esse método às vezes é difícil de verificar a veracidade. Além disso, os dados de treinamento podem conter erros, preconceitos ou até mesmo conteúdos fictícios, o que afeta a qualidade da saída da IA. Em outras palavras, a IA aprende padrões da linguagem humana, e não os fatos em si.
O atual mecanismo de geração de probabilidades e o modelo orientado por dados quase inevitavelmente levarão a IA a produzir alucinações. Embora, em conteúdos gerais de conhecimento ou entretenimento, esse problema possa não causar consequências graves imediatamente, em áreas que exigem alta rigorosidade, como saúde, direito, aviação e finanças, pode ter um impacto significativo. Assim, resolver os problemas de alucinação e preconceito da IA tornou-se um dos desafios centrais no processo de desenvolvimento da IA.
O projeto Mira está a tentar resolver este problema. O seu objetivo é construir uma camada de confiança para a IA, reduzindo o preconceito e as ilusões da IA, aumentando a fiabilidade da IA. Então, como é que a Mira alcança este objetivo?
A estratégia central da Mira é validar a saída de IA através do consenso de múltiplos modelos de IA. É essencialmente uma rede de validação que utiliza o consenso de vários modelos de IA para verificar a fiabilidade da saída de IA. Mais importante ainda, a Mira adotou uma forma de validação de consenso descentralizada.
A chave da rede Mira está na validação de consenso descentralizada. Isso não apenas aproveita as vantagens do campo da criptografia, mas também reduz preconceitos e ilusões por meio de um modelo de validação coletiva com múltiplos modelos.
Em termos de arquitetura de verificação, o protocolo Mira suporta a conversão de conteúdos complexos em declarações de verificação independentes. Os operadores de nós participam na validação dessas declarações e, para garantir a honestidade dos operadores de nós, o Mira adota um mecanismo de incentivos/punições econômicas criptográficas. Diferentes modelos de IA e operadores de nós descentralizados participam juntos para garantir a confiabilidade dos resultados de verificação.
A arquitetura da rede Mira inclui conversão de conteúdo, validação distribuída e mecanismos de consenso. Primeiro, o sistema decompõe o conteúdo candidato em diferentes declarações verificáveis, que são então distribuídas para os nós para validação, e por fim, os resultados são consolidados para alcançar um consenso. Para proteger a privacidade dos clientes, as declarações são distribuídas para diferentes nós de forma aleatória e fragmentada.
Os operadores de nós são responsáveis por executar modelos de validadores, processar declarações e submeter resultados de validação. A motivação para participar da validação vem das recompensas que podem ser obtidas. Essas recompensas são originadas do valor criado para os clientes, ou seja, a redução da taxa de erro da IA em áreas críticas. Para evitar comportamentos especulativos de resposta aleatória dos nós, os nós que se desviam continuamente do consenso terão seus tokens de staking reduzidos.
De um modo geral, a Mira oferece uma nova abordagem para garantir a confiabilidade da IA. Ela constrói uma rede de validação de consenso descentralizada com base em múltiplos modelos de IA, trazendo maior confiabilidade aos serviços de IA dos clientes, reduzindo o viés e as alucinações da IA, e atendendo à demanda por maior precisão e exatidão. Em suma, a Mira está tentando construir uma camada de confiança para a IA, o que é de grande importância para impulsionar o desenvolvimento aprofundado das aplicações de IA.
Atualmente, os usuários podem participar da rede de testes públicos da Mira através do Klok (um aplicativo de chat LLM baseado na Mira), experimentar saídas de IA verificadas e ter a oportunidade de ganhar pontos Mira. Isso oferece aos usuários uma oportunidade intuitiva de comparar as diferenças nas saídas de IA antes e depois da verificação, demonstrando o potencial da rede Mira em melhorar a confiabilidade da IA.