Projetos Web3 com conceito de IA tornam-se alvos de captação de recursos nos mercados primário e secundário.
As oportunidades do Web3 na indústria de IA manifestam-se em: usar incentivos distribuídos para coordenar o fornecimento potencial na cauda longa, através de dados, armazenamento e computação; ao mesmo tempo, estabelecer um modelo de código aberto e um mercado descentralizado para Agentes de IA.
A IA é principalmente utilizada na indústria Web3 para finanças on-chain ( pagamentos em criptomoeda, transações, análise de dados ) e assistência no desenvolvimento.
A utilidade do AI+Web3 está na complementaridade entre os dois: o Web3 promete combater a centralização da IA, enquanto a IA promete ajudar o Web3 a romper barreiras.
Introdução
Nos últimos dois anos, o desenvolvimento da IA parece ter sido pressionado para acelerar, e este efeito borboleta provocado pelo Chatgpt não apenas abriu um novo mundo de inteligência artificial generativa, mas também desencadeou uma onda no domínio do Web3.
Com o suporte do conceito de IA, a recuperação do financiamento no mercado de criptomoedas, que está a desacelerar, é evidente. Estatísticas da mídia mostram que, apenas no primeiro semestre de 2024, 64 projetos Web3+IA conseguiram financiamento, com o sistema operacional baseado em inteligência artificial Zyber365 a alcançar o maior montante de financiamento de 100 milhões de dólares na rodada A.
O mercado secundário está mais próspero, os dados do site de agregação de criptomoedas Coingecko mostram que, em pouco mais de um ano, o valor total de mercado da área de IA já atingiu 48,5 bilhões de dólares, com um volume de negociação de quase 8,6 bilhões de dólares nas últimas 24 horas; os benefícios trazidos pelos avanços nas tecnologias de IA são evidentes, após o lançamento do modelo Sora da OpenAI para conversão de texto em vídeo, o preço médio do setor de IA subiu 151%; o efeito da IA também se espalhou para um dos segmentos de captação de criptomoedas, Meme: o primeiro conceito de MemeCoin com Agente de IA, GOAT, rapidamente se tornou popular e alcançou uma avaliação de 1,4 bilhão de dólares, desencadeando com sucesso a febre dos Memes de IA.
A pesquisa e os tópicos sobre AI+Web3 também estão em alta, desde AI+Depin até AI Memecoin, passando pelos atuais AI Agent e AI DAO. A emoção do FOMO já não consegue acompanhar a velocidade da troca de novas narrativas.
AI+Web3, esta combinação de termos cheia de dinheiro fácil, oportunidades e fantasias futuras, não pode deixar de ser vista como um casamento arranjado pelos capitais. Parece que é difícil distinguir se, sob este manto deslumbrante, é o campo dos especuladores ou a véspera da explosão do amanhecer?
Para responder a esta questão, uma reflexão crucial para ambas as partes é: será que com o outro vai melhorar? É possível beneficiar-se do modelo do outro? Neste artigo, tentamos também examinar este padrão a partir das experiências anteriores: como o Web3 pode desempenhar um papel em cada etapa do stack tecnológico de IA e o que a IA pode trazer de novo para o Web3?
Parte 1 Quais são as oportunidades do Web3 sob a pilha de IA?
Antes de abordar este tópico, precisamos entender a pilha tecnológica dos grandes modelos de IA:
Explicar todo o processo de forma mais simples: "O grande modelo" é como o cérebro humano; na fase inicial, esse cérebro pertence a um bebê que acabou de chegar ao mundo, e precisa observar e absorver uma enorme quantidade de informações do ambiente para entender este mundo, essa é a fase de "coleta" de dados; como os computadores não possuem os sentidos humanos, como a visão e a audição, antes do treinamento, as grandes quantidades de informações não rotuladas do ambiente precisam ser convertidas através de "pré-processamento" em um formato de informação que o computador possa entender e usar.
Após a entrada de dados, a IA construiu um modelo com capacidade de compreensão e previsão através de "treinamento", que pode ser visto como o processo em que um bebê gradualmente entende e aprende sobre o mundo exterior. Os parâmetros do modelo são como a capacidade linguística do bebê que é constantemente ajustada durante o processo de aprendizagem. Quando o conteúdo aprendido começa a ser dividido em disciplinas ou quando há feedback de interações com outras pessoas e correções, entra-se na etapa de "ajuste fino" do grande modelo.
As crianças, ao crescerem e aprenderem a falar, conseguem entender o significado e expressar seus sentimentos e pensamentos em novas conversas. Esta fase é semelhante ao "raciocínio" dos grandes modelos de IA, que conseguem prever e analisar novas entradas de linguagem e texto. Os bebês expressam sentimentos, descrevem objetos e resolvem diversos problemas através de suas habilidades linguísticas, o que também é semelhante à aplicação dos grandes modelos de IA em tarefas específicas durante a fase de raciocínio, após serem treinados e colocados em uso, como classificação de imagens, reconhecimento de voz, entre outros.
E o Agente de IA está mais próximo da próxima forma do grande modelo - capaz de executar tarefas de forma independente e perseguir objetivos complexos, não apenas possuindo a capacidade de pensar, mas também de memorizar, planejar e interagir com o mundo usando ferramentas.
Atualmente, em resposta aos pontos críticos da IA em várias camadas, o Web3 formou preliminarmente um ecossistema multilayer, interconectado, que abrange todas as fases do processo de modelos de IA.
Um, Camada Básica: Airbnb de Poder de Cálculo e Dados
Poder de cálculo
Atualmente, um dos maiores custos da IA é o poder computacional e a energia necessários para treinar e inferir modelos.
Um exemplo é que o LLAMA3 da Meta precisa de 16.000 H100 GPU produzidas pela NVIDIA(, que é uma unidade de processamento gráfico de ponta projetada especificamente para cargas de trabalho de inteligência artificial e computação de alto desempenho.) O treinamento leva 30 dias para ser concluído. O preço unitário da versão de 80GB varia entre 30.000 e 40.000 dólares, o que requer um investimento em hardware de computação de 400 a 700 milhões de dólares( GPU + chip de rede). Ao mesmo tempo, o treinamento mensal consome 1,6 bilhões de quilowatts-hora, com gastos de energia de quase 20 milhões de dólares por mês.
A descompressão do poder computacional de IA é, de fato, uma das primeiras áreas de intersecção entre Web3 e IA - DePin( redes de infraestrutura física descentralizada) atualmente, o site de dados DePin Ninja já listou mais de 1400 projetos, entre os quais os projetos representativos de compartilhamento de poder computacional GPU incluem io.net, Aethir, Akash, Render Network, entre outros.
A sua lógica principal reside em: a plataforma permite que indivíduos ou entidades com recursos GPU ociosos contribuam com sua capacidade de computação de maneira descentralizada e sem permissão, através de um mercado online de compradores e vendedores semelhante ao Uber ou Airbnb, aumentando a taxa de utilização de recursos GPU não totalmente utilizados, e os usuários finais, assim, obtêm recursos de computação eficientes a um custo mais baixo; ao mesmo tempo, o mecanismo de staking também garante que, se ocorrerem violações do mecanismo de controle de qualidade ou interrupções na rede, os provedores de recursos enfrentem as penalidades correspondentes.
As suas características são:
Agregar recursos de GPU ociosos: os fornecedores são principalmente operadores de centros de dados independentes de médio e pequeno porte, de criptomoedas, entre outros, que possuem recursos de computação excedentes, e o mecanismo de consenso é hardware de mineração PoS, como mineradores de FileCoin e ETH. Atualmente, também existem projetos que se dedicam a iniciar equipamentos com barreiras de entrada mais baixas, como o exolab, que utiliza MacBook, iPhone, iPad e outros dispositivos locais para estabelecer uma rede de computação para inferência de grandes modelos.
Enfrentando o mercado de longo prazo da capacidade de computação de IA:
a. "Do ponto de vista técnico", o mercado de poder computacional descentralizado é mais adequado para etapas de inferência. O treinamento depende mais da capacidade de processamento de dados proporcionada por grandes clusters de GPU, enquanto a inferência requer um desempenho computacional de GPU relativamente baixo, como a Aethir, que se concentra em trabalhos de renderização de baixa latência e aplicações de inferência de IA.
b. No que diz respeito à "demanda do lado da procura", as pequenas e médias entidades que necessitam de poder computacional não irão treinar os seus próprios grandes modelos isoladamente, mas apenas escolherão otimizar e ajustar em torno de alguns grandes modelos principais, e esses cenários são naturalmente adequados para recursos de computação ociosos distribuídos.
Propriedade descentralizada: O significado técnico da blockchain é que os proprietários de recursos mantêm sempre o controle sobre seus recursos, ajustando-se de forma flexível de acordo com a demanda, enquanto obtêm lucros.
Dados
Os dados são a base da IA. Sem dados, o cálculo é tão inútil quanto uma folha flutuante, e a relação entre dados e modelos é como aquele ditado "Garbage in, Garbage out", onde a quantidade de dados e a qualidade da entrada determinam a qualidade da saída do modelo final. Para o treinamento dos atuais modelos de IA, os dados determinam a capacidade linguística, a capacidade de compreensão, e até mesmo os valores e a humanização do modelo. Atualmente, as dificuldades na demanda por dados de IA concentram-se principalmente em quatro áreas:
Fome de dados: O treinamento de modelos de IA depende de grandes entradas de dados. Dados públicos mostram que a OpenAI treinou o GPT-4 com um número de parâmetros que atinge a casa dos trilhões.
Qualidade dos dados: Com a integração da IA com diversos setores, a atualidade dos dados, a diversidade dos dados, a especialização dos dados verticais e a incorporação de novas fontes de dados, como as emoções das redes sociais, impuseram novas exigências à sua qualidade.
Questões de privacidade e conformidade: atualmente, vários países e empresas estão gradualmente a reconhecer a importância de conjuntos de dados de qualidade, e estão a impor restrições à coleta de conjuntos de dados.
Custo elevado de processamento de dados: grande volume de dados, processo de processamento complexo. Dados públicos mostram que mais de 30% dos custos de P&D das empresas de IA são utilizados para coleta e processamento de dados básicos.
Atualmente, as soluções web3 estão refletidas em quatro áreas principais:
Coleta de dados: A disponibilidade de dados reais coletados gratuitamente está rapidamente se esgotando, e os gastos das empresas de IA com dados aumentam a cada ano. Mas, ao mesmo tempo, esses gastos não estão retornando aos verdadeiros contribuidores de dados, enquanto as plataformas desfrutam integralmente da criação de valor proporcionada pelos dados, como uma determinada plataforma que gerou uma receita total de 203 milhões de dólares através de um contrato de autorização de dados com empresas de IA.
Permitir que os usuários que realmente contribuem participem igualmente na criação de valor trazida pelos dados, assim como obter dados mais privados e valiosos dos usuários de forma de baixo custo através de redes distribuídas e mecanismos de incentivo, é a visão do Web3.
O Grass é uma camada e rede de dados descentralizada, onde os usuários podem contribuir com largura de banda ociosa e relatar tráfego ao executar nós do Grass para capturar dados em tempo real de toda a internet e receber recompensas em tokens;
A Vana introduziu um conceito único de pool de liquidez de dados (DLP), onde os usuários podem fazer upload de seus dados privados (, como registros de compras, hábitos de navegação, atividades em redes sociais, etc. ) para um DLP específico, e escolher de forma flexível se autorizam ou não o uso desses dados por terceiros específicos;
No PublicAI, os usuários podem usar #AI或#Web3 como uma etiqueta de categoria nas plataformas sociais e @PublicAI para coletar dados.
Pré-processamento de dados: Durante o processo de tratamento de dados da IA, como os dados coletados costumam ser ruidosos e conter erros, eles devem ser limpos e convertidos para um formato utilizável antes de treinar o modelo, envolvendo tarefas repetitivas de normalização, filtragem e tratamento de valores ausentes. Esta fase é uma das poucas etapas manuais na indústria de IA, tendo gerado a profissão de rotulador de dados. Com o aumento das exigências de qualidade dos dados pelos modelos, o nível de exigência para os rotuladores de dados também aumentou, e essa tarefa é naturalmente adequada ao mecanismo de incentivo descentralizado do Web3.
Atualmente, a Grass e a OpenLayer estão considerando adicionar a rotulagem de dados a esta etapa crucial.
A Synesis apresentou o conceito de "Train2earn", enfatizando a qualidade dos dados, onde os usuários podem ganhar recompensas ao fornecer dados anotados, comentários ou outras formas de contribuição.
O projeto de rotulagem de dados Sapien gamifica as tarefas de marcação e permite que os usuários apostem pontos para ganhar mais pontos.
Privacidade e segurança dos dados: É importante esclarecer que privacidade e segurança dos dados são dois conceitos diferentes. A privacidade dos dados envolve o tratamento de dados sensíveis, enquanto a segurança dos dados protege as informações contra acessos, destruições e roubos não autorizados. Assim, as vantagens da tecnologia de privacidade do Web3 e os cenários potenciais de aplicação se manifestam em dois aspectos: (1) treinamento de dados sensíveis; (2) colaboração de dados: múltiplos proprietários de dados podem participar coletivamente do treinamento de IA, sem precisar compartilhar seus dados originais.
As tecnologias de privacidade mais comuns atualmente no Web3 incluem:
Ambiente de Execução Confiável ( TEE ), por exemplo, Super Protocol;
Criptografia Homomórfica Completa ( FHE ), por exemplo, BasedAI, Fhenix.io ou Inco Network;
Tecnologia de zero conhecimento ( zk ), como o Protocolo Reclaim que utiliza a tecnologia zkTLS, gera provas de zero conhecimento para o tráfego HTTPS, permitindo que os usuários importem de forma segura atividades, reputação e dados de identidade de sites externos, sem expor informações sensíveis.
No entanto, atualmente este campo ainda está em estágio inicial, a maioria dos projetos ainda está em exploração, um dos dilemas atuais é que os custos de computação são muito altos, alguns exemplos são:
O framework zkML EZKL leva cerca de 80 minutos para gerar uma prova de um modelo 1M-nanoGPT.
De acordo com os dados da Modulus Labs, os custos do zkML são mais de 1000 vezes superiores aos da computação pura.
Armazenamento de dados: Depois de ter os dados, é necessário um lugar para armazená-los na cadeia, bem como o LLM gerado a partir desses dados. Com a disponibilidade de dados (DA) como questão central, antes da atualização de Danksharding no Ethereum, sua taxa de transferência era de 0,08 MB. Ao mesmo tempo, o treinamento de modelos de IA e a inferência em tempo real geralmente requerem uma taxa de transferência de dados de 50 a 100 GB por segundo. Essa diferença de magnitude torna a cadeia existente
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
15 gostos
Recompensa
15
4
Partilhar
Comentar
0/400
DeFiDoctor
· 9h atrás
O exame de saúde do processo padronizado mostra que essas aquisições de AI+Web3 devem primeiro observar a estabilidade do código por três meses.
Ver originalResponder0
wrekt_but_learning
· 08-01 21:37
Bear Market também não está acordado.
Ver originalResponder0
WenAirdrop
· 08-01 21:29
gpt é mais forte que os humanos, isso é muito injusto para nós
AI e Web3 em interseção: novas oportunidades desde o Poder de computação compartilhado até incentivos de dados
IA+Web3: Torres e Praças
TL;DR
Projetos Web3 com conceito de IA tornam-se alvos de captação de recursos nos mercados primário e secundário.
As oportunidades do Web3 na indústria de IA manifestam-se em: usar incentivos distribuídos para coordenar o fornecimento potencial na cauda longa, através de dados, armazenamento e computação; ao mesmo tempo, estabelecer um modelo de código aberto e um mercado descentralizado para Agentes de IA.
A IA é principalmente utilizada na indústria Web3 para finanças on-chain ( pagamentos em criptomoeda, transações, análise de dados ) e assistência no desenvolvimento.
A utilidade do AI+Web3 está na complementaridade entre os dois: o Web3 promete combater a centralização da IA, enquanto a IA promete ajudar o Web3 a romper barreiras.
Introdução
Nos últimos dois anos, o desenvolvimento da IA parece ter sido pressionado para acelerar, e este efeito borboleta provocado pelo Chatgpt não apenas abriu um novo mundo de inteligência artificial generativa, mas também desencadeou uma onda no domínio do Web3.
Com o suporte do conceito de IA, a recuperação do financiamento no mercado de criptomoedas, que está a desacelerar, é evidente. Estatísticas da mídia mostram que, apenas no primeiro semestre de 2024, 64 projetos Web3+IA conseguiram financiamento, com o sistema operacional baseado em inteligência artificial Zyber365 a alcançar o maior montante de financiamento de 100 milhões de dólares na rodada A.
O mercado secundário está mais próspero, os dados do site de agregação de criptomoedas Coingecko mostram que, em pouco mais de um ano, o valor total de mercado da área de IA já atingiu 48,5 bilhões de dólares, com um volume de negociação de quase 8,6 bilhões de dólares nas últimas 24 horas; os benefícios trazidos pelos avanços nas tecnologias de IA são evidentes, após o lançamento do modelo Sora da OpenAI para conversão de texto em vídeo, o preço médio do setor de IA subiu 151%; o efeito da IA também se espalhou para um dos segmentos de captação de criptomoedas, Meme: o primeiro conceito de MemeCoin com Agente de IA, GOAT, rapidamente se tornou popular e alcançou uma avaliação de 1,4 bilhão de dólares, desencadeando com sucesso a febre dos Memes de IA.
A pesquisa e os tópicos sobre AI+Web3 também estão em alta, desde AI+Depin até AI Memecoin, passando pelos atuais AI Agent e AI DAO. A emoção do FOMO já não consegue acompanhar a velocidade da troca de novas narrativas.
AI+Web3, esta combinação de termos cheia de dinheiro fácil, oportunidades e fantasias futuras, não pode deixar de ser vista como um casamento arranjado pelos capitais. Parece que é difícil distinguir se, sob este manto deslumbrante, é o campo dos especuladores ou a véspera da explosão do amanhecer?
Para responder a esta questão, uma reflexão crucial para ambas as partes é: será que com o outro vai melhorar? É possível beneficiar-se do modelo do outro? Neste artigo, tentamos também examinar este padrão a partir das experiências anteriores: como o Web3 pode desempenhar um papel em cada etapa do stack tecnológico de IA e o que a IA pode trazer de novo para o Web3?
Parte 1 Quais são as oportunidades do Web3 sob a pilha de IA?
Antes de abordar este tópico, precisamos entender a pilha tecnológica dos grandes modelos de IA:
Explicar todo o processo de forma mais simples: "O grande modelo" é como o cérebro humano; na fase inicial, esse cérebro pertence a um bebê que acabou de chegar ao mundo, e precisa observar e absorver uma enorme quantidade de informações do ambiente para entender este mundo, essa é a fase de "coleta" de dados; como os computadores não possuem os sentidos humanos, como a visão e a audição, antes do treinamento, as grandes quantidades de informações não rotuladas do ambiente precisam ser convertidas através de "pré-processamento" em um formato de informação que o computador possa entender e usar.
Após a entrada de dados, a IA construiu um modelo com capacidade de compreensão e previsão através de "treinamento", que pode ser visto como o processo em que um bebê gradualmente entende e aprende sobre o mundo exterior. Os parâmetros do modelo são como a capacidade linguística do bebê que é constantemente ajustada durante o processo de aprendizagem. Quando o conteúdo aprendido começa a ser dividido em disciplinas ou quando há feedback de interações com outras pessoas e correções, entra-se na etapa de "ajuste fino" do grande modelo.
As crianças, ao crescerem e aprenderem a falar, conseguem entender o significado e expressar seus sentimentos e pensamentos em novas conversas. Esta fase é semelhante ao "raciocínio" dos grandes modelos de IA, que conseguem prever e analisar novas entradas de linguagem e texto. Os bebês expressam sentimentos, descrevem objetos e resolvem diversos problemas através de suas habilidades linguísticas, o que também é semelhante à aplicação dos grandes modelos de IA em tarefas específicas durante a fase de raciocínio, após serem treinados e colocados em uso, como classificação de imagens, reconhecimento de voz, entre outros.
E o Agente de IA está mais próximo da próxima forma do grande modelo - capaz de executar tarefas de forma independente e perseguir objetivos complexos, não apenas possuindo a capacidade de pensar, mas também de memorizar, planejar e interagir com o mundo usando ferramentas.
Atualmente, em resposta aos pontos críticos da IA em várias camadas, o Web3 formou preliminarmente um ecossistema multilayer, interconectado, que abrange todas as fases do processo de modelos de IA.
Um, Camada Básica: Airbnb de Poder de Cálculo e Dados
Poder de cálculo
Atualmente, um dos maiores custos da IA é o poder computacional e a energia necessários para treinar e inferir modelos.
Um exemplo é que o LLAMA3 da Meta precisa de 16.000 H100 GPU produzidas pela NVIDIA(, que é uma unidade de processamento gráfico de ponta projetada especificamente para cargas de trabalho de inteligência artificial e computação de alto desempenho.) O treinamento leva 30 dias para ser concluído. O preço unitário da versão de 80GB varia entre 30.000 e 40.000 dólares, o que requer um investimento em hardware de computação de 400 a 700 milhões de dólares( GPU + chip de rede). Ao mesmo tempo, o treinamento mensal consome 1,6 bilhões de quilowatts-hora, com gastos de energia de quase 20 milhões de dólares por mês.
A descompressão do poder computacional de IA é, de fato, uma das primeiras áreas de intersecção entre Web3 e IA - DePin( redes de infraestrutura física descentralizada) atualmente, o site de dados DePin Ninja já listou mais de 1400 projetos, entre os quais os projetos representativos de compartilhamento de poder computacional GPU incluem io.net, Aethir, Akash, Render Network, entre outros.
A sua lógica principal reside em: a plataforma permite que indivíduos ou entidades com recursos GPU ociosos contribuam com sua capacidade de computação de maneira descentralizada e sem permissão, através de um mercado online de compradores e vendedores semelhante ao Uber ou Airbnb, aumentando a taxa de utilização de recursos GPU não totalmente utilizados, e os usuários finais, assim, obtêm recursos de computação eficientes a um custo mais baixo; ao mesmo tempo, o mecanismo de staking também garante que, se ocorrerem violações do mecanismo de controle de qualidade ou interrupções na rede, os provedores de recursos enfrentem as penalidades correspondentes.
As suas características são:
Agregar recursos de GPU ociosos: os fornecedores são principalmente operadores de centros de dados independentes de médio e pequeno porte, de criptomoedas, entre outros, que possuem recursos de computação excedentes, e o mecanismo de consenso é hardware de mineração PoS, como mineradores de FileCoin e ETH. Atualmente, também existem projetos que se dedicam a iniciar equipamentos com barreiras de entrada mais baixas, como o exolab, que utiliza MacBook, iPhone, iPad e outros dispositivos locais para estabelecer uma rede de computação para inferência de grandes modelos.
Enfrentando o mercado de longo prazo da capacidade de computação de IA:
a. "Do ponto de vista técnico", o mercado de poder computacional descentralizado é mais adequado para etapas de inferência. O treinamento depende mais da capacidade de processamento de dados proporcionada por grandes clusters de GPU, enquanto a inferência requer um desempenho computacional de GPU relativamente baixo, como a Aethir, que se concentra em trabalhos de renderização de baixa latência e aplicações de inferência de IA.
b. No que diz respeito à "demanda do lado da procura", as pequenas e médias entidades que necessitam de poder computacional não irão treinar os seus próprios grandes modelos isoladamente, mas apenas escolherão otimizar e ajustar em torno de alguns grandes modelos principais, e esses cenários são naturalmente adequados para recursos de computação ociosos distribuídos.
Dados
Os dados são a base da IA. Sem dados, o cálculo é tão inútil quanto uma folha flutuante, e a relação entre dados e modelos é como aquele ditado "Garbage in, Garbage out", onde a quantidade de dados e a qualidade da entrada determinam a qualidade da saída do modelo final. Para o treinamento dos atuais modelos de IA, os dados determinam a capacidade linguística, a capacidade de compreensão, e até mesmo os valores e a humanização do modelo. Atualmente, as dificuldades na demanda por dados de IA concentram-se principalmente em quatro áreas:
Fome de dados: O treinamento de modelos de IA depende de grandes entradas de dados. Dados públicos mostram que a OpenAI treinou o GPT-4 com um número de parâmetros que atinge a casa dos trilhões.
Qualidade dos dados: Com a integração da IA com diversos setores, a atualidade dos dados, a diversidade dos dados, a especialização dos dados verticais e a incorporação de novas fontes de dados, como as emoções das redes sociais, impuseram novas exigências à sua qualidade.
Questões de privacidade e conformidade: atualmente, vários países e empresas estão gradualmente a reconhecer a importância de conjuntos de dados de qualidade, e estão a impor restrições à coleta de conjuntos de dados.
Custo elevado de processamento de dados: grande volume de dados, processo de processamento complexo. Dados públicos mostram que mais de 30% dos custos de P&D das empresas de IA são utilizados para coleta e processamento de dados básicos.
Atualmente, as soluções web3 estão refletidas em quatro áreas principais:
Permitir que os usuários que realmente contribuem participem igualmente na criação de valor trazida pelos dados, assim como obter dados mais privados e valiosos dos usuários de forma de baixo custo através de redes distribuídas e mecanismos de incentivo, é a visão do Web3.
O Grass é uma camada e rede de dados descentralizada, onde os usuários podem contribuir com largura de banda ociosa e relatar tráfego ao executar nós do Grass para capturar dados em tempo real de toda a internet e receber recompensas em tokens;
A Vana introduziu um conceito único de pool de liquidez de dados (DLP), onde os usuários podem fazer upload de seus dados privados (, como registros de compras, hábitos de navegação, atividades em redes sociais, etc. ) para um DLP específico, e escolher de forma flexível se autorizam ou não o uso desses dados por terceiros específicos;
No PublicAI, os usuários podem usar #AI或#Web3 como uma etiqueta de categoria nas plataformas sociais e @PublicAI para coletar dados.
Atualmente, a Grass e a OpenLayer estão considerando adicionar a rotulagem de dados a esta etapa crucial.
A Synesis apresentou o conceito de "Train2earn", enfatizando a qualidade dos dados, onde os usuários podem ganhar recompensas ao fornecer dados anotados, comentários ou outras formas de contribuição.
O projeto de rotulagem de dados Sapien gamifica as tarefas de marcação e permite que os usuários apostem pontos para ganhar mais pontos.
As tecnologias de privacidade mais comuns atualmente no Web3 incluem:
Ambiente de Execução Confiável ( TEE ), por exemplo, Super Protocol;
Criptografia Homomórfica Completa ( FHE ), por exemplo, BasedAI, Fhenix.io ou Inco Network;
Tecnologia de zero conhecimento ( zk ), como o Protocolo Reclaim que utiliza a tecnologia zkTLS, gera provas de zero conhecimento para o tráfego HTTPS, permitindo que os usuários importem de forma segura atividades, reputação e dados de identidade de sites externos, sem expor informações sensíveis.
No entanto, atualmente este campo ainda está em estágio inicial, a maioria dos projetos ainda está em exploração, um dos dilemas atuais é que os custos de computação são muito altos, alguns exemplos são:
O framework zkML EZKL leva cerca de 80 minutos para gerar uma prova de um modelo 1M-nanoGPT.
De acordo com os dados da Modulus Labs, os custos do zkML são mais de 1000 vezes superiores aos da computação pura.