zkPyTorch: Trazendo Prova de conhecimento zero para Inferência PyTorch para uma IA verdadeiramente confiável

intermediário6/11/2025, 3:25:52 AM
Este artigo explora como o compilador zkPyTorch lançado pela Polyhedra Network integra o framework de IA mainstream PyTorch com a tecnologia zk-SNARKs, reduzindo o limite de desenvolvimento para ZKML e alcançando verificação credível e proteção de privacidade no processo de inferência de aprendizado de máquina. Ele cobre seus três módulos principais (pré-processamento, quantização, otimização de circuitos), tecnologias-chave (DAG, tabelas de consulta, convolução FFT), estratégias de otimização de circuitos em múltiplos níveis e apresenta avanços no desempenho e precisão do zkPyTorch por meio de dados empíricos do VGG-16 e Llama-3.

À medida que a inteligência artificial (IA) está sendo cada vez mais implementada em áreas-chave como saúde, finanças e direção autônoma, garantir a confiabilidade, transparência e segurança do processo de inferência de aprendizado de máquina (ML) está se tornando mais importante do que nunca.

No entanto, os serviços tradicionais de aprendizado de máquina costumam operar como uma "caixa-preta", onde os usuários podem apenas ver os resultados e acham difícil verificar o processo. Essa falta de transparência torna os serviços de modelo vulneráveis a riscos:

O modelo foi roubado,

O resultado da inferência foi maliciosamente adulterado,

Os dados dos usuários estão em risco de violação de privacidade.

ZKML (Aprendizado de Máquina zk-SNARKs) fornece uma nova solução criptográfica para esse desafio. Ele se baseia na tecnologia zk-SNARKs, concedendo aos modelos de aprendizado de máquina a capacidade de serem criptografados de forma verificável: provando que um cálculo foi executado corretamente sem revelar nenhuma informação sensível.

Em outras palavras, as Provas de Conhecimento Zero permitem que os provedores de serviços provem aos usuários que:

"Os resultados de inferência que você obteve foram realmente gerados pelo modelo treinado que executei — mas não divulgarei nenhum parâmetro do modelo."

Isso significa que os usuários podem confiar na autenticidade dos resultados da inferência, enquanto a estrutura e os parâmetros do modelo (que muitas vezes são ativos de alto valor) permanecem privados.

zkPyTorch:

A Polyhedra Network lançou o zkPyTorch, um compilador revolucionário especialmente projetado para aprendizado de máquina de conhecimento zero (ZKML), com o objetivo de fazer a ponte entre os principais frameworks de IA e a tecnologia ZK.

zkPyTorch integra profundamente as poderosas capacidades de aprendizado de máquina do PyTorch com motores de zk-SNARKs de ponta, permitindo que desenvolvedores de IA construam aplicações de IA verificáveis em um ambiente familiar, sem mudar seus hábitos de programação ou aprender uma nova linguagem ZK completamente.

Este compilador pode traduzir automaticamente operações de modelo de alto nível (como convolução, multiplicação de matriz, ReLU, softmax e mecanismos de atenção) em circuitos ZKP criptograficamente verificáveis. Ele combina o conjunto de otimização ZKML desenvolvido internamente pela Polyhedra para comprimir e acelerar de forma inteligente os caminhos de inferência mais utilizados, garantindo tanto a correção quanto a eficiência computacional dos circuitos.

Infraestrutura chave para construir um ecossistema de IA confiável

O atual ecossistema de aprendizado de máquina enfrenta múltiplos desafios, como segurança de dados, verificabilidade computacional e transparência de modelos. Especialmente em indústrias críticas como saúde, finanças e condução autônoma, os modelos de IA não apenas envolvem uma grande quantidade de informações pessoais sensíveis, mas também carregam propriedade intelectual de alto valor e segredos comerciais essenciais.

A Aprendizagem de Máquina de Conhecimento Zero (ZKML) surgiu como uma importante inovação para enfrentar esse dilema. Através da tecnologia de Prova de Conhecimento Zero (ZKP), a ZKML pode completar a verificação de integridade da inferência do modelo sem divulgar parâmetros do modelo ou dados de entrada — protegendo a privacidade enquanto garante a confiança.

Mas, na realidade, desenvolver ZKML muitas vezes tem um alto nível de dificuldade, exigindo um conhecimento profundo em criptografia, o que está longe do que os engenheiros de IA tradicionais conseguem lidar facilmente.

Esta é precisamente a missão do zkPyTorch. Ele constrói uma ponte entre o PyTorch e o motor ZKP, permitindo que os desenvolvedores construam sistemas de IA com proteção de privacidade e verificabilidade usando código familiar, sem a necessidade de reaprender linguagens criptográficas complexas.

Através do zkPyTorch, a Polyhedra Network está reduzindo significativamente as barreiras técnicas do ZKML, impulsionando aplicações de IA escaláveis e confiáveis para o mainstream, e reconstruindo um novo paradigma de segurança e privacidade da IA.

fluxo de trabalho zkPyTorch


Figura 1: Visão geral da arquitetura geral do ZKPyTorch

Como mostrado na Figura 1, o zkPyTorch converte automaticamente modelos padrão do PyTorch em circuitos compatíveis com ZKP (zk-SNARKs) por meio de três módulos cuidadosamente projetados. Esses três módulos incluem: módulo de pré-processamento, módulo de quantização amigável ao conhecimento zero e módulo de otimização de circuitos.

Este processo não requer que os desenvolvedores dominem circuitos criptográficos ou sintaxe especializada: os desenvolvedores só precisam escrever modelos usando PyTorch padrão, e o zkPyTorch pode convertê-los em circuitos que podem ser reconhecidos por motores de prova de conhecimento zero, como o Expander, gerando a correspondente prova ZK.

Este design altamente modular reduz significativamente o limite de desenvolvimento do ZKML, permitindo que desenvolvedores de IA construam facilmente aplicações de aprendizado de máquina eficientes, seguras e verificáveis sem a necessidade de trocar de idiomas ou aprender criptografia.

Bloco Um: Pré-processamento de Modelo

Na primeira fase, o zkPyTorch converterá o modelo PyTorch em um gráfico de computação estruturado usando o formato Open Neural Network Exchange (ONNX). O ONNX é um padrão de representação intermediária adotado em toda a indústria que pode representar uniformemente várias operações complexas de aprendizado de máquina. Através dessa etapa de pré-processamento, o zkPyTorch é capaz de esclarecer a estrutura do modelo e detalhar o processo de computação central, estabelecendo uma base sólida para a geração de circuitos zk-SNARKs nas etapas subsequentes.

Módulo 2: Prova de conhecimento zero Amigável Quantificação

O módulo de quantização é um componente chave do sistema ZKML. Modelos tradicionais de aprendizado de máquina dependem de operações em ponto flutuante, enquanto o ambiente ZKP é mais adequado para operações inteiras em campos finitos. O zkPyTorch adota um esquema de quantização inteira otimizado para campos finitos, mapeando com precisão cálculos em ponto flutuante para cálculos inteiros, enquanto transforma operações não lineares que são desfavoráveis para ZKP (como ReLU e Softmax) em formas eficientes de tabela de consulta.

Esta estratégia não apenas reduz significativamente a complexidade do circuito, mas também melhora a verificabilidade e a eficiência operacional do sistema como um todo, garantindo a precisão do modelo.

Módulo 3: Otimização de Circuito Hierárquico

zkPyTorch adota uma estratégia em múltiplos níveis para otimização de circuitos, incluindo especificamente:

Otimização em lote
Especificamente projetado para computação serializada, reduz significativamente a complexidade computacional e o consumo de recursos ao processar múltiplos passos de inferência de uma só vez, tornando-o especialmente adequado para cenários de verificação de grandes modelos de linguagem, como os Transformers.

Aceleração da Operação em Linguagem Original
Ao combinar a convolução de Transformada Rápida de Fourier (FFT) com a tecnologia de tabela de consulta, a velocidade de execução de operações básicas como convolução e Softmax é efetivamente aprimorada, melhorando fundamentalmente a eficiência computacional geral.

Execução de circuito paralelo
Aproveite totalmente as vantagens do poder computacional das CPUs e GPUs multi-core, dividindo computações de alta carga, como a multiplicação de matrizes, em várias subtarefas para execução paralela, melhorando significativamente a velocidade e a escalabilidade da geração de Prova de conhecimento zero.

Discussão Técnica Aprofundada

Grafos Acíclicos Dirigidos (DAG)

zkPyTorch utiliza um Grafo Acíclico Direcionado (DAG) para gerenciar o fluxo computacional de aprendizado de máquina. A estrutura do DAG captura sistematicamente as complexas dependências do modelo, como mostrado na Figura 2, onde cada nó representa uma operação específica (como transposição de matriz, multiplicação de matriz, divisão e Softmax), e as arestas descrevem precisamente o fluxo de dados entre essas operações.

Esta representação clara e estruturada não apenas facilita enormemente o processo de depuração, mas também ajuda na otimização profunda do desempenho. A natureza acíclica do DAG evita dependências circulares, garantindo uma execução eficiente e controlável da ordem de computação, o que é crucial para otimizar a geração de circuitos zk-SNARKs.

Além disso, o DAG permite que o zkPyTorch lide de forma eficiente com arquiteturas de modelos complexos, como Transformers e Redes Residuais (ResNet), que muitas vezes possuem fluxos de dados complexos, não lineares e de múltiplos caminhos. O design do DAG está perfeitamente alinhado com suas necessidades computacionais, garantindo a precisão e a eficiência da inferência do modelo.


Figura 2: Um exemplo de um modelo de aprendizado de máquina representado como um grafo acíclico direcionado (DAG)

Técnicas Quantitativas Avançadas

No zkPyTorch, técnicas avançadas de quantização são um passo fundamental na conversão de cálculos de ponto flutuante em operações inteiras adequadas para uma aritmética de campo finito eficiente em sistemas de prova de conhecimento zero (ZKP). O zkPyTorch emprega um método de quantização inteira estática, cuidadosamente projetado para equilibrar a eficiência computacional e a precisão do modelo, garantindo que a geração de provas seja rápida e precisa.

Este processo de quantização envolve uma calibração rigorosa para determinar com precisão a escala de quantização ideal para representar efetivamente números de ponto flutuante, evitando overflow e perda significativa de precisão. Para enfrentar os desafios únicos das operações não lineares da Prova de conhecimento zero (como Softmax e normalização de camada), zkPyTorch inova transformando essas funções complexas em operações eficientes de busca em tabela.

Esta estratégia não apenas melhora significativamente a eficiência da geração de provas, mas também garante que os resultados das provas geradas sejam completamente consistentes com os resultados de modelos quantitativos de alta precisão, equilibrando desempenho e credibilidade, e avançando a aplicação prática de aprendizado de máquina verificável.

Estratégia de otimização de circuitos em múltiplos níveis

zkPyTorch adota um sistema de otimização de circuito multilayer altamente sofisticado, garantindo o desempenho máximo da prova de conhecimento zero em termos de eficiência e escalabilidade a partir de múltiplas dimensões:

Otimização de Processamento em Lote

Ao agrupar várias tarefas de inferência em processamento em lote, a complexidade computacional geral é significativamente reduzida, especialmente adequada para operações sequenciais em modelos de linguagem como Transformers. Como mostrado na Figura 3, o processo de inferência tradicional de grandes modelos de linguagem (LLM) ocorre de maneira token a token, enquanto a abordagem inovadora do zkPyTorch agrega todos os tokens de entrada e saída em um único processo de solicitação para validação. Este método de processamento pode confirmar a correção geral da inferência do LLM de uma só vez, ao mesmo tempo em que garante que cada token de saída seja consistente com a inferência padrão do LLM.

Na inferência de LLM, a correção do mecanismo de cache KV (cache de chave-valor) é fundamental para garantir a confiabilidade das saídas da inferência. Se a lógica de inferência do modelo estiver incorreta, mesmo com caching, não será possível reproduzir resultados consistentes com o processo de decodificação padrão. zkPyTorch garante que cada saída em zk-SNARKs tenha determinismo e completude verificáveis, ao replicar precisamente esse processo.


Figura 3: Verificação em lote de modelos de linguagem em grande escala (LLMs), onde L representa o comprimento da sequência de entrada, N representa o comprimento da sequência de saída e H representa a dimensão da camada oculta do modelo.

Operações Primitivas Otimizadas

zkPyTorch otimizou profundamente os primitivos de aprendizado de máquina subjacentes, melhorando significativamente a eficiência do circuito. Por exemplo, operações de convolução sempre foram tarefas intensivas em computação; o zkPyTorch utiliza um método de otimização baseado na Transformada Rápida de Fourier (FFT) para converter convoluções originalmente executadas no domínio espacial em operações de multiplicação no domínio da frequência, reduzindo significativamente os custos computacionais. Ao mesmo tempo, para funções não lineares como ReLU e softmax, o sistema emprega uma abordagem de tabela de consulta pré-calculada, evitando cálculos não lineares que não são amigáveis ao ZKP, melhorando muito a eficiência operacional dos circuitos de inferência.

Execução de Circuito Paralelo

zkPyTorch compila automaticamente operações complexas de ML em circuitos paralelos, utilizando totalmente o potencial de hardware de CPUs/GPUs multi-core para alcançar a geração de provas em larga escala de forma paralela. Por exemplo, ao realizar a multiplicação de tensores, o zkPyTorch divide automaticamente a tarefa de computação em várias subtarefas independentes, que são então distribuídas para várias unidades de processamento para execução concorrente. Essa estratégia de paralelização não apenas melhora significativamente a taxa de transferência da execução de circuitos, mas também torna a verificação eficiente de grandes modelos uma realidade, abrindo novas dimensões para ZKML escalável.

Teste de desempenho abrangente: um duplo avanço em desempenho e precisão

zkPyTorch demonstra desempenho excepcional e usabilidade prática em vários modelos de aprendizado de máquina convencionais por meio de avaliações rigorosas:

Teste do modelo VGG-16
No conjunto de dados CIFAR-10, o zkPyTorch leva apenas 6,3 segundos para gerar uma prova VGG-16 para uma única imagem, e a precisão é quase indistinguível da computação tradicional em ponto flutuante. Isso marca as capacidades práticas do zkML em tarefas clássicas, como reconhecimento de imagem.

Testes do modelo Llama-3
Para o modelo de linguagem grande Llama-3 com até 8 bilhões de parâmetros, zkPyTorch alcança uma geração de provas eficiente de cerca de 150 segundos por token. Ainda mais impressionante, sua saída mantém uma similaridade cosseno de 99,32% em comparação com o modelo original, garantindo alta credibilidade enquanto ainda preserva a consistência semântica da saída do modelo.


Tabela 1: Desempenho de vários esquemas de Prova de conhecimento zero em redes neurais convolucionais e redes transformadoras

Uma ampla gama de cenários de aplicação no mundo real

MLaaS verificável

À medida que o valor dos modelos de aprendizado de máquina continua a aumentar, mais e mais desenvolvedores de IA estão optando por implantar seus modelos desenvolvidos de forma independente na nuvem, oferecendo serviços de MLaaS (Machine-Learning-as-a-Service). No entanto, na realidade, os usuários frequentemente têm dificuldade em verificar se os resultados das inferências são autênticos e confiáveis; enquanto isso, os provedores de modelos também desejam proteger ativos essenciais, como a estrutura e os parâmetros do modelo, para evitar roubo ou uso indevido.

zkPyTorch nasceu para resolver essa contradição: ele permite que os serviços de IA em nuvem tenham capacidades nativas de "prova de conhecimento zero", alcançando resultados de inferência em nível de criptografia verificáveis.

Como mostrado na Figura 4, os desenvolvedores podem integrar diretamente grandes modelos como Llama-3 ao zkPyTorch para construir um sistema de MLaaS confiável com capacidades de prova de conhecimento zero. Ao se integrar de forma contínua com o mecanismo ZKP subjacente, o zkPyTorch pode gerar automaticamente provas sem expor detalhes do modelo, verificando se cada inferência é executada corretamente, estabelecendo assim uma verdadeira base de confiança interativa e confiável para provedores de modelos e usuários.


Figura 4: Os cenários de aplicação do zkPyTorch em MLaaS verificável.

O acompanhamento seguro da avaliação de modelos

zkPyTorch fornece um mecanismo seguro e verificável de avaliação de modelos de IA, permitindo que as partes interessadas avaliem prudentemente os indicadores-chave de desempenho sem expor os detalhes do modelo. Este método de avaliação de "zero leakage" estabelece um novo padrão de confiança para modelos de IA, aumentando a eficiência das transações comerciais enquanto protege os direitos de propriedade intelectual dos desenvolvedores. Ele não apenas aumenta a visibilidade do valor do modelo, mas também traz maior transparência e justiça para toda a indústria de IA.

Integração profunda com a blockchain EXPchain

zkPyTorch se integra nativamente com a rede blockchain EXPchain, desenvolvida de forma independente pela Polyhedra Network, construindo conjuntamente uma infraestrutura de IA descentralizada e confiável. Essa integração fornece um caminho altamente otimizado para chamadas de contratos inteligentes e verificação on-chain, permitindo que os resultados de inferência de IA sejam verificados criptograficamente e armazenados permanentemente na blockchain.

Com a colaboração do zkPyTorch e EXPchain, os desenvolvedores podem construir aplicações de IA verificáveis de ponta a ponta, desde a implantação do modelo, computação de inferência até a verificação on-chain, realizando verdadeiramente um processo de computação de IA transparente, confiável e auditável, fornecendo suporte subjacente para a próxima geração de aplicações de blockchain + IA.

Roteiro Futuro e Inovação Contínua

A Polyhedra continuará a avançar a evolução do zkPyTorch, focando nos seguintes aspectos:

Código aberto e co-construção da comunidade

Liberar gradualmente o código-fonte dos componentes principais do zkPyTorch, inspirando desenvolvedores globais a participar e promovendo a inovação colaborativa e a prosperidade ecológica no campo da Prova de conhecimento zero em aprendizado de máquina.

Expandir a compatibilidade de modelos e frameworks

Amplie a faixa de suporte para modelos e estruturas de aprendizado de máquina tradicionais, melhore ainda mais a adaptabilidade e versatilidade do zkPyTorch, tornando-o flexível para se integrar a vários fluxos de trabalho de IA.

Ferramentas de desenvolvimento e construção de SDK

Lançar uma ferramenta de desenvolvimento abrangente e um kit de desenvolvimento de software (SDK) para simplificar o processo de integração e acelerar a implantação e aplicação do zkPyTorch em cenários de negócios práticos.

Conclusão

zkPyTorch é um marco importante em direção a um futuro de IA confiável. Ao integrar profundamente o maduro framework PyTorch com a tecnologia de ponta zk-SNARKs, o zkPyTorch não apenas aumenta significativamente a segurança e a verificabilidade do aprendizado de máquina, mas também remodela os métodos de implantação e os limites de confiança das aplicações de IA.

A Polyhedra continuará a inovar no campo da "IA segura", avançando o aprendizado de máquina em direção a padrões mais elevados em proteção de privacidade, verificabilidade de resultados e conformidade de modelos, ajudando a construir sistemas inteligentes transparentes, confiáveis e escaláveis.

Fique atento às nossas últimas atualizações e testemunhe como o zkPyTorch está remodelando o futuro da era inteligente segura.

Declaração:

  1. Este artigo é reproduzido de [BLOCKBEATS] O copyright pertence ao autor original [Jiaheng Zhang] Se você tiver alguma objeção à reprodução, por favor, entre em contato Equipe Gate LearnA equipe processará isso o mais rápido possível de acordo com os procedimentos relevantes.
  2. Aviso: As opiniões e pontos de vista expressos neste artigo são exclusivamente do autor e não constituem qualquer aconselhamento de investimento.
  3. Outras versões em língua do artigo são traduzidas pela equipe Gate Learn, a menos que seja mencionado o contrário.GateSob tais circunstâncias, copiar, distribuir ou plagiar artigos traduzidos não é permitido.

zkPyTorch: Trazendo Prova de conhecimento zero para Inferência PyTorch para uma IA verdadeiramente confiável

intermediário6/11/2025, 3:25:52 AM
Este artigo explora como o compilador zkPyTorch lançado pela Polyhedra Network integra o framework de IA mainstream PyTorch com a tecnologia zk-SNARKs, reduzindo o limite de desenvolvimento para ZKML e alcançando verificação credível e proteção de privacidade no processo de inferência de aprendizado de máquina. Ele cobre seus três módulos principais (pré-processamento, quantização, otimização de circuitos), tecnologias-chave (DAG, tabelas de consulta, convolução FFT), estratégias de otimização de circuitos em múltiplos níveis e apresenta avanços no desempenho e precisão do zkPyTorch por meio de dados empíricos do VGG-16 e Llama-3.

À medida que a inteligência artificial (IA) está sendo cada vez mais implementada em áreas-chave como saúde, finanças e direção autônoma, garantir a confiabilidade, transparência e segurança do processo de inferência de aprendizado de máquina (ML) está se tornando mais importante do que nunca.

No entanto, os serviços tradicionais de aprendizado de máquina costumam operar como uma "caixa-preta", onde os usuários podem apenas ver os resultados e acham difícil verificar o processo. Essa falta de transparência torna os serviços de modelo vulneráveis a riscos:

O modelo foi roubado,

O resultado da inferência foi maliciosamente adulterado,

Os dados dos usuários estão em risco de violação de privacidade.

ZKML (Aprendizado de Máquina zk-SNARKs) fornece uma nova solução criptográfica para esse desafio. Ele se baseia na tecnologia zk-SNARKs, concedendo aos modelos de aprendizado de máquina a capacidade de serem criptografados de forma verificável: provando que um cálculo foi executado corretamente sem revelar nenhuma informação sensível.

Em outras palavras, as Provas de Conhecimento Zero permitem que os provedores de serviços provem aos usuários que:

"Os resultados de inferência que você obteve foram realmente gerados pelo modelo treinado que executei — mas não divulgarei nenhum parâmetro do modelo."

Isso significa que os usuários podem confiar na autenticidade dos resultados da inferência, enquanto a estrutura e os parâmetros do modelo (que muitas vezes são ativos de alto valor) permanecem privados.

zkPyTorch:

A Polyhedra Network lançou o zkPyTorch, um compilador revolucionário especialmente projetado para aprendizado de máquina de conhecimento zero (ZKML), com o objetivo de fazer a ponte entre os principais frameworks de IA e a tecnologia ZK.

zkPyTorch integra profundamente as poderosas capacidades de aprendizado de máquina do PyTorch com motores de zk-SNARKs de ponta, permitindo que desenvolvedores de IA construam aplicações de IA verificáveis em um ambiente familiar, sem mudar seus hábitos de programação ou aprender uma nova linguagem ZK completamente.

Este compilador pode traduzir automaticamente operações de modelo de alto nível (como convolução, multiplicação de matriz, ReLU, softmax e mecanismos de atenção) em circuitos ZKP criptograficamente verificáveis. Ele combina o conjunto de otimização ZKML desenvolvido internamente pela Polyhedra para comprimir e acelerar de forma inteligente os caminhos de inferência mais utilizados, garantindo tanto a correção quanto a eficiência computacional dos circuitos.

Infraestrutura chave para construir um ecossistema de IA confiável

O atual ecossistema de aprendizado de máquina enfrenta múltiplos desafios, como segurança de dados, verificabilidade computacional e transparência de modelos. Especialmente em indústrias críticas como saúde, finanças e condução autônoma, os modelos de IA não apenas envolvem uma grande quantidade de informações pessoais sensíveis, mas também carregam propriedade intelectual de alto valor e segredos comerciais essenciais.

A Aprendizagem de Máquina de Conhecimento Zero (ZKML) surgiu como uma importante inovação para enfrentar esse dilema. Através da tecnologia de Prova de Conhecimento Zero (ZKP), a ZKML pode completar a verificação de integridade da inferência do modelo sem divulgar parâmetros do modelo ou dados de entrada — protegendo a privacidade enquanto garante a confiança.

Mas, na realidade, desenvolver ZKML muitas vezes tem um alto nível de dificuldade, exigindo um conhecimento profundo em criptografia, o que está longe do que os engenheiros de IA tradicionais conseguem lidar facilmente.

Esta é precisamente a missão do zkPyTorch. Ele constrói uma ponte entre o PyTorch e o motor ZKP, permitindo que os desenvolvedores construam sistemas de IA com proteção de privacidade e verificabilidade usando código familiar, sem a necessidade de reaprender linguagens criptográficas complexas.

Através do zkPyTorch, a Polyhedra Network está reduzindo significativamente as barreiras técnicas do ZKML, impulsionando aplicações de IA escaláveis e confiáveis para o mainstream, e reconstruindo um novo paradigma de segurança e privacidade da IA.

fluxo de trabalho zkPyTorch


Figura 1: Visão geral da arquitetura geral do ZKPyTorch

Como mostrado na Figura 1, o zkPyTorch converte automaticamente modelos padrão do PyTorch em circuitos compatíveis com ZKP (zk-SNARKs) por meio de três módulos cuidadosamente projetados. Esses três módulos incluem: módulo de pré-processamento, módulo de quantização amigável ao conhecimento zero e módulo de otimização de circuitos.

Este processo não requer que os desenvolvedores dominem circuitos criptográficos ou sintaxe especializada: os desenvolvedores só precisam escrever modelos usando PyTorch padrão, e o zkPyTorch pode convertê-los em circuitos que podem ser reconhecidos por motores de prova de conhecimento zero, como o Expander, gerando a correspondente prova ZK.

Este design altamente modular reduz significativamente o limite de desenvolvimento do ZKML, permitindo que desenvolvedores de IA construam facilmente aplicações de aprendizado de máquina eficientes, seguras e verificáveis sem a necessidade de trocar de idiomas ou aprender criptografia.

Bloco Um: Pré-processamento de Modelo

Na primeira fase, o zkPyTorch converterá o modelo PyTorch em um gráfico de computação estruturado usando o formato Open Neural Network Exchange (ONNX). O ONNX é um padrão de representação intermediária adotado em toda a indústria que pode representar uniformemente várias operações complexas de aprendizado de máquina. Através dessa etapa de pré-processamento, o zkPyTorch é capaz de esclarecer a estrutura do modelo e detalhar o processo de computação central, estabelecendo uma base sólida para a geração de circuitos zk-SNARKs nas etapas subsequentes.

Módulo 2: Prova de conhecimento zero Amigável Quantificação

O módulo de quantização é um componente chave do sistema ZKML. Modelos tradicionais de aprendizado de máquina dependem de operações em ponto flutuante, enquanto o ambiente ZKP é mais adequado para operações inteiras em campos finitos. O zkPyTorch adota um esquema de quantização inteira otimizado para campos finitos, mapeando com precisão cálculos em ponto flutuante para cálculos inteiros, enquanto transforma operações não lineares que são desfavoráveis para ZKP (como ReLU e Softmax) em formas eficientes de tabela de consulta.

Esta estratégia não apenas reduz significativamente a complexidade do circuito, mas também melhora a verificabilidade e a eficiência operacional do sistema como um todo, garantindo a precisão do modelo.

Módulo 3: Otimização de Circuito Hierárquico

zkPyTorch adota uma estratégia em múltiplos níveis para otimização de circuitos, incluindo especificamente:

Otimização em lote
Especificamente projetado para computação serializada, reduz significativamente a complexidade computacional e o consumo de recursos ao processar múltiplos passos de inferência de uma só vez, tornando-o especialmente adequado para cenários de verificação de grandes modelos de linguagem, como os Transformers.

Aceleração da Operação em Linguagem Original
Ao combinar a convolução de Transformada Rápida de Fourier (FFT) com a tecnologia de tabela de consulta, a velocidade de execução de operações básicas como convolução e Softmax é efetivamente aprimorada, melhorando fundamentalmente a eficiência computacional geral.

Execução de circuito paralelo
Aproveite totalmente as vantagens do poder computacional das CPUs e GPUs multi-core, dividindo computações de alta carga, como a multiplicação de matrizes, em várias subtarefas para execução paralela, melhorando significativamente a velocidade e a escalabilidade da geração de Prova de conhecimento zero.

Discussão Técnica Aprofundada

Grafos Acíclicos Dirigidos (DAG)

zkPyTorch utiliza um Grafo Acíclico Direcionado (DAG) para gerenciar o fluxo computacional de aprendizado de máquina. A estrutura do DAG captura sistematicamente as complexas dependências do modelo, como mostrado na Figura 2, onde cada nó representa uma operação específica (como transposição de matriz, multiplicação de matriz, divisão e Softmax), e as arestas descrevem precisamente o fluxo de dados entre essas operações.

Esta representação clara e estruturada não apenas facilita enormemente o processo de depuração, mas também ajuda na otimização profunda do desempenho. A natureza acíclica do DAG evita dependências circulares, garantindo uma execução eficiente e controlável da ordem de computação, o que é crucial para otimizar a geração de circuitos zk-SNARKs.

Além disso, o DAG permite que o zkPyTorch lide de forma eficiente com arquiteturas de modelos complexos, como Transformers e Redes Residuais (ResNet), que muitas vezes possuem fluxos de dados complexos, não lineares e de múltiplos caminhos. O design do DAG está perfeitamente alinhado com suas necessidades computacionais, garantindo a precisão e a eficiência da inferência do modelo.


Figura 2: Um exemplo de um modelo de aprendizado de máquina representado como um grafo acíclico direcionado (DAG)

Técnicas Quantitativas Avançadas

No zkPyTorch, técnicas avançadas de quantização são um passo fundamental na conversão de cálculos de ponto flutuante em operações inteiras adequadas para uma aritmética de campo finito eficiente em sistemas de prova de conhecimento zero (ZKP). O zkPyTorch emprega um método de quantização inteira estática, cuidadosamente projetado para equilibrar a eficiência computacional e a precisão do modelo, garantindo que a geração de provas seja rápida e precisa.

Este processo de quantização envolve uma calibração rigorosa para determinar com precisão a escala de quantização ideal para representar efetivamente números de ponto flutuante, evitando overflow e perda significativa de precisão. Para enfrentar os desafios únicos das operações não lineares da Prova de conhecimento zero (como Softmax e normalização de camada), zkPyTorch inova transformando essas funções complexas em operações eficientes de busca em tabela.

Esta estratégia não apenas melhora significativamente a eficiência da geração de provas, mas também garante que os resultados das provas geradas sejam completamente consistentes com os resultados de modelos quantitativos de alta precisão, equilibrando desempenho e credibilidade, e avançando a aplicação prática de aprendizado de máquina verificável.

Estratégia de otimização de circuitos em múltiplos níveis

zkPyTorch adota um sistema de otimização de circuito multilayer altamente sofisticado, garantindo o desempenho máximo da prova de conhecimento zero em termos de eficiência e escalabilidade a partir de múltiplas dimensões:

Otimização de Processamento em Lote

Ao agrupar várias tarefas de inferência em processamento em lote, a complexidade computacional geral é significativamente reduzida, especialmente adequada para operações sequenciais em modelos de linguagem como Transformers. Como mostrado na Figura 3, o processo de inferência tradicional de grandes modelos de linguagem (LLM) ocorre de maneira token a token, enquanto a abordagem inovadora do zkPyTorch agrega todos os tokens de entrada e saída em um único processo de solicitação para validação. Este método de processamento pode confirmar a correção geral da inferência do LLM de uma só vez, ao mesmo tempo em que garante que cada token de saída seja consistente com a inferência padrão do LLM.

Na inferência de LLM, a correção do mecanismo de cache KV (cache de chave-valor) é fundamental para garantir a confiabilidade das saídas da inferência. Se a lógica de inferência do modelo estiver incorreta, mesmo com caching, não será possível reproduzir resultados consistentes com o processo de decodificação padrão. zkPyTorch garante que cada saída em zk-SNARKs tenha determinismo e completude verificáveis, ao replicar precisamente esse processo.


Figura 3: Verificação em lote de modelos de linguagem em grande escala (LLMs), onde L representa o comprimento da sequência de entrada, N representa o comprimento da sequência de saída e H representa a dimensão da camada oculta do modelo.

Operações Primitivas Otimizadas

zkPyTorch otimizou profundamente os primitivos de aprendizado de máquina subjacentes, melhorando significativamente a eficiência do circuito. Por exemplo, operações de convolução sempre foram tarefas intensivas em computação; o zkPyTorch utiliza um método de otimização baseado na Transformada Rápida de Fourier (FFT) para converter convoluções originalmente executadas no domínio espacial em operações de multiplicação no domínio da frequência, reduzindo significativamente os custos computacionais. Ao mesmo tempo, para funções não lineares como ReLU e softmax, o sistema emprega uma abordagem de tabela de consulta pré-calculada, evitando cálculos não lineares que não são amigáveis ao ZKP, melhorando muito a eficiência operacional dos circuitos de inferência.

Execução de Circuito Paralelo

zkPyTorch compila automaticamente operações complexas de ML em circuitos paralelos, utilizando totalmente o potencial de hardware de CPUs/GPUs multi-core para alcançar a geração de provas em larga escala de forma paralela. Por exemplo, ao realizar a multiplicação de tensores, o zkPyTorch divide automaticamente a tarefa de computação em várias subtarefas independentes, que são então distribuídas para várias unidades de processamento para execução concorrente. Essa estratégia de paralelização não apenas melhora significativamente a taxa de transferência da execução de circuitos, mas também torna a verificação eficiente de grandes modelos uma realidade, abrindo novas dimensões para ZKML escalável.

Teste de desempenho abrangente: um duplo avanço em desempenho e precisão

zkPyTorch demonstra desempenho excepcional e usabilidade prática em vários modelos de aprendizado de máquina convencionais por meio de avaliações rigorosas:

Teste do modelo VGG-16
No conjunto de dados CIFAR-10, o zkPyTorch leva apenas 6,3 segundos para gerar uma prova VGG-16 para uma única imagem, e a precisão é quase indistinguível da computação tradicional em ponto flutuante. Isso marca as capacidades práticas do zkML em tarefas clássicas, como reconhecimento de imagem.

Testes do modelo Llama-3
Para o modelo de linguagem grande Llama-3 com até 8 bilhões de parâmetros, zkPyTorch alcança uma geração de provas eficiente de cerca de 150 segundos por token. Ainda mais impressionante, sua saída mantém uma similaridade cosseno de 99,32% em comparação com o modelo original, garantindo alta credibilidade enquanto ainda preserva a consistência semântica da saída do modelo.


Tabela 1: Desempenho de vários esquemas de Prova de conhecimento zero em redes neurais convolucionais e redes transformadoras

Uma ampla gama de cenários de aplicação no mundo real

MLaaS verificável

À medida que o valor dos modelos de aprendizado de máquina continua a aumentar, mais e mais desenvolvedores de IA estão optando por implantar seus modelos desenvolvidos de forma independente na nuvem, oferecendo serviços de MLaaS (Machine-Learning-as-a-Service). No entanto, na realidade, os usuários frequentemente têm dificuldade em verificar se os resultados das inferências são autênticos e confiáveis; enquanto isso, os provedores de modelos também desejam proteger ativos essenciais, como a estrutura e os parâmetros do modelo, para evitar roubo ou uso indevido.

zkPyTorch nasceu para resolver essa contradição: ele permite que os serviços de IA em nuvem tenham capacidades nativas de "prova de conhecimento zero", alcançando resultados de inferência em nível de criptografia verificáveis.

Como mostrado na Figura 4, os desenvolvedores podem integrar diretamente grandes modelos como Llama-3 ao zkPyTorch para construir um sistema de MLaaS confiável com capacidades de prova de conhecimento zero. Ao se integrar de forma contínua com o mecanismo ZKP subjacente, o zkPyTorch pode gerar automaticamente provas sem expor detalhes do modelo, verificando se cada inferência é executada corretamente, estabelecendo assim uma verdadeira base de confiança interativa e confiável para provedores de modelos e usuários.


Figura 4: Os cenários de aplicação do zkPyTorch em MLaaS verificável.

O acompanhamento seguro da avaliação de modelos

zkPyTorch fornece um mecanismo seguro e verificável de avaliação de modelos de IA, permitindo que as partes interessadas avaliem prudentemente os indicadores-chave de desempenho sem expor os detalhes do modelo. Este método de avaliação de "zero leakage" estabelece um novo padrão de confiança para modelos de IA, aumentando a eficiência das transações comerciais enquanto protege os direitos de propriedade intelectual dos desenvolvedores. Ele não apenas aumenta a visibilidade do valor do modelo, mas também traz maior transparência e justiça para toda a indústria de IA.

Integração profunda com a blockchain EXPchain

zkPyTorch se integra nativamente com a rede blockchain EXPchain, desenvolvida de forma independente pela Polyhedra Network, construindo conjuntamente uma infraestrutura de IA descentralizada e confiável. Essa integração fornece um caminho altamente otimizado para chamadas de contratos inteligentes e verificação on-chain, permitindo que os resultados de inferência de IA sejam verificados criptograficamente e armazenados permanentemente na blockchain.

Com a colaboração do zkPyTorch e EXPchain, os desenvolvedores podem construir aplicações de IA verificáveis de ponta a ponta, desde a implantação do modelo, computação de inferência até a verificação on-chain, realizando verdadeiramente um processo de computação de IA transparente, confiável e auditável, fornecendo suporte subjacente para a próxima geração de aplicações de blockchain + IA.

Roteiro Futuro e Inovação Contínua

A Polyhedra continuará a avançar a evolução do zkPyTorch, focando nos seguintes aspectos:

Código aberto e co-construção da comunidade

Liberar gradualmente o código-fonte dos componentes principais do zkPyTorch, inspirando desenvolvedores globais a participar e promovendo a inovação colaborativa e a prosperidade ecológica no campo da Prova de conhecimento zero em aprendizado de máquina.

Expandir a compatibilidade de modelos e frameworks

Amplie a faixa de suporte para modelos e estruturas de aprendizado de máquina tradicionais, melhore ainda mais a adaptabilidade e versatilidade do zkPyTorch, tornando-o flexível para se integrar a vários fluxos de trabalho de IA.

Ferramentas de desenvolvimento e construção de SDK

Lançar uma ferramenta de desenvolvimento abrangente e um kit de desenvolvimento de software (SDK) para simplificar o processo de integração e acelerar a implantação e aplicação do zkPyTorch em cenários de negócios práticos.

Conclusão

zkPyTorch é um marco importante em direção a um futuro de IA confiável. Ao integrar profundamente o maduro framework PyTorch com a tecnologia de ponta zk-SNARKs, o zkPyTorch não apenas aumenta significativamente a segurança e a verificabilidade do aprendizado de máquina, mas também remodela os métodos de implantação e os limites de confiança das aplicações de IA.

A Polyhedra continuará a inovar no campo da "IA segura", avançando o aprendizado de máquina em direção a padrões mais elevados em proteção de privacidade, verificabilidade de resultados e conformidade de modelos, ajudando a construir sistemas inteligentes transparentes, confiáveis e escaláveis.

Fique atento às nossas últimas atualizações e testemunhe como o zkPyTorch está remodelando o futuro da era inteligente segura.

Declaração:

  1. Este artigo é reproduzido de [BLOCKBEATS] O copyright pertence ao autor original [Jiaheng Zhang] Se você tiver alguma objeção à reprodução, por favor, entre em contato Equipe Gate LearnA equipe processará isso o mais rápido possível de acordo com os procedimentos relevantes.
  2. Aviso: As opiniões e pontos de vista expressos neste artigo são exclusivamente do autor e não constituem qualquer aconselhamento de investimento.
  3. Outras versões em língua do artigo são traduzidas pela equipe Gate Learn, a menos que seja mencionado o contrário.GateSob tais circunstâncias, copiar, distribuir ou plagiar artigos traduzidos não é permitido.
Comece agora
Inscreva-se e ganhe um cupom de
$100
!