HomeNews* Theta Labs lanza un servicio de inferencia de LLM (modelo de lenguaje grande) en EdgeCloud con verificabilidad distribuida basada en blockchain.
La actualización permite resultados de chatbot de IA verificados de forma independiente y a prueba de manipulaciones al integrar aleatoriedad pública de la blockchain.
EdgeCloud es ahora la primera plataforma en ofrecer inferencia LLM sin confianza para empresas, académicos y otros usuarios.
El motor de código abierto aprovecha los modelos DeepSeek V3/R1 y hace que los resultados sean reproducibles a través de una combinación de procesos aleatorios deterministas y verificables.
Los resultados incluyen metadatos como la semilla aleatoria de la blockchain, lo que permite la verificación por parte de cualquier tercero y apoya futuras atestaciones en la cadena.
Theta Labs ha lanzado una nueva función de inferencia de modelo de lenguaje grande (LLM) para su plataforma EdgeCloud, anunció la empresa. El servicio está diseñado para aportar verificabilidad distribuida respaldada por blockchain a las salidas de chatbots y agentes de IA. Esto tiene como objetivo hacer que los resultados de LLM sean confiables y confirmables de manera independiente para los usuarios de diversos sectores.
Anuncio - Según Theta Labs, esta actualización posiciona a EdgeCloud como la primera plataforma en proporcionar inferencia de LLM "sin confianza" tanto para usuarios nativos de criptomonedas como para usuarios de la nube tradicional. El sistema combina modelos de IA de código abierto, computación descentralizada y tecnología blockchain para garantizar la integridad de las salidas generadas por IA. Para aplicaciones sensibles en empresas y academia, la compañía afirma que EdgeCloud es actualmente la única solución que ofrece este nivel de verificación de salida.
Los sistemas de IA modernos a menudo dependen de LLMs, pero la mayoría de los servicios hoy en día dependen de proveedores centralizados o hardware de seguridad que puede ser difícil de auditar, explica el artículo. El nuevo enfoque adopta DeepSeek V3/R1, una alternativa de código abierto a los LLMs propietarios, que permite la verificación transparente a lo largo del proceso. “Este avance permite a las comunidades alejarse de las API de IA opacas hacia flujos de inferencia transparentes e inspeccionables,” afirma Theta Labs.
El nuevo sistema utiliza un enfoque en dos partes. Primero, el modelo calcula las probabilidades del siguiente token de manera determinista, lo que puede ser revisado por cualquiera que utilice las mismas herramientas de código abierto. En segundo lugar, el servicio integra una semilla aleatoria públicamente verificable—extraída de sistemas blockchain como RanDAO de Ethereum—para determinar qué token se selecciona, haciendo que cada inferencia sea reproducible y auditable. Este método asegura que ni los usuarios ni los proveedores de servicios pueden alterar el resultado.
Para apoyar esto, Theta Labs ha mejorado el popular motor de inferencia vLLM y lo ha publicado como un contenedor Docker público, disponible en DockerHub. La empresa también ha incorporado la función en su plantilla de modelo "DeepSeek R1 / Distill-Qwen-7B" en la plataforma de lanzamiento de modelos dedicados Theta EdgeCloud.
Cada resultado del modelo ahora incluye metadatos de verificación, que contienen detalles de aleatoriedad pública obtenidos de la Blockchain Theta. Para necesidades de mayor seguridad, la empresa sugiere que metadatos como indicaciones, distribuciones y resultados pueden ser publicados en la cadena para la atestación por testigos descentralizados.
Theta Labs espera que este sistema juegue un papel clave a medida que los agentes de IA se utilizan cada vez más en tareas diarias y decisiones comerciales. Con la inferencia LLM a prueba de manipulaciones, los usuarios pueden confirmar de manera independiente la precisión de las respuestas generadas por IA. La empresa destaca esto como un paso importante para agregar transparencia y seguridad al ecosistema de IA en expansión.
Anuncio - #### Artículos Anteriores:
MicroStrategy Regresa a la Dilución, Recauda $520M a Través de la Venta de Acciones
La apuesta del 3% en Bitcoin del fondo de pensiones del Reino Unido obtiene un retorno del 60% en menos de un año
Actores de Amenaza Utilizan la Herramienta de IA Vercel v0 para Crear Sitios de Phishing
Webus asegura línea de capital de $100M en XRP mientras Ripple lanza anuncios en Zúrich
El Índice S&P 500 se ofrecerá como un fondo tokenizado a través de Centrifuge
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Theta EdgeCloud Presenta el Primer Servicio LLM Verificado por Cadena de Bloques
HomeNews* Theta Labs lanza un servicio de inferencia de LLM (modelo de lenguaje grande) en EdgeCloud con verificabilidad distribuida basada en blockchain.
Los sistemas de IA modernos a menudo dependen de LLMs, pero la mayoría de los servicios hoy en día dependen de proveedores centralizados o hardware de seguridad que puede ser difícil de auditar, explica el artículo. El nuevo enfoque adopta DeepSeek V3/R1, una alternativa de código abierto a los LLMs propietarios, que permite la verificación transparente a lo largo del proceso. “Este avance permite a las comunidades alejarse de las API de IA opacas hacia flujos de inferencia transparentes e inspeccionables,” afirma Theta Labs.
El nuevo sistema utiliza un enfoque en dos partes. Primero, el modelo calcula las probabilidades del siguiente token de manera determinista, lo que puede ser revisado por cualquiera que utilice las mismas herramientas de código abierto. En segundo lugar, el servicio integra una semilla aleatoria públicamente verificable—extraída de sistemas blockchain como RanDAO de Ethereum—para determinar qué token se selecciona, haciendo que cada inferencia sea reproducible y auditable. Este método asegura que ni los usuarios ni los proveedores de servicios pueden alterar el resultado.
Para apoyar esto, Theta Labs ha mejorado el popular motor de inferencia vLLM y lo ha publicado como un contenedor Docker público, disponible en DockerHub. La empresa también ha incorporado la función en su plantilla de modelo "DeepSeek R1 / Distill-Qwen-7B" en la plataforma de lanzamiento de modelos dedicados Theta EdgeCloud.
Cada resultado del modelo ahora incluye metadatos de verificación, que contienen detalles de aleatoriedad pública obtenidos de la Blockchain Theta. Para necesidades de mayor seguridad, la empresa sugiere que metadatos como indicaciones, distribuciones y resultados pueden ser publicados en la cadena para la atestación por testigos descentralizados.
Theta Labs espera que este sistema juegue un papel clave a medida que los agentes de IA se utilizan cada vez más en tareas diarias y decisiones comerciales. Con la inferencia LLM a prueba de manipulaciones, los usuarios pueden confirmar de manera independiente la precisión de las respuestas generadas por IA. La empresa destaca esto como un paso importante para agregar transparencia y seguridad al ecosistema de IA en expansión.