El punto de confluencia entre AI y DePIN: el auge de las redes GPU descentralizadas
Desde 2023, la IA y DePIN se han convertido en tendencias populares en el ámbito de Web3, alcanzando un valor de mercado de 30,000 millones de dólares y 23,000 millones de dólares, respectivamente. Este artículo se centra en la intersección de ambos, explorando el desarrollo de los protocolos relacionados.
En la pila de tecnología de IA, la red DePIN proporciona utilidad a la IA a través de recursos computacionales. El desarrollo de grandes empresas tecnológicas ha llevado a una escasez de GPU, dificultando que otros desarrolladores obtengan suficientes GPU para el cálculo. Esto a menudo obliga a los desarrolladores a elegir proveedores de nube centralizados, pero debido a la necesidad de firmar contratos de hardware de alto rendimiento a largo plazo y poco flexibles, se produce ineficiencia.
DePIN esencialmente ofrece una alternativa más flexible y rentable, incentivando la contribución de recursos a través de recompensas en tokens. El DePIN en el ámbito de la IA externaliza los recursos de GPU desde propietarios individuales hacia centros de datos, formando un suministro unificado para los usuarios que necesitan acceder al hardware. Estas redes no solo brindan personalización y acceso bajo demanda a los desarrolladores que necesitan capacidad de cómputo, sino que también ofrecen ingresos adicionales a los propietarios de GPU.
Existen numerosas redes AI DePIN en el mercado, identificar las diferencias entre ellas y encontrar la red adecuada puede ser un desafío. A continuación, exploraremos el papel de cada protocolo, sus objetivos y los logros específicos que se han alcanzado.
Resumen de la red DePIN de IA
Cada uno de los proyectos mencionados aquí tiene un propósito similar: la red de mercado de computación GPU. Esta sección tiene como objetivo estudiar los aspectos destacados de cada proyecto, los enfoques del mercado y los logros. Al comprender su infraestructura clave y productos, podemos analizar en profundidad las diferencias entre ellos.
Render es un pionero en redes P2P que proporciona capacidad de cálculo GPU, inicialmente centrado en la renderización gráfica para la creación de contenido, y más tarde amplió su alcance para incluir diversas tareas de cálculo AI, desde campos de radiación neuronal (NeRF) hasta AI generativa.
Akash se posiciona como una alternativa "super nube" a plataformas tradicionales de almacenamiento, computación GPU y CPU como AWS(. Con herramientas amigables para desarrolladores como la plataforma de contenedores Akash y nodos de computación gestionados por Kubernetes, puede implementar software de manera fluida en diferentes entornos, lo que permite ejecutar cualquier aplicación nativa de la nube.
io.net proporciona acceso a clústeres de GPU en la nube distribuidos, que están especializados en casos de uso de IA y ML. Agrega GPU de centros de datos, mineros de criptomonedas y otras redes descentralizadas.
Gensyn ofrece capacidad de cálculo GPU centrada en el aprendizaje automático y el aprendizaje profundo. Afirma haber logrado un mecanismo de verificación más eficiente combinando conceptos como la prueba de trabajo basada en el aprendizaje para la validación, el protocolo de localización gráfica preciso para la revalidación y juegos de incentivos que involucran la participación y reducción de los proveedores de cálculo.
Aethir está diseñado específicamente para GPU empresariales, enfocado en campos de alta intensidad computacional, principalmente inteligencia artificial, aprendizaje automático )ML(, juegos en la nube, etc. Los contenedores en su red actúan como puntos finales virtuales para ejecutar aplicaciones basadas en la nube, trasladando la carga de trabajo desde los dispositivos locales a los contenedores para lograr una experiencia de baja latencia.
Phala Network actúa como la capa de ejecución para soluciones de IA Web3. Su blockchain es una solución de computación en la nube sin confianza, diseñada para abordar problemas de privacidad mediante el uso de su entorno de ejecución confiable )TEE(. Su capa de ejecución no se utiliza como capa de computación para modelos de IA, sino que permite que los agentes de IA sean controlados por contratos inteligentes en la cadena.
![AI y el punto de intersección de DePIN])https://img-cdn.gateio.im/webp-social/moments-68a395d50be4ab07fbc575dd54441164.webp(
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Enfoque empresarial | Renderizado gráfico e IA | Computación en la nube, renderizado e IA | IA | IA | Inteligencia artificial, juegos en la nube y telecomunicaciones | Ejecución de IA en cadena |
| Tipo de tarea de IA | Inferencia | Consideración | Consideración | Entrenamiento | Entrenamiento | Ejecución |
| Precio de trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privacidad de datos | Encriptación&hashing | Autenticación mTLS | Encriptación de datos | Mapeo seguro | Encriptación | TEE |
| Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costo de reserva | Costos bajos | 20% por sesión | Proporcional al monto de staking |
| Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena Intermedia |
| Prueba de finalización | - | - | Prueba de bloqueo de tiempo | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba de TEE |
| Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo verificador | Prueba remota |
| GPU Cluster | No | Sí | Sí | Sí | Sí | No |
) importancia
Disponibilidad de clústeres y computación paralela
El marco de cálculo distribuido implementa un clúster de GPU, proporcionando un entrenamiento más eficiente sin afectar la precisión del modelo, al mismo tiempo que mejora la escalabilidad. Entrenar modelos de IA complejos requiere una gran capacidad de cálculo, lo cual a menudo debe depender del cálculo distribuido para satisfacer sus necesidades. Desde una perspectiva intuitiva, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y fue entrenado en un período de 3-4 meses utilizando aproximadamente 25,000 GPUs Nvidia A100 en 128 clústeres.
Anteriormente, Render y Akash solo ofrecían GPU de un solo propósito, lo que podría limitar su demanda en el mercado de GPU. Sin embargo, la mayoría de los proyectos clave ahora han integrado clústeres para lograr computación paralela. io.net ha colaborado con otros proyectos como Render, Filecoin y Aethir para incorporar más GPU a su red, y ha logrado desplegar con éxito más de 3,800 clústeres en el primer trimestre de 24. Aunque Render no admite clústeres, su funcionamiento es similar al de los clústeres, descomponiendo un solo fotograma en múltiples nodos diferentes para procesar simultáneamente fotogramas de diferentes rangos. Phala actualmente solo admite CPU, pero permite la agrupación de trabajadores de CPU.
Es muy importante integrar el marco de clúster en la red de flujo de trabajo de IA, pero la cantidad y el tipo de GPU de clúster necesarios para satisfacer las necesidades de los desarrolladores de IA es un problema aparte.
Privacidad de datos
Desarrollar modelos de IA requiere utilizar grandes conjuntos de datos, que pueden provenir de diversas fuentes y tener diferentes formas. Los conjuntos de datos sensibles, como los registros médicos personales y los datos financieros de los usuarios, pueden enfrentar el riesgo de ser expuestos a los proveedores de modelos. Samsung prohibió internamente el uso de ChatGPT por temor a que el código sensible subiera a la plataforma y violara la privacidad, y el incidente de filtración de datos privados de 38 TB de Microsoft subraya aún más la importancia de tomar medidas de seguridad adecuadas al utilizar IA. Por lo tanto, tener diversos métodos de privacidad de datos es crucial para devolver el control de los datos a los proveedores de datos.
La mayoría de los proyectos cubiertos utilizan alguna forma de cifrado de datos para proteger la privacidad de los datos. El cifrado de datos asegura que la transmisión de datos desde el proveedor de datos hasta el proveedor del modelo ### y el receptor de datos ( en la red esté protegida. Render utiliza cifrado y procesamiento hash al publicar los resultados de renderizado de nuevo en la red, mientras que io.net y Gensyn emplean alguna forma de cifrado de datos. Akash utiliza autenticación mTLS, permitiendo que solo los proveedores seleccionados por el inquilino reciban datos.
Sin embargo, io.net ha colaborado recientemente con Mind Network para lanzar la encriptación completamente homomórfica )FHE(, que permite procesar datos cifrados sin necesidad de descifrarlos primero. Al permitir que los datos se transmitan de forma segura para fines de entrenamiento sin revelar la identidad y el contenido de los datos, esta innovación puede garantizar la privacidad de los datos de manera más efectiva que las tecnologías de cifrado existentes.
Phala Network ha introducido TEE, es decir, una zona segura dentro del procesador principal del dispositivo conectado. A través de este mecanismo de aislamiento, puede prevenir que procesos externos accedan o modifiquen datos, sin importar su nivel de permiso, incluso si la persona tiene acceso físico a la máquina. Además de TEE, también ha incorporado el uso de zk-proofs en su validador zkDCAP y en la interfaz de línea de comandos jtee, para integrarse con programas del RiscZero zkVM.
![AI y el punto de intersección de DePIN])https://img-cdn.gateio.im/webp-social/moments-8f83f1affbdfd92f33bc47afe8928c5c.webp(
) Prueba de cálculo completado y control de calidad
Estos proyectos ofrecen GPU que pueden proporcionar capacidad de cálculo para una variedad de servicios. Dado que estos servicios abarcan un amplio espectro, desde la renderización de gráficos hasta el cálculo de IA, la calidad final de tales tareas puede no siempre cumplir con los estándares del usuario. Se puede utilizar un comprobante de finalización para indicar que la GPU específica alquilada por el usuario se utilizó efectivamente para ejecutar el servicio requerido, y la verificación de calidad es beneficiosa para los usuarios que solicitan la finalización de dicho trabajo.
Después de completar los cálculos, tanto Gensyn como Aethir generarán pruebas para indicar que el trabajo se ha completado, mientras que la prueba de io.net indica que el rendimiento de la GPU arrendada se ha aprovechado al máximo y no ha habido problemas. Gensyn y Aethir realizarán un control de calidad sobre los cálculos completados. Para Gensyn, utiliza validadores para volver a ejecutar una parte del contenido de la prueba generada para verificarla, mientras que los denunciantes actúan como una capa adicional de revisión sobre los validadores. Al mismo tiempo, Aethir utiliza nodos de verificación para determinar la calidad del servicio y sanciona los servicios que están por debajo del estándar. Render sugiere utilizar un proceso de resolución de disputas; si el comité de revisión encuentra problemas en un nodo, se le reducirá. Phala generará una prueba TEE una vez finalizado, asegurando que el agente de IA ejecute las operaciones necesarias en la cadena.
![AI y el punto de intersección de DePIN]###https://img-cdn.gateio.im/webp-social/moments-df4f88879b53c4aa604b248fc9ff393a.webp(
Debido a que el entrenamiento de modelos de IA requiere GPUs de alto rendimiento, se tiende a utilizar GPUs como las A100 y H100 de Nvidia. Aunque el precio de estas últimas en el mercado es alto, ofrecen la mejor calidad. La A100 no solo puede entrenar todas las cargas de trabajo, sino que también puede completar el entrenamiento a una velocidad más rápida, lo que solo demuestra la importancia que el mercado otorga a este hardware. Dado que el rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, ahora se ha convertido en la GPU preferida, especialmente para las grandes empresas que están entrenando su propio LLM.
Para los proveedores de mercados de GPU descentralizados, competir con sus homólogos de Web2 no solo implica ofrecer precios más bajos, sino también satisfacer las necesidades reales del mercado. En 2023, Nvidia entregó más de 500,000 H100 a grandes empresas tecnológicas centralizadas, lo que hizo que obtener la mayor cantidad posible de hardware equivalente para competir con grandes proveedores de nube se volviera costoso y extremadamente difícil. Por lo tanto, considerar la cantidad de hardware que estos proyectos pueden introducir en su red a bajo costo es muy importante para expandir estos servicios a una base de clientes más amplia.
Aunque cada proyecto tiene negocios en computación de IA y ML, difieren en la capacidad de proporcionar computación. Akash tiene un total de solo más de 150 unidades H100 y A100, mientras que io.net y Aethir han obtenido más de 2000 unidades cada uno. Por lo general, preentrenar un LLM o un modelo generativo desde cero requiere al menos entre 248 y más de 2000 GPU en un clúster, por lo que los dos últimos proyectos son más adecuados para la computación de modelos grandes.
Según el tamaño del clúster requerido por los desarrolladores, el costo de estos servicios de GPU descentralizados en el mercado ya es mucho más bajo que el de los servicios de GPU centralizados. Gensyn y Aethir afirman que pueden alquilar hardware equivalente a A100 por menos de 1 dólar por hora, pero esto aún necesita ser demostrado a lo largo del tiempo.
El clúster de GPU conectado a la red tiene una gran cantidad de GPU, con un costo relativamente bajo por hora, pero en comparación con las GPU conectadas por NVLink,
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
16 me gusta
Recompensa
16
6
Compartir
Comentar
0/400
BearMarketMonk
· hace11h
Otra burbuja de valoración en la fantasía, dejemos que los inversores minoristas sean tontos una vez más~
Ver originalesResponder0
TokenGuru
· hace16h
Minería, Ser engañados, solo. Esta vez, tomar a la gente por tonta GPU.
Ver originalesResponder0
ChainSpy
· hace16h
¿Está por llegar el bull run de GPU?
Ver originalesResponder0
RumbleValidator
· hace16h
No todos merecen la Descentralización, solo el Nodo es la verdad.
Ver originalesResponder0
Ser_Liquidated
· hace17h
¿La GPU tiene suficiente para comer y beber, el inversor minorista aún se atreve a vender?
Fusión de AI y DePIN: Análisis del surgimiento de redes GPU descentralizadas y tendencias futuras
El punto de confluencia entre AI y DePIN: el auge de las redes GPU descentralizadas
Desde 2023, la IA y DePIN se han convertido en tendencias populares en el ámbito de Web3, alcanzando un valor de mercado de 30,000 millones de dólares y 23,000 millones de dólares, respectivamente. Este artículo se centra en la intersección de ambos, explorando el desarrollo de los protocolos relacionados.
En la pila de tecnología de IA, la red DePIN proporciona utilidad a la IA a través de recursos computacionales. El desarrollo de grandes empresas tecnológicas ha llevado a una escasez de GPU, dificultando que otros desarrolladores obtengan suficientes GPU para el cálculo. Esto a menudo obliga a los desarrolladores a elegir proveedores de nube centralizados, pero debido a la necesidad de firmar contratos de hardware de alto rendimiento a largo plazo y poco flexibles, se produce ineficiencia.
DePIN esencialmente ofrece una alternativa más flexible y rentable, incentivando la contribución de recursos a través de recompensas en tokens. El DePIN en el ámbito de la IA externaliza los recursos de GPU desde propietarios individuales hacia centros de datos, formando un suministro unificado para los usuarios que necesitan acceder al hardware. Estas redes no solo brindan personalización y acceso bajo demanda a los desarrolladores que necesitan capacidad de cómputo, sino que también ofrecen ingresos adicionales a los propietarios de GPU.
Existen numerosas redes AI DePIN en el mercado, identificar las diferencias entre ellas y encontrar la red adecuada puede ser un desafío. A continuación, exploraremos el papel de cada protocolo, sus objetivos y los logros específicos que se han alcanzado.
Resumen de la red DePIN de IA
Cada uno de los proyectos mencionados aquí tiene un propósito similar: la red de mercado de computación GPU. Esta sección tiene como objetivo estudiar los aspectos destacados de cada proyecto, los enfoques del mercado y los logros. Al comprender su infraestructura clave y productos, podemos analizar en profundidad las diferencias entre ellos.
Render es un pionero en redes P2P que proporciona capacidad de cálculo GPU, inicialmente centrado en la renderización gráfica para la creación de contenido, y más tarde amplió su alcance para incluir diversas tareas de cálculo AI, desde campos de radiación neuronal (NeRF) hasta AI generativa.
Akash se posiciona como una alternativa "super nube" a plataformas tradicionales de almacenamiento, computación GPU y CPU como AWS(. Con herramientas amigables para desarrolladores como la plataforma de contenedores Akash y nodos de computación gestionados por Kubernetes, puede implementar software de manera fluida en diferentes entornos, lo que permite ejecutar cualquier aplicación nativa de la nube.
io.net proporciona acceso a clústeres de GPU en la nube distribuidos, que están especializados en casos de uso de IA y ML. Agrega GPU de centros de datos, mineros de criptomonedas y otras redes descentralizadas.
Gensyn ofrece capacidad de cálculo GPU centrada en el aprendizaje automático y el aprendizaje profundo. Afirma haber logrado un mecanismo de verificación más eficiente combinando conceptos como la prueba de trabajo basada en el aprendizaje para la validación, el protocolo de localización gráfica preciso para la revalidación y juegos de incentivos que involucran la participación y reducción de los proveedores de cálculo.
Aethir está diseñado específicamente para GPU empresariales, enfocado en campos de alta intensidad computacional, principalmente inteligencia artificial, aprendizaje automático )ML(, juegos en la nube, etc. Los contenedores en su red actúan como puntos finales virtuales para ejecutar aplicaciones basadas en la nube, trasladando la carga de trabajo desde los dispositivos locales a los contenedores para lograr una experiencia de baja latencia.
Phala Network actúa como la capa de ejecución para soluciones de IA Web3. Su blockchain es una solución de computación en la nube sin confianza, diseñada para abordar problemas de privacidad mediante el uso de su entorno de ejecución confiable )TEE(. Su capa de ejecución no se utiliza como capa de computación para modelos de IA, sino que permite que los agentes de IA sean controlados por contratos inteligentes en la cadena.
![AI y el punto de intersección de DePIN])https://img-cdn.gateio.im/webp-social/moments-68a395d50be4ab07fbc575dd54441164.webp(
Comparación de proyectos
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Hardware | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Enfoque empresarial | Renderizado gráfico e IA | Computación en la nube, renderizado e IA | IA | IA | Inteligencia artificial, juegos en la nube y telecomunicaciones | Ejecución de IA en cadena | | Tipo de tarea de IA | Inferencia | Consideración | Consideración | Entrenamiento | Entrenamiento | Ejecución | | Precio de trabajo | Precio basado en el rendimiento | Subasta inversa | Precio de mercado | Precio de mercado | Sistema de licitación | Cálculo de derechos | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privacidad de datos | Encriptación&hashing | Autenticación mTLS | Encriptación de datos | Mapeo seguro | Encriptación | TEE | | Costos de trabajo | 0.5-5% por trabajo | 20% USDC, 4% AKT | 2% USDC, 0.25% costo de reserva | Costos bajos | 20% por sesión | Proporcional al monto de staking | | Seguridad | Prueba de Renderizado | Prueba de Participación | Prueba de Cálculo | Prueba de Participación | Prueba de Capacidad de Renderizado | Heredado de la Cadena Intermedia | | Prueba de finalización | - | - | Prueba de bloqueo de tiempo | Prueba de aprendizaje | Prueba de trabajo de renderizado | Prueba de TEE | | Garantía de calidad | Controversia | - | - | Verificador y denunciante | Nodo verificador | Prueba remota | | GPU Cluster | No | Sí | Sí | Sí | Sí | No |
) importancia
Disponibilidad de clústeres y computación paralela
El marco de cálculo distribuido implementa un clúster de GPU, proporcionando un entrenamiento más eficiente sin afectar la precisión del modelo, al mismo tiempo que mejora la escalabilidad. Entrenar modelos de IA complejos requiere una gran capacidad de cálculo, lo cual a menudo debe depender del cálculo distribuido para satisfacer sus necesidades. Desde una perspectiva intuitiva, el modelo GPT-4 de OpenAI tiene más de 1.8 billones de parámetros y fue entrenado en un período de 3-4 meses utilizando aproximadamente 25,000 GPUs Nvidia A100 en 128 clústeres.
Anteriormente, Render y Akash solo ofrecían GPU de un solo propósito, lo que podría limitar su demanda en el mercado de GPU. Sin embargo, la mayoría de los proyectos clave ahora han integrado clústeres para lograr computación paralela. io.net ha colaborado con otros proyectos como Render, Filecoin y Aethir para incorporar más GPU a su red, y ha logrado desplegar con éxito más de 3,800 clústeres en el primer trimestre de 24. Aunque Render no admite clústeres, su funcionamiento es similar al de los clústeres, descomponiendo un solo fotograma en múltiples nodos diferentes para procesar simultáneamente fotogramas de diferentes rangos. Phala actualmente solo admite CPU, pero permite la agrupación de trabajadores de CPU.
Es muy importante integrar el marco de clúster en la red de flujo de trabajo de IA, pero la cantidad y el tipo de GPU de clúster necesarios para satisfacer las necesidades de los desarrolladores de IA es un problema aparte.
Privacidad de datos
Desarrollar modelos de IA requiere utilizar grandes conjuntos de datos, que pueden provenir de diversas fuentes y tener diferentes formas. Los conjuntos de datos sensibles, como los registros médicos personales y los datos financieros de los usuarios, pueden enfrentar el riesgo de ser expuestos a los proveedores de modelos. Samsung prohibió internamente el uso de ChatGPT por temor a que el código sensible subiera a la plataforma y violara la privacidad, y el incidente de filtración de datos privados de 38 TB de Microsoft subraya aún más la importancia de tomar medidas de seguridad adecuadas al utilizar IA. Por lo tanto, tener diversos métodos de privacidad de datos es crucial para devolver el control de los datos a los proveedores de datos.
La mayoría de los proyectos cubiertos utilizan alguna forma de cifrado de datos para proteger la privacidad de los datos. El cifrado de datos asegura que la transmisión de datos desde el proveedor de datos hasta el proveedor del modelo ### y el receptor de datos ( en la red esté protegida. Render utiliza cifrado y procesamiento hash al publicar los resultados de renderizado de nuevo en la red, mientras que io.net y Gensyn emplean alguna forma de cifrado de datos. Akash utiliza autenticación mTLS, permitiendo que solo los proveedores seleccionados por el inquilino reciban datos.
Sin embargo, io.net ha colaborado recientemente con Mind Network para lanzar la encriptación completamente homomórfica )FHE(, que permite procesar datos cifrados sin necesidad de descifrarlos primero. Al permitir que los datos se transmitan de forma segura para fines de entrenamiento sin revelar la identidad y el contenido de los datos, esta innovación puede garantizar la privacidad de los datos de manera más efectiva que las tecnologías de cifrado existentes.
Phala Network ha introducido TEE, es decir, una zona segura dentro del procesador principal del dispositivo conectado. A través de este mecanismo de aislamiento, puede prevenir que procesos externos accedan o modifiquen datos, sin importar su nivel de permiso, incluso si la persona tiene acceso físico a la máquina. Además de TEE, también ha incorporado el uso de zk-proofs en su validador zkDCAP y en la interfaz de línea de comandos jtee, para integrarse con programas del RiscZero zkVM.
![AI y el punto de intersección de DePIN])https://img-cdn.gateio.im/webp-social/moments-8f83f1affbdfd92f33bc47afe8928c5c.webp(
) Prueba de cálculo completado y control de calidad
Estos proyectos ofrecen GPU que pueden proporcionar capacidad de cálculo para una variedad de servicios. Dado que estos servicios abarcan un amplio espectro, desde la renderización de gráficos hasta el cálculo de IA, la calidad final de tales tareas puede no siempre cumplir con los estándares del usuario. Se puede utilizar un comprobante de finalización para indicar que la GPU específica alquilada por el usuario se utilizó efectivamente para ejecutar el servicio requerido, y la verificación de calidad es beneficiosa para los usuarios que solicitan la finalización de dicho trabajo.
Después de completar los cálculos, tanto Gensyn como Aethir generarán pruebas para indicar que el trabajo se ha completado, mientras que la prueba de io.net indica que el rendimiento de la GPU arrendada se ha aprovechado al máximo y no ha habido problemas. Gensyn y Aethir realizarán un control de calidad sobre los cálculos completados. Para Gensyn, utiliza validadores para volver a ejecutar una parte del contenido de la prueba generada para verificarla, mientras que los denunciantes actúan como una capa adicional de revisión sobre los validadores. Al mismo tiempo, Aethir utiliza nodos de verificación para determinar la calidad del servicio y sanciona los servicios que están por debajo del estándar. Render sugiere utilizar un proceso de resolución de disputas; si el comité de revisión encuentra problemas en un nodo, se le reducirá. Phala generará una prueba TEE una vez finalizado, asegurando que el agente de IA ejecute las operaciones necesarias en la cadena.
![AI y el punto de intersección de DePIN]###https://img-cdn.gateio.im/webp-social/moments-df4f88879b53c4aa604b248fc9ff393a.webp(
Estadísticas de hardware
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Cantidad de GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Cantidad de CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Cantidad H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Coste H100/hora | - | $1.46 | $1.19 | - | - | - | | Costo A100/hora | - | $1.37 | $1.50 | $0.55 ) previsto ( | $0.33 ) previsto ( | - |
) Requisitos de GPU de alto rendimiento
Debido a que el entrenamiento de modelos de IA requiere GPUs de alto rendimiento, se tiende a utilizar GPUs como las A100 y H100 de Nvidia. Aunque el precio de estas últimas en el mercado es alto, ofrecen la mejor calidad. La A100 no solo puede entrenar todas las cargas de trabajo, sino que también puede completar el entrenamiento a una velocidad más rápida, lo que solo demuestra la importancia que el mercado otorga a este hardware. Dado que el rendimiento de inferencia de la H100 es 4 veces más rápido que el de la A100, ahora se ha convertido en la GPU preferida, especialmente para las grandes empresas que están entrenando su propio LLM.
Para los proveedores de mercados de GPU descentralizados, competir con sus homólogos de Web2 no solo implica ofrecer precios más bajos, sino también satisfacer las necesidades reales del mercado. En 2023, Nvidia entregó más de 500,000 H100 a grandes empresas tecnológicas centralizadas, lo que hizo que obtener la mayor cantidad posible de hardware equivalente para competir con grandes proveedores de nube se volviera costoso y extremadamente difícil. Por lo tanto, considerar la cantidad de hardware que estos proyectos pueden introducir en su red a bajo costo es muy importante para expandir estos servicios a una base de clientes más amplia.
Aunque cada proyecto tiene negocios en computación de IA y ML, difieren en la capacidad de proporcionar computación. Akash tiene un total de solo más de 150 unidades H100 y A100, mientras que io.net y Aethir han obtenido más de 2000 unidades cada uno. Por lo general, preentrenar un LLM o un modelo generativo desde cero requiere al menos entre 248 y más de 2000 GPU en un clúster, por lo que los dos últimos proyectos son más adecuados para la computación de modelos grandes.
Según el tamaño del clúster requerido por los desarrolladores, el costo de estos servicios de GPU descentralizados en el mercado ya es mucho más bajo que el de los servicios de GPU centralizados. Gensyn y Aethir afirman que pueden alquilar hardware equivalente a A100 por menos de 1 dólar por hora, pero esto aún necesita ser demostrado a lo largo del tiempo.
El clúster de GPU conectado a la red tiene una gran cantidad de GPU, con un costo relativamente bajo por hora, pero en comparación con las GPU conectadas por NVLink,