Sự kết hợp giữa AI và DePIN: Phân tích sự nổi lên của mạng GPU phi tập trung và xu hướng tương lai

Điểm giao thoa giữa AI và DePIN: Sự trỗi dậy của mạng GPU phân tán

Kể từ năm 2023, AI và DePIN đã trở thành những xu hướng nóng trong lĩnh vực Web3, với giá trị thị trường lần lượt đạt 30 tỷ USD và 23 tỷ USD. Bài viết này tập trung vào lĩnh vực giao thoa của cả hai, khám phá tình hình phát triển của các giao thức liên quan.

Trong ngăn xếp công nghệ AI, mạng DePIN cung cấp tính hữu dụng cho AI thông qua tài nguyên tính toán. Sự phát triển của các công ty công nghệ lớn dẫn đến tình trạng thiếu GPU, khiến các nhà phát triển khác khó có đủ GPU để tính toán. Điều này thường buộc các nhà phát triển phải chọn nhà cung cấp đám mây tập trung, nhưng do cần phải ký hợp đồng phần cứng hiệu suất cao dài hạn không linh hoạt, dẫn đến hiệu quả thấp.

DePIN về bản chất cung cấp một giải pháp linh hoạt và tiết kiệm chi phí hơn, thông qua việc khuyến khích đóng góp tài nguyên bằng phần thưởng token. DePIN trong lĩnh vực AI đã huy động tài nguyên GPU từ các chủ sở hữu cá nhân đến các trung tâm dữ liệu, tạo ra một nguồn cung thống nhất cho những người dùng cần truy cập phần cứng. Những mạng lưới này không chỉ cung cấp tính tùy chỉnh và truy cập theo yêu cầu cho các nhà phát triển cần sức mạnh tính toán, mà còn mang lại thu nhập bổ sung cho các chủ sở hữu GPU.

Trên thị trường có nhiều mạng AI DePIN, việc nhận diện sự khác biệt giữa chúng và tìm kiếm mạng phù hợp có thể là một thách thức. Tiếp theo, chúng ta sẽ khám phá vai trò, mục tiêu và các kết quả cụ thể đã đạt được của từng giao thức.

AI và DePIN giao điểm

Tổng quan về mạng DePIN AI

Mỗi dự án được đề cập ở đây đều có mục đích tương tự - mạng lưới tính toán GPU. Phần này nhằm nghiên cứu những điểm nổi bật, trọng tâm thị trường và thành tựu của từng dự án. Bằng cách hiểu cơ sở hạ tầng và sản phẩm chính của chúng, chúng ta có thể phân tích sâu hơn về những khác biệt giữa chúng.

Render là tiên phong trong mạng P2P cung cấp khả năng tính toán GPU, ban đầu tập trung vào việc tạo nội dung đồ họa, sau đó mở rộng phạm vi bao gồm các nhiệm vụ tính toán AI đa dạng từ trường phát xạ thần kinh (NeRF) đến AI tạo sinh.

Akash định vị mình là một nền tảng truyền thống hỗ trợ lưu trữ, tính toán GPU và CPU, là sự thay thế "siêu đám mây" cho AWS(. Với các công cụ thân thiện với nhà phát triển như nền tảng container Akash và các nút tính toán được quản lý bởi Kubernetes, nó có khả năng triển khai phần mềm một cách liền mạch qua các môi trường, từ đó có thể chạy bất kỳ ứng dụng gốc đám mây nào.

io.net cung cấp quyền truy cập vào các cụm GPU đám mây phân tán, những cụm này được thiết kế đặc biệt cho các trường hợp sử dụng AI và ML. Nó tổng hợp GPU từ các trung tâm dữ liệu, các thợ mỏ tiền điện tử và các mạng phi tập trung khác.

Gensyn cung cấp khả năng tính toán GPU tập trung vào học máy và học sâu. Nó tuyên bố đã đạt được cơ chế xác minh hiệu quả hơn bằng cách kết hợp các khái niệm như bằng chứng học để xác minh công việc, giao thức định vị chính xác dựa trên đồ họa để thực hiện lại công việc xác minh, và các trò chơi khuyến khích liên quan đến việc cung cấp tính toán thông qua việc đặt cọc và giảm.

Aethir chuyên cung cấp GPU doanh nghiệp, tập trung vào các lĩnh vực yêu cầu tính toán cao, chủ yếu là trí tuệ nhân tạo, học máy )ML(, trò chơi đám mây, v.v. Các container trong mạng của nó đóng vai trò là điểm cuối ảo cho các ứng dụng dựa trên đám mây, chuyển tải khối lượng công việc từ thiết bị địa phương sang container để đạt được trải nghiệm độ trễ thấp.

Phala Network đóng vai trò là lớp thực thi cho giải pháp Web3 AI. Blockchain của nó là một giải pháp điện toán đám mây không cần tin cậy, được thiết kế để giải quyết các vấn đề về quyền riêng tư bằng cách sử dụng môi trường thực thi đáng tin cậy )TEE(. Lớp thực thi của nó không được sử dụng như là lớp tính toán cho mô hình AI, mà là để cho phép các đại lý AI được điều khiển bởi các hợp đồng thông minh trên chuỗi.

![AI và giao điểm của DePIN])https://img-cdn.gateio.im/webp-social/moments-68a395d50be4ab07fbc575dd54441164.webp(

So sánh dự án

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Phần cứng | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Điểm nhấn kinh doanh | Kết xuất đồ họa và AI | Điện toán đám mây, kết xuất và AI | AI | AI | Trí tuệ nhân tạo, trò chơi đám mây và viễn thông | Thực thi AI trên chuỗi | | Loại nhiệm vụ AI | Suy diễn | Kết hợp | Kết hợp | Huấn luyện | Huấn luyện | Thực hiện | | Định giá công việc | Định giá dựa trên hiệu suất | Đấu giá ngược | Định giá thị trường | Định giá thị trường | Hệ thống đấu thầu | Tính toán quyền lợi | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Quyền riêng tư dữ liệu | Mã hóa&băm | Xác thực mTLS | Mã hóa dữ liệu | Bản đồ an toàn | Mã hóa | TEE | | Chi phí công việc | Mỗi công việc 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% phí dự trữ | Chi phí thấp | Mỗi phiên 20% | Tỷ lệ với số tiền đặt cọc | | An toàn | Chứng minh kết xuất | Chứng minh quyền lợi | Chứng minh tính toán | Chứng minh quyền lợi | Chứng minh khả năng kết xuất | Kế thừa từ chuỗi trung gian | | Chứng nhận hoàn thành | - | - | Chứng nhận khóa thời gian | Chứng nhận học tập | Chứng nhận công việc render | Chứng nhận TEE | | Đảm bảo chất lượng | Tranh chấp | - | - | Người xác minh và người báo cáo | Node kiểm tra | Chứng minh từ xa | | Cụm GPU | Không | Có | Có | Có | Có | Không |

) Tầm quan trọng

Khả năng sử dụng của cụm và tính toán song song

Khung tính toán phân tán đã triển khai cụm GPU, cung cấp đào tạo hiệu quả hơn mà không ảnh hưởng đến độ chính xác của mô hình, đồng thời tăng cường khả năng mở rộng. Việc đào tạo các mô hình AI phức tạp cần có khả năng tính toán mạnh mẽ, điều này thường phải dựa vào tính toán phân tán để đáp ứng nhu cầu của nó. Từ góc độ trực quan, mô hình GPT-4 của OpenAI có hơn 1.8 nghìn tỷ tham số, được đào tạo trong khoảng 3-4 tháng bằng cách sử dụng khoảng 25,000 GPU Nvidia A100 trong 128 cụm.

Trước đây, Render và Akash chỉ cung cấp GPU cho một mục đích duy nhất, điều này có thể hạn chế nhu cầu thị trường đối với GPU. Tuy nhiên, hầu hết các dự án trọng điểm hiện nay đã tích hợp cụm để thực hiện tính toán song song. io.net đã hợp tác với các dự án khác như Render, Filecoin và Aethir để đưa nhiều GPU hơn vào mạng của mình và đã thành công triển khai hơn 3.800 cụm trong quý 1 năm 24. Mặc dù Render không hỗ trợ cụm, nhưng cách thức hoạt động của nó tương tự như cụm, phân tách một khung đơn thành nhiều nút khác nhau để xử lý đồng thời các khung có phạm vi khác nhau. Phala hiện chỉ hỗ trợ CPU, nhưng cho phép cụm hóa các bộ xử lý CPU.

Việc đưa khung cụm vào mạng lưới quy trình làm việc AI là rất quan trọng, nhưng số lượng và loại GPU cụm cần thiết để đáp ứng nhu cầu của các nhà phát triển AI là một vấn đề riêng biệt.

Quyền riêng tư dữ liệu

Việc phát triển mô hình AI cần sử dụng một lượng lớn tập dữ liệu, các tập dữ liệu này có thể đến từ nhiều nguồn khác nhau và có hình thức khác nhau. Các tập dữ liệu nhạy cảm như hồ sơ y tế cá nhân, dữ liệu tài chính của người dùng có thể đối mặt với rủi ro bị lộ cho nhà cung cấp mô hình. Samsung đã cấm sử dụng ChatGPT trong nội bộ vì lo ngại việc tải lên mã nhạy cảm lên nền tảng có thể xâm phạm quyền riêng tư, sự cố rò rỉ 38TB dữ liệu riêng tư của Microsoft càng làm nổi bật tầm quan trọng của việc thực hiện các biện pháp an toàn đầy đủ khi sử dụng AI. Do đó, việc sở hữu nhiều phương pháp bảo mật dữ liệu là rất quan trọng để trao lại quyền kiểm soát dữ liệu cho nhà cung cấp dữ liệu.

Hầu hết các dự án được đề cập sử dụng một hình thức mã hóa dữ liệu nào đó để bảo vệ quyền riêng tư của dữ liệu. Mã hóa dữ liệu đảm bảo rằng việc truyền dữ liệu từ nhà cung cấp dữ liệu đến nhà cung cấp mô hình ### đến người nhận dữ liệu ( trong mạng được bảo vệ. Render sử dụng mã hóa và xử lý băm khi phát hành kết quả render trở lại mạng, trong khi io.net và Gensyn áp dụng một hình thức mã hóa dữ liệu nào đó. Akash sử dụng xác thực mTLS, chỉ cho phép các nhà cung cấp mà người thuê chọn nhận dữ liệu.

Tuy nhiên, io.net gần đây đã hợp tác với Mind Network để ra mắt mã hóa hoàn toàn đồng nhất )FHE(, cho phép xử lý dữ liệu được mã hóa mà không cần giải mã trước. Bằng cách cho phép dữ liệu được truyền một cách an toàn cho mục đích đào tạo mà không cần tiết lộ danh tính và nội dung dữ liệu, sáng kiến này có thể đảm bảo quyền riêng tư dữ liệu tốt hơn so với các công nghệ mã hóa hiện tại.

Mạng Phala đã giới thiệu TEE, tức là khu vực an toàn trong bộ xử lý chính của thiết bị kết nối. Thông qua cơ chế cách ly này, nó có thể ngăn chặn các quá trình bên ngoài truy cập hoặc sửa đổi dữ liệu, bất kể cấp độ quyền hạn của chúng, ngay cả khi là cá nhân có quyền truy cập vật lý vào máy. Ngoài TEE, nó cũng kết hợp việc sử dụng zk-proofs trong trình xác thực zkDCAP và giao diện dòng lệnh jtee, để tích hợp với các chương trình của RiscZero zkVM.

![AI và giao điểm DePIN])https://img-cdn.gateio.im/webp-social/moments-8f83f1affbdfd92f33bc47afe8928c5c.webp(

) Chứng nhận hoàn thành tính toán và kiểm tra chất lượng

Các GPU được cung cấp bởi những dự án này có thể cung cấp khả năng tính toán cho một loạt các dịch vụ. Do các dịch vụ này rất đa dạng, từ việc render đồ họa đến tính toán AI, vì vậy chất lượng cuối cùng của các tác vụ này có thể không luôn đáp ứng tiêu chuẩn của người dùng. Có thể sử dụng hình thức chứng nhận hoàn thành để chỉ ra rằng GPU cụ thể mà người dùng thuê thực sự được sử dụng để chạy các dịch vụ cần thiết, và việc kiểm tra chất lượng là có lợi cho những người dùng yêu cầu hoàn thành những công việc như vậy.

Sau khi tính toán hoàn tất, Gensyn và Aethir sẽ tạo ra chứng minh để xác nhận công việc đã hoàn thành, trong khi chứng minh của io.net cho thấy hiệu suất của GPU đã được thuê đã được tối ưu hóa mà không gặp vấn đề gì. Cả Gensyn và Aethir đều sẽ thực hiện kiểm tra chất lượng đối với các tính toán đã hoàn thành. Đối với Gensyn, nó sử dụng người xác thực để chạy lại một phần nội dung của chứng minh đã tạo ra để đối chiếu với chứng minh, trong khi người tố cáo đóng vai trò như một lớp kiểm tra bổ sung đối với người xác thực. Đồng thời, Aethir sử dụng các nút kiểm tra để xác định chất lượng dịch vụ, xử phạt các dịch vụ không đạt tiêu chuẩn. Render khuyến nghị sử dụng quy trình giải quyết tranh chấp, nếu hội đồng xem xét phát hiện nút có vấn đề, sẽ giảm bớt nút đó. Phala sau khi hoàn tất sẽ tạo ra chứng minh TEE, đảm bảo rằng đại lý AI thực hiện các thao tác cần thiết trên chuỗi.

![Điểm giao thoa giữa AI và DePIN]###https://img-cdn.gateio.im/webp-social/moments-df4f88879b53c4aa604b248fc9ff393a.webp(

Dữ liệu thống kê phần cứng

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Số lượng GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Số lượng CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Số lượng H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Chi phí H100/giờ | - | $1.46 | $1.19 | - | - | - | | Chi phí A100/giờ | - | $1.37 | $1.50 | $0.55 ) dự kiến ( | $0.33 ) dự kiến ( | - |

) yêu cầu về GPU hiệu suất cao

Do vì mô hình AI cần GPU hiệu suất tốt nhất để đào tạo, nên thường ưu tiên sử dụng các GPU như Nvidia A100 và H100, mặc dù H100 có giá cao trên thị trường, nhưng chúng cung cấp chất lượng tốt nhất. A100 không chỉ có khả năng đào tạo tất cả các khối công việc mà còn hoàn thành việc đào tạo với tốc độ nhanh hơn, điều này chỉ ra mức độ quan tâm của thị trường đối với phần cứng này. Do hiệu suất suy diễn của H100 nhanh gấp 4 lần A100, nên nó hiện đã trở thành GPU ưa chuộng, đặc biệt đối với những công ty lớn đang đào tạo LLM của riêng họ.

Đối với các nhà cung cấp thị trường GPU phi tập trung, để có thể cạnh tranh với các đồng nghiệp Web2, họ không chỉ cần cung cấp giá thấp hơn mà còn phải đáp ứng nhu cầu thực tế của thị trường. Năm 2023, Nvidia đã giao hơn 500.000 chiếc H100 cho các công ty công nghệ lớn tập trung, điều này khiến việc có được càng nhiều phần cứng tương đương để cạnh tranh với các nhà cung cấp đám mây lớn trở nên tốn kém và khó khăn. Do đó, việc xem xét số lượng phần cứng mà những dự án này có thể mang vào mạng lưới của họ với chi phí thấp là rất quan trọng để mở rộng các dịch vụ này đến một nhóm khách hàng lớn hơn.

Mặc dù mỗi dự án đều có hoạt động kinh doanh trong lĩnh vực AI và ML, nhưng chúng khác nhau về khả năng cung cấp tính toán. Akash chỉ có hơn 150 đơn vị H100 và A100, trong khi io.net và Aethir lần lượt có hơn 2000 đơn vị. Thông thường, việc tiền huấn luyện LLM hoặc mô hình sinh ra từ đầu yêu cầu ít nhất 248 đến hơn 2000 GPU trong cụm, vì vậy hai dự án sau phù hợp hơn cho tính toán mô hình lớn.

Theo kích thước cụm mà các nhà phát triển cần, hiện tại chi phí của các dịch vụ GPU phi tập trung này trên thị trường đã thấp hơn nhiều so với dịch vụ GPU tập trung. Gensyn và Aethir đều tuyên bố có thể cho thuê phần cứng tương đương A100 với giá dưới 1 đô la mỗi giờ, nhưng điều này vẫn cần được chứng minh theo thời gian.

Cụm GPU kết nối mạng có nhiều GPU, chi phí mỗi giờ thấp hơn, nhưng so với GPU kết nối NVLink,

Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 6
  • Chia sẻ
Bình luận
0/400
BearMarketMonkvip
· 10giờ trước
Một bong bóng định giá trong tưởng tượng nữa, hãy để các nhà đầu tư bán lẻ trở thành đồ ngốc một lần nữa~
Xem bản gốcTrả lời0
TokenGuruvip
· 16giờ trước
Khai thác chơi đùa với mọi người thôi, lần này chơi đùa với GPU.
Xem bản gốcTrả lời0
ChainSpyvip
· 16giờ trước
gpu thị trường tăng就要来了?
Xem bản gốcTrả lời0
RumbleValidatorvip
· 16giờ trước
Không phải ai cũng xứng đáng với Phi tập trung, Nút mới là chân lý.
Xem bản gốcTrả lời0
Ser_Liquidatedvip
· 16giờ trước
GPU đủ ăn đủ uống, bán lẻ còn dám bán?
Xem bản gốcTrả lời0
SolidityStrugglervip
· 17giờ trước
Đừng có thổi phồng, chỉ là thổi phồng khái niệm thôi.
Xem bản gốcTrả lời0
  • Ghim
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)