Tại sao việc tính toán phi tập trung là một yếu tố quan trọng trong phát triển AI?

Nâng cao1/7/2025, 7:31:27 AM
Bài viết hôm nay đề cập đến lĩnh vực tính toán phi tập trung đang nổi lên nhưng thường bị hiểu sai trong lĩnh vực tiền điện tử. Chúng tôi đào sâu vào cảnh quan cơ sở hạ tầng trí tuệ nhân tạo để hiểu được nơi mà các phương án phi tập trung có thể cạnh tranh một cách thực tế.

Chuyển tiếp Tiêu đề gốc: Tính toán phi tập trung

Bài viết hôm nay sẽ đề cập đến lĩnh vực tính toán phân tán trong lĩnh vực tiền điện tử, một lĩnh vực mới mẻ nhưng thường bị hiểu lầm. Chúng tôi sẽ đào sâu vào cảnh quan cơ sở hạ tầng trí tuệ nhân tạo để hiểu rõ nơi mà các phương án phân tán có thể cạnh tranh một cách có thực.

Chúng tôi khám phá những câu hỏi như: liệu có thể đào tạo ASI trên các mạng phân tán? Các mạng crypto cung cấp những lợi ích độc đáo nào? Và tại sao hạ tầng tính toán không cần phép có thể trở thành không thể thiếu cho trí tuệ nhân tạo như Bitcoin đối với tài chính.

Một mô hình phổ biến bạn sẽ nhận thấy trong bài viết là sự tăng trưởng hàm mũ của tất cả mọi thứ về trí tuệ nhân tạo - đầu tư, tính toán và khả năng. Điều này trùng hợp với sự phục hồi của thị trường tiền điện tử và sự chú ý. Chúng tôi rất hào hứng với sự giao thoa của hai làn sóng công nghệ chính này.

Xin chào!

Trong một ngày nắng ở Memphis, Tennessee, một máy bay do thám chuyên dụng với cánh quạt đã lặp đi lặp lại vòng tròn trên một tòa nhà công nghiệp, hành khách trên máy bay chụp ảnh các cơ sở bên dưới một cách cuồng nhiệt. Đây không phải là cảnh gián điệp Chiến tranh Lạnh mà là từ năm 2024. Mục tiêu không phải là một cơ sở quân sự hay một trang trại làm giàu uranium mà là một nhà máy thiết bị gia dụng cũ, hiện đang chứa đựng một trong những siêu máy tính mạnh nhất thế giới. Các hành khách không phải là đặc vụ nước ngoài mà là nhân viên của một công ty trung tâm dữ liệu đối thủ.

Mỗi vài thập kỷ, một công nghệ đột phá xuất hiện với tiềm năng thay đổi đáng kể quỹ đạo của nền văn minh. Những gì xảy ra sau đó là một cuộc đua giữa những thực thể mạnh nhất thế giới để hiện thực hóa công nghệ này trước. Phần thưởng rất lớn, và hậu quả của thất bại quá khủng khiếp, đến mức các thực thể này nhanh chóng huy động toàn bộ trang bị tài nguyên của mình - tài năng con người và vốn - để thống trị công nghệ.

Trong thế kỷ 20, hai công nghệ nổi bật phù hợp với định nghĩa này - vũ khí hạt nhân và khám phá không gian. Cuộc đua để khai thác những công nghệ này liên quan đến những quốc gia mạnh nhất. Chiến thắng của Hoa Kỳ ở cả hai lĩnh vực đã củng cố tình trạng siêu cường của thế giới, mở đầu cho một kỷ nguyên bền vững. Đối với kẻ thất bại - Đức Quốc Xã và Liên Xô - hậu quả là tàn khốc, thậm chí là chết người.

Nhà máy K-25 rộng 44 mẫu Anh tại Oak Ridge, Tennessee, Hoa Kỳ, nơi sản xuất uranium cho vũ khí nguyên tử đầu tiên đã được sản xuất (nguồn)

Chiến thắng của Mỹ đã đi kèm với một mức giá lớn. Dự án Manhattan đã tốn gần 2 tỷ đô la (tương đương khoảng 30 tỷ đô la sau khi điều chỉnh cho lạm phát) và đã thuê được hơn 120.000 người - một trong mỗi nghìn người Mỹ. Cuộc đua vũ trụ đòi hỏi nguồn lực lớn hơn nhiều. Chương trình Apollo tốn 28 tỷ đô la vào những năm 1960 (tương đương khoảng 300 tỷ đô la trong tiền hiện nay) và liên quan đến hơn 400.000 người - một trong 490 người Mỹ. Vào đỉnh điểm vào năm 1966, NASA chiếm 4,4% của ngân sách liên bang Mỹ toàn bộ.

Apollo 11, ngay trước khi cất cánh trong sứ mệnh lên mặt trăng (nguồn)

Sự ra mắt của ChatGPT vào năm 2022 đánh dấu sự bình minh của một cuộc đua mới với quy mô thay đổi nền văn minh - sự theo đuổi của trí tuệ siêu nhân tạo (ASI). Trong khi trí tuệ nhân tạo (AI) đã được kết hợp vào cuộc sống hàng ngày - quản lý cung cấp truyền thông xã hội, gợi ý Netflix và bộ lọc thư rác email - sự xuất hiện của các mô hình ngôn ngữ lớn (LLMs) hứa hẹn biến đổi mọi thứ: năng suất của con người, sáng tạo truyền thông, nghiên cứu khoa học và sự đổi mới chính nó.

Lần này, những người tham gia không phải là các quốc gia (ít nhất, chưa phải), mà là các công ty lớn nhất thế giới (Microsoft, Google, Meta, Amazon), các startup nổi nhất (OpenAI, Anthropic) và người giàu nhất (Elon Musk). Trong khi Big Tech đổ vốn chưa từng có để xây dựng cơ sở hạ tầng để huấn luyện các mô hình mạnh mẽ hơn, các startup đang đảm bảokỷ lục phá vỡtiền vốn rủi ro. Elon, tốt, làm những điều Elon (trung tâm dữ liệu dưới sự giám sát thuộc sở hữu của công ty của anh ấy, xAI).

Và sau đó là tất cả mọi người khác - doanh nghiệp, các công ty nhỏ hơn và các công ty khởi nghiệp - những người có thể không tham vọng xây dựng ASI nhưng rất háo hức để tận dụng các khả năng cắt cạnh mở ra bởi trí tuệ nhân tạo để tối ưu hóa kinh doanh của họ, phá vỡ một ngành công nghiệp hoặc tạo ra hoàn toàn mới. Những phần thưởng tiềm năng quá lớn đến nỗi mọi người đang tranh chấp để giành phần của họ trong nền kinh tế mới được thúc đẩy bởi trí tuệ nhân tạo máy móc này.

Ở trung tâm của cuộc cách mạng AI nằm bộ phận quan trọng nhất của nó: đơn vị xử lý đồ họa (GPU). Ban đầu được thiết kế để cung cấp sức mạnh cho các trò chơi video, chip máy tính chuyên dụng này đã trở thành mặt hàng nóng nhất trên thế giới. Nhu cầu về GPU quá lớn đến nỗi các công ty thường phải chịu đựng danh sách chờ kéo dài hàng thángchỉ để sở hữu một vài chiếc. Nhu cầu này đã đẩy NVIDIA, nhà sản xuất chính của họ, trở thành công ty có giá trị nhất thế giới.

Đối với các doanh nghiệp không thể hoặc không muốn mua trực tiếp GPU, thuê sức mạnh tính toán đã trở thành lựa chọn tốt nhất tiếp theo. Điều này đã thúc đẩy sự phát triển của các nhà cung cấp đám mây trí tuệ nhân tạo - các công ty vận hành trung tâm dữ liệu tinh vi được thiết kế để đáp ứng nhu cầu tính toán của cuộc bùng nổ trí tuệ nhân tạo. Tuy nhiên, sự tăng trưởng đáng kể về nhu cầu cùng tính bất thường của nó có nghĩa là giá cả cũng như tính sẵn có không đảm bảo.

Tôi tranh luận tiền điện tử đó hoạt động như một công nghệ "Coasian", được thiết kế để "bôi trơn bánh xe, mở đường và củng cố cầu" cho những đổi mới đột phá khác phát triển. Khi AI nổi lên như một lực lượng biến đổi trong thời đại của chúng ta, sự khan hiếm và chi phí cắt cổ của việc truy cập GPU là rào cản đối với sự đổi mới. Một số công ty tiền điện tử đang bước vào, nhằm phá vỡ những rào cản này bằng các ưu đãi dựa trên blockchain.

Trong bài viết hôm nay, chúng tôi trước tiên rút lại khỏi tiền điện tử để xem xét những nguyên tắc cơ bản của cơ sở hạ tầng trí tuệ nhân tạo hiện đại - cách mạng lưới thần kinh học, tại sao GPU đã trở thành thiết yếu và cách các trung tâm dữ liệu hiện nay đang tiến triển để đáp ứng nhu cầu tính toán chưa từng có. Sau đó, chúng tôi đi sâu vào các giải pháp tính toán phi tập trung, khám phá nơi mà chúng có thể cạnh tranh một cách thực tế với các nhà cung cấp truyền thống, những lợi thế độc đáo mà mạng lưới tiền điện tử mang lại và lý do tại sao - mặc dù chúng không cung cấp cho chúng ta AGI - chúng vẫn là thiết yếu để đảm bảo lợi ích của trí tuệ nhân tạo vẫn đáp ứng được cho tất cả mọi người.

Hãy bắt đầu bằng lý do tại sao GPU lại quan trọng đến vậy.

GPUs

Đây là David, một tác phẩm điêu khắc đá cẩm thạch cao 17 feet, nặng 6 tấn, được tạo ra bởi thiên tài của nghệ thuật Phục Hưng Ý Michelangelo. Nó miêu tả vị anh hùng trong Kinh Thánh từ câu chuyện về David và Goliath và được coi là một kiệt tác với sự hiển thị hoàn hảo về cấu trúc hình thể con người và sự chú ý tài tình đến phối cảnh và chi tiết.

Giống như tất cả các tác phẩm điêu khắc từ đá cẩm thạch, David bắt đầu như một tấm đá cẩm thạch tuyệt vời và thô sơ. Để có được hình dạng vĩ đại cuối cùng, Michelangelo đã phải cắt bớt từ từ theo phương pháp. Bắt đầu bằng những nét chải rộng để thiết lập hình dạng cơ bản của con người, ông tiến đến những chi tiết ngày càng tinh tế hơn - đường cong của cơ bắp, sự căng thẳng trong dây tĩnh mạch, sự quyết tâm tinh tế trong đôi mắt. Michelangelo mất ba năm để giải phóng David từ khối đá.

Nhưng tại sao lại thảo luận về một tượng đá 500 năm tuổi trong một bài viết về trí tuệ nhân tạo?

Giống như David, mỗi mạng neural bắt đầu với tiềm năng tinh khiết - một tập hợp các nút được khởi tạo bằng các số ngẫu nhiên (trọng số), không có hình dạng như khối đá Carrara khổng lồ đó.

Mô hình thô này liên tục được cung cấp dữ liệu đào tạo — vô số trường hợp đầu vào được ghép nối với đầu ra chính xác của chúng. Mỗi điểm dữ liệu đi qua mạng kích hoạt hàng ngàn phép tính. Tại mỗi nút (tế bào thần kinh), các kết nối đến nhân giá trị đầu vào với trọng lượng của kết nối, tính tổng các sản phẩm này và biến đổi kết quả thông qua "chức năng kích hoạt" xác định cường độ bắn của tế bào thần kinh.

Chính như Michelangelo sẽ bước lùi, đánh giá công việc của mình, và điều chỉnh hướng đi, các mạng thần kinh trải qua quá trình tinh chỉnh. Sau mỗi lần truyền thẳng, mạng so sánh đầu ra của nó với câu trả lời đúng và tính toán lỗi lệch của nó. Qua quá trình gọi là lan truyền ngược, nó đo lường xem mỗi kết nối đã đóng góp bao nhiêu cho lỗi lệch và, giống như những cú đánh búa của Michelangelo, điều chỉnh giá trị của nó. Nếu một kết nối dẫn đến dự đoán sai, ảnh hưởng của nó giảm đi. Nếu nó giúp đạt được câu trả lời đúng, ảnh hưởng của nó tăng lên.

Khi tất cả dữ liệu đi qua mạng (hoàn tất một bước lan truyền và lan truyền ngược cho mỗi điểm dữ liệu), nó đánh dấu sự kết thúc của một “thời kỳ.” Quá trình này lặp lại nhiều lần, mỗi lần điều chỉnh hiểu biết của mạng. Trong những thời kỳ đầu, sự thay đổi trọng lượng là kịch tính khi mạng thực hiện điều chỉnh rộng lớn—giống như những cú đánh đầu tiên mạnh mẽ đó. Trong những thời kỳ sau, những thay đổi trở nên tinh tế hơn, điều chỉnh kết nối cho hiệu suất tối ưu—giống như những phần chạm sửa tinh tế cuối cùng đã làm nổi bật thông tin của David.

Cuối cùng, sau hàng ngàn hoặc hàng triệu lần lặp, mô hình được đào tạo nảy lên. Giống như David đang tự hào đứng trong hình dáng hoàn thiện của nó, mạng thần kinh biến từ tiếng ồn ngẫu nhiên thành một hệ thống có khả năng nhận biết mẫu, đưa ra dự đoán, tạo ra hình ảnh của mèo đi xe tay ga, hoặc cho phép máy tính hiểu và phản ứng bằng ngôn ngữ của con người.

Tại sao lại sử dụng GPU?

Michelangelo, làm việc một mình trên David, chỉ có thể thực hiện một cú đục tại một thời điểm, mỗi lần đòi hỏi phải tính toán chính xác về góc, lực và vị trí. Độ chính xác tỉ mỉ này là lý do tại sao ông phải mất ba năm không mệt mỏi để hoàn thành kiệt tác của mình. Nhưng hãy tưởng tượng hàng ngàn nhà điêu khắc có tay nghề tương đương làm việc với David trong sự phối hợp hoàn hảo - một nhóm trên những lọn tóc, một nhóm khác trên cơ bắp của thân mình, và hàng trăm người khác trên các chi tiết phức tạp của khuôn mặt, bàn tay và bàn chân. Nỗ lực song song như vậy sẽ nén ba năm đó thành những ngày đơn thuần.

Tương tự, trong khi CPU mạnh mẽ và chính xác, nhưng chúng chỉ có thể thực hiện một phép tính tại một thời điểm. Việc huấn luyện mạng thần kinh không yêu cầu một phép tính phức tạp mà hàng trăm triệu phép tính đơn giản - chủ yếu là nhân và cộng tại mỗi nút. Ví dụ, mạng thần kinh mẫu đã đề cập trước đó, chỉ với 18 nút và khoảng 100 kết nối (tham số), có thể được đào tạo trên CPU trong khoảng thời gian hợp lý.

Tuy nhiên, các mô hình mạnh mẽ nhất hiện nay như GPT-4 của OpenAI có 1,8 nghìn tỷ tham số! Ngay cả các mô hình hiện đại nhỏ hơn cũng chứa ít nhất một tỷ tham số. Đào tạo những mô hình này một phép tính mỗi lần sẽ mất hàng thế kỷ. Đây là nơi mà GPU vượt trội: chúng có thể thực hiện một lượng lớn các phép tính toán đơn giản cùng một lúc, làm cho chúng lý tưởng cho việc xử lý nhiều nút mạng thần kinh song song.

Các GPU hiện đại có sức mạnh đáng kinh ngạc. Ví dụ, GPU B200 mới nhất của NVIDIA bao gồm hơn 200 tỷ bóng bán dẫn và hỗ trợ 2.250 nghìn tỷ tính toán song song mỗi giây (2.250 TFLOPS). Một GPU B200 duy nhất có thể xử lý các mô hình có đến 740 tỷ tham số. Những máy này đại diện cho những thành tựu của kỹ thuật hiện đại, điều này giải thích tại sao NVIDIA, bán mỗi đơn vị với giá 40.000 đô la, đã thấy giá cổ phiếu tăng hơn 2.500% trong năm năm.

Jensen Huang trình bày NVIDIA B200

Tuy nhiên, ngay cả những máy móc mạnh mẽ này cũng không thể huấn luyện mô hình AI một mình. Hãy nhớ rằng trong quá trình huấn luyện, mỗi trường hợp dữ liệu phải được chuyển qua mô hình theo chu trình tiến và lùi một cách riêng lẻ. Các mô hình ngôn ngữ lớn hiện đại (LLMs) được huấn luyện trên các tập dữ liệu bao gồm toàn bộ internet. Ví dụ, GPT-4 đã xử lý khoảng 12 nghìn tỷ mã thông báo (khoảng 9 nghìn tỷ từ), và thế hệ tiếp theo của các mô hình được dự kiến sẽ xử lý lên đến 100 nghìn tỷ mã thông báo. Sử dụng một GPU đơn lẻ cho một lượng dữ liệu khổng lồ như vậy vẫn mất hàng thế kỷ.

Giải pháp nằm ở việc thêm một lớp song song khác - tạo cụm GPU nơi các nhiệm vụ huấn luyện được phân phối giữa nhiều GPU hoạt động như một hệ thống thống nhất. Tải công việc huấn luyện mô hình có thể được song song hóa theo ba cách:

Paralel dữ liệu: Nhiều GPU mỗi cái duy trì một bản sao hoàn chỉnh của mô hình mạng thần kinh trong khi xử lý các phần khác nhau của dữ liệu huấn luyện. Mỗi GPU xử lý lô dữ liệu được giao độc lập trước khi đồng bộ định kỳ với tất cả các GPU khác. Trong giai đoạn đồng bộ này, các GPU liên lạc với nhau để tìm một giá trị trung bình chung của trọng số và sau đó cập nhật trọng số cá nhân của họ sao cho chúng tất cả giống nhau. Do đó, họ tiếp tục huấn luyện trên lô dữ liệu của họ một cách độc lập trước khi đến lúc đồng bộ lại.

Khi các mô hình trở nên lớn hơn, một bản sao đơn có thể trở nên quá lớn để vừa với một GPU. Ví dụ, GPU B200 mới nhất chỉ có thể chứa 740 tỷ tham số trong khi GPT-4 là một mô hình có 1,8 nghìn tỷ tham số. Chia sẻ dữ liệu qua các GPU riêng lẻ không hoạt động trong trường hợp này.

Đồng quyền Tensor: Phương pháp này giải quyết ràng buộc bộ nhớ bằng cách phân phối công việc và trọng số của mỗi lớp mô hình trên nhiều GPU. GPU trao đổi tính toán trung gian với cụm máy chủ toàn bộ trong mỗi bước truyền và truyền ngược. Những GPU này thường được nhóm lại thành tám đơn vị, kết nối thông qua NVLink - kết nối trực tiếp GPU-to-GPU tốc độ cao của NVIDIA. Thiết lập này yêu cầu kết nối băng thông cao (lên đến 400 Gb/s) và độ trễ thấp giữa các GPU. Một cụm tensor hoạt động hiệu quả như một GPU khổng lồ duy nhất.

Song song đường ống: Phương pháp này chia mô hình thành nhiều GPU, mỗi GPU xử lý các lớp cụ thể. Dữ liệu chảy qua các GPU theo thứ tự, giống như một cuộc đua chạy tiếp sức, trong đó mỗi vận động viên (GPU) quản lý phần của họ trước khi chuyển giao. Song song đường ống đặc biệt hiệu quả cho việc kết nối các máy chủ 8-GPU khác nhau trong trung tâm dữ liệu, sử dụng các mạng InfiniBand tốc độ cao để giao tiếp giữa các máy chủ. Mặc dù yêu cầu giao tiếp của nó vượt qua song song dữ liệu, nhưng vẫn thấp hơn sự trao đổi GPU-to-GPU tập trung của song song tensor.

Quy mô của các cụm hiện đại là đáng kinh ngạc. GPT-4, với 1,8 nghìn tỷ tham số và 120 lớp, yêu cầu 25.000 GPU A100 để huấn luyện. Quá trình này mất ba tháng và chi phí hơn 60 triệu đô la. A100 đã cũ hai thế hệ; sử dụng các GPU B200 hiện nay chỉ yêu cầu khoảng 8.000 đơn vị và 20 ngày huấn luyện. Chỉ là một minh chứng khác cho tốc độ phát triển nhanh chóng của trí tuệ nhân tạo.

Nhưng lớp mô hình GPT-4 hiện tại đã cũ kỹ rồi. Việc huấn luyện cho thế hệ tiếp theo của các mô hình tiên tiến đang diễn ra tại các trung tâm dữ liệu chứa các cụm 100.000 B100 hoặc H100 GPU (loại sau cũ hơn một thế hệ). Những cụm này, đại diện cho hơn 4 tỷ USD chi phí vốn GPU một mình, là siêu máy tính mạnh nhất của loài người, cung cấp ít nhất là bốn lần sức mạnh tính toán nguyên thô so với các máy tính siêu vi của chính phủ.

Ngoài việc bảo vệ tính toán thô, ứng viên ASI gặp phải một vấn đề khác khi cố gắng thiết lập các cụm này: điện. Mỗi GPU này tiêu thụ 700W công suất. Khi kết hợp 100.000 GPU này, toàn bộ cụm (bao gồm phần cứng hỗ trợ) tiêu thụ hơn 150MW công suất. Để đặt điều này vào khía cạnh, sự tiêu thụ này tương đương với một thành phố có 300.000 người - tương đương với New Orleans hoặc Zurich.

Sự điên cuồng không ngừng ở đây. Hầu hết những người mơ ước trở thành ASI tin rằng LLM điều chỉnh pháp luật—điều này cho thấy hiệu suất mô hình cải thiện có thể dự đoán được với sự gia tăng kích thước mô hình, kích thước tập dữ liệu và điện toán đào tạo—sẽ tiếp tục đúng. Các kế hoạch đã được thực hiện để đào tạo các mô hình thậm chí còn mạnh mẽ hơn. Đến năm 2025, chi phí của mỗi cụm đào tạo dự kiến sẽ vượt quá 10 tỷ USD. Đến năm 2027, trên 100 tỷ USD. Khi những con số này tiếp cận đầu tư của chính phủ Hoa Kỳ vào các chương trình Apollo, nó trở nên rõ ràng tại sao đạt được ASI đã nổi lên như là cuộc đua xác định của thời đại chúng ta.

Các chỉ số cho các mô hình bắt đầu từ GPT-5 là ước tính

Khi tiêu thụ điện tăng tỷ lệ với kích thước cụm, các chạy huấn luyện năm sau sẽ đòi hỏi hơn 1GW công suất. Năm sau đó, 10GW hoặc hơn. Với không có dấu hiệu của sự mở rộng này chậm lại, các trung tâm dữ liệu dự kiến sẽ tiêu thụ khoảng 4.5% của tổng sản lượng toàn cầu vào năm 2030. Lưới điện hiện có, đã đang gặp khó khăn với yêu cầu của mô hình hiện tại, không thể tạo đủ năng lượng cho các cụm tương lai. Điều này đặt ra một câu hỏi quan trọng: nguồn năng lượng này sẽ đến từ đâu? Công nghệ lớn đang tiếp cận theo hướng hai đầu.

Về lâu dài, giải pháp khả thi duy nhất là cho những người khao khát ASI tự tạo ra điện của họ. Với các cam kết về khí hậu của họ, năng lượng này phải đến từ các nguồn tái tạo. Năng lượng hạt nhân nổi bật là giải pháp chính. Amazon gần đây đã muamột trung tâm dữ liệu được cung cấp bởi một nhà máy điện hạt nhân với giá 650 triệu đô la. Microsoftđã thuêmột chuyên gia về Công nghệ hạt nhân và là đưa nhà máy Three Mile Island lịch sử trở lại hoạt động. Google có mua lại nhiều nhà máy điện hạt nhân nhỏtừ Kairos Power, California. Sam Altman của OpenAI đã hỗ trợ các startup năng lượng như Helion, Exowatt, vàOklo.

Microsoft đang mở lại Nhà máy hạt nhân Three Mile Island (nguồn hình ảnh)

Trong khi hạt giống năng lượng hạt nhân được gieo bây giờ, quả (hoặc sức mạnh) sẽ mất vài năm để đạt được. Còn nhu cầu năng lượng cho việc tạo ra các mô hình ngay lập tức thế nào? Giải pháp tạm thời liên quan đến việc đào tạo phân tán trên nhiều trung tâm dữ liệu. Thay vì tập trung nhu cầu năng lượng khổng lồ tại một địa điểm, các công ty như Microsoft và Google đang phân phối các cụm đào tạo của họ trên nhiều địa điểm.

Thử thách, tất nhiên, là đưa những hệ thống phân phối này làm việc với nhau một cách hiệu quả. Ngay cả ở tốc độ ánh sáng, dữ liệu cũng mất khoảng 43ms để đi lại từ đông sang tây của Hoa Kỳ - một sự vĩnh cửu trong các thuật ngữ máy tính. Ngoài ra, nếu chỉ một con chip lạc hậu đi sau khoảng 10%, nó sẽ làm chậm toàn bộ quá trình đào tạo với cùng một tỷ lệ.

Giải pháp nằm ở việc kết nối trung tâm dữ liệu trên nhiều địa điểm với mạng quang tốc độ cao và áp dụng một kết hợp các kỹ thuật song song đã thảo luận trước đó để đồng bộ hoá các hoạt động của họ. Song song với tensor được áp dụng cho GPU trong mỗi máy chủ, cho phép chúng hoạt động như một đơn vị duy nhất. Song song theo đường ống, với yêu cầu mạng thấp hơn, được sử dụng để kết nối các máy chủ trong cùng một trung tâm dữ liệu. Cuối cùng, các trung tâm dữ liệu ở các vị trí khác nhau (được gọi là “đảo”) đồng bộ thông tin của họ định kỳ bằng song song dữ liệu.

Trước đó, chúng tôi đã nhận thấy rằng đồng thời hóa dữ liệu không hiệu quả đối với các GPU cá nhân vì chúng không thể đáp ứng mô hình lớn độc lập. Tuy nhiên, động thái này thay đổi khi chúng ta đồng thời hóa các đảo - mỗi đảo chứa hàng nghìn GPU - thay vì các đơn vị cá nhân. Dữ liệu huấn luyện được phân phối trên mỗi đảo và các đảo này đồng bộ hóa định kỳ qua kết nối quang sợi tương đối chậm hơn (so với NVLink và Infiniband).

Trung tâm dữ liệu

Hãy chuyển sự tập trung của chúng ta từ việc đào tạo và GPU sang chính các trung tâm dữ liệu.

Hai mươi năm trước, Amazon ra mắt Amazon Web Services (AWS) - một trong những doanh nghiệp có tác động lớn nhất trong lịch sử - và tạo ra một ngành công nghiệp hoàn toàn mới được biết đến là đám mây tính. Ngày nay, các nhà lãnh đạo đám mây (Amazon, Microsoft, Google và Oracle) đang thống trị thoải mái, tạo ra tổng doanh thu hằng năm gần 300 tỷ đô la với lợi nhuận từ 30-40%. Bây giờ, sự xuất hiện của trí tuệ nhân tạo đã tạo ra cơ hội mới trong một thị trường đã lâu nhưng vẫn giữ tính độc quyền.

Yêu cầu vật lý, sự phức tạp kỹ thuật và kinh tế của các trung tâm dữ liệu AI chuyên sử dụng GPU khác biệt rõ ràng so với các trung tâm tương đương truyền thống.

Chúng tôi đã thảo luận trước đó về cách mà các GPU tiêu tốn năng lượng. Điều này dẫn đến việc trung tâm dữ liệu AI có mật độ năng lượng cao hơn và do đó tạo ra nhiều hơn nhiệt. Trong khi các trung tâm dữ liệu truyền thống sử dụng quạt khổng lồ (làm mát bằng không khí) để tiêu hao nhiệt, cách tiếp cận này không đủ và cũng không có tính khả thi tài chính cho các cơ sở vật chất AI. Thay vào đó, các trung tâm dữ liệu AI đang áp dụng các hệ thống làm mát bằng chất lỏng, nơi mà các khối nước gắn trực tiếp vào các GPU và các thành phần nóng khác để tiêu hao nhiệt một cách hiệu quả và yên tĩnh hơn. (Các GPU B200 đi kèm với kiến trúc này tích hợp sẵn). Việc hỗ trợ các hệ thống làm mát bằng chất lỏng đòi hỏi phải thêm các tháp làm mát lớn, một cơ sở hạ tầng hệ thống nước tập trung và ống dẫn để vận chuyển nước tới và từ tất cả các GPU - một sự sửa đổi cơ bản cho cơ sở hạ tầng trung tâm dữ liệu.

Ngoài năng lượng tiêu thụ tuyệt đối cao hơn, các trung tâm dữ liệu AI có yêu cầu tải đặc biệt. Trong khi các trung tâm dữ liệu truyền thống duy trì việc tiêu thụ năng lượng ổn định, mẫu tiêu thụ năng lượng của công việc AI biến đổi nhiều hơn. Sự biến động này xảy ra vì GPU định kỳ chuyển đổi giữa việc hoạt động với công suất 100% và chậm lại gần dừng hoạt động khi quá trình đào tạo đạt đến các điểm kiểm tra, nơi trọng lượng được lưu trữ vào bộ nhớ hoặc, như chúng ta đã thấy trước đó, được đồng bộ hóa với các đảo khác. Các trung tâm dữ liệu AI yêu cầu cơ sở hạ tầng điện năng đặc biệt để quản lý các biến động tải này.

Xây dựng các cụm GPU khó hơn rất nhiều so với việc xây dựng đám mây máy tính thông thường. GPU cần phải nói chuyện với nhau rất nhanh. Để làm điều này xảy ra, chúng phải được đóng gói rất gần nhau. Một cơ sở AI điển hình cần hơn 200.000 cáp đặc biệt gọi là kết nối InfiniBand. Những cáp này cho phép GPU truyền thông. Nếu chỉ một cáp dừng hoạt động, toàn bộ hệ thống sẽ tạm ngừng hoạt động. Quá trình đào tạo không thể tiếp tục cho đến khi cáp đó được sửa chữa.

Yêu cầu cơ sở hạ tầng này làm cho việc nâng cấp các trung tâm dữ liệu truyền thống bằng GPU hiệu năng cao để chuẩn bị cho trí tuệ nhân tạo trở nên gần như không thể thực hiện được. Một cuộc nâng cấp như vậy sẽ đòi hỏi một cuộc cải tổ cấu trúc gần như hoàn toàn. Thay vào đó, các công ty đang xây dựng các trung tâm dữ liệu mới được thiết kế đặc biệt cho trí tuệ nhân tạo từ đầu, với các tổ chức khác nhau thực hiện điều này ở quy mô khác nhau.

Ở hàng đầu, các công ty công nghệ hàng đầu đang tranh nhau xây dựng trung tâm dữ liệu AI riêng của mình. Meta đang đầu tư mạnh vào các cơ sở chỉ dành cho việc phát triển AI riêng của mình, coi đó là một khoản đầu tư vốn trực tiếp vì nó không cung cấp dịch vụ đám mây. Microsoft đang xây dựng các trung tâm khổng lồ tương tự để cung cấp năng lượng cho cả các dự án AI riêng của mình và phục vụ khách hàng quan trọng như OpenAI. Oracle cũng đã mạnh mẽ tham gia vào không gian này, đảm bảo OpenAI là một khách hàng đáng chú ý. Amazon tiếp tục mở rộng cơ sở hạ tầng của mình, đặc biệt là để hỗ trợ các công ty AI mới nổi như Anthropic. xAI của Elon Musk, không muốn phụ thuộc vào một công ty khác, đã chọn xây dựng một cụm GPU 100.000 riêng của mình.

Bên trong trung tâm dữ liệu GPU H100 100.000 của xAI (nguồn)

Bên cạnh các đối thủ cũ, đã xuất hiện các “đám mây mới” - các nhà cung cấp đám mây chuyên nghiệp tập trung hoàn toàn vào tính toán GPU cho các khối công việc AI. Các đám mây mới này được chia thành hai loại khác nhau dựa trên quy mô.

Các nhà cung cấp neocloud lớn, bao gồm gate,CoreWeave, Crusoe, và LLama Labs, vận hành các nhóm máy tính có hơn 2.000 GPU. Họ khác biệt với các dịch vụ đám mây truyền thống ở hai cách: cung cấp giải pháp cơ sở hạ tầng tùy chỉnh thay vì gói tiêu chuẩn, và yêu cầu cam kết dài hạn từ khách hàng thay vì sắp xếp theo hình thức trả tiền theo sử dụng.

Mô hình kinh doanh của họ tận dụng các thỏa thuận dài hạn này và khả năng thanh toán của khách hàng để đảm bảo tài chính cơ sở hạ tầng. Doanh thu đến từ mức phí cao được tính cho các dịch vụ chuyên biệt và lợi nhuận từ sự chênh lệch giữa chi phí tài chính thấp và thanh toán của khách hàng.

Đây là cách mà một nhà cung cấp neocloud thông thường hoạt động: một nhà cung cấp neocloud đảm bảo một hợp đồng ba năm với một AI startup được tài trợ tốt cho 10.000 GPU H100 với giá 40 triệu đô la mỗi tháng. Sử dụng luồng doanh thu đảm bảo này là 1,44 tỷ đô la, nhà cung cấp đảm bảo việc tài trợ ngân hàng ưu đãi (với lãi suất 6%) để mua và lắp đặt cơ sở hạ tầng trị giá 700 triệu đô la. Doanh thu hàng tháng 40 triệu đô la bao gồm 10 triệu đô la chi phí vận hành và 20 triệu đô la thanh toán khoản vay, tạo ra 10 triệu đô la lợi nhuận hàng tháng trong khi startup nhận được sức mạnh tính toán tùy chỉnh, chuyên biệt.

Mô hình này yêu cầu lựa chọn khách hàng cẩn thận đặc biệt. Các nhà cung cấp thông thường tìm kiếm các công ty có dự trữ tiền mặt lớn hoặc có sự hỗ trợ mạnh mẽ từ các nhà đầu tư - thường là định giá từ 500 triệu đô la trở lên.

Small neoclouds cung cấp cụm GPU từ 2.000 hoặc ít hơn và phục vụ cho một đối tượng khách hàng khác của thị trường trí tuệ nhân tạo - các start-up nhỏ và vừa. Các công ty này hoặc đào tạo mô hình nhỏ hơn (tối đa 70 tỷ tham số) hoặc điều chỉnh các mô hình nguồn mở. (Điều chỉnh tinh chỉnh là quá trình điều chỉnh mô hình cơ sở cho các trường hợp sử dụng cụ thể.) Cả hai công việc này đều yêu cầu tính toán vừa phải nhưng được dành riêng trong thời gian ngắn.

Những nhà cung cấp này cung cấp tính toán theo yêu cầu với giá theo giờ cho việc truy cập cụm không ngừng, có thời hạn cố định. Mặc dù điều này tốn kém hơn so với hợp đồng dài hạn, nhưng nó mang lại sự linh hoạt cho các doanh nghiệp khởi nghiệp để thử nghiệm mà không cần phải cam kết với các thỏa thuận triệu đô.

Cuối cùng, ngoài các công ty lớn về đám mây và các nhà cung cấp dịch vụ đám mây mới, chúng ta còn có các trung gian trong không gian cơ sở hạ tầng trí tuệ nhân tạo: các nền tảng và người tổng hợp. Những trung gian này không sở hữu cơ sở hạ tầng GPU mà thay vào đó kết nối chủ sở hữu tài nguyên tính toán với những người cần chúng.

Các nhà cung cấp nền tảng như gate HydraHostFluidstackphục vụ như Shopify của tính toán GPU. Tương tự như Shopify cho phép các nhà bán hàng mở cửa hàng trực tuyến mà không cần xây dựng cơ sở hạ tầng thương mại điện tử, những nền tảng này cho phép các nhà điều hành trung tâm dữ liệu và chủ sở hữu GPU cung cấp dịch vụ tính toán mà không cần phát triển giao diện khách hàng của riêng họ. Chúng cung cấp một gói kỹ thuật hoàn chỉnh cho việc vận hành một doanh nghiệp tính toán GPU, bao gồm các công cụ quản lý cơ sở hạ tầng, hệ thống cung cấp khách hàng và giải pháp thanh toán.

Các trình tự tập hợp thị trường như gate.ioVast.aichức năng như Amazon của thế giới GPU. Họ tạo ra một thị trường kết hợp các công cụ tính toán đa dạng từ các nhà cung cấp khác nhau - từ các thẻ RTX dành cho người tiêu dùng đến GPU H100 chuyên nghiệp. Chủ sở hữu GPU liệt kê tài nguyên của họ với các chỉ số hiệu suất chi tiết và xếp hạng đáng tin cậy, trong khi khách hàng mua thời gian tính toán thông qua một nền tảng tự phục vụ.

Gate

Cho đến nay, cuộc thảo luận của chúng ta đã tập trung vào việc đào tạo (hoặc điều chỉnh tinh chỉnh) các mô hình. Tuy nhiên, sau khi được đào tạo, một mô hình phải được triển khai để phục vụ người dùng cuối - một quá trình gọi là suy luận. Mỗi khi bạn trò chuyện với ChatGPT, bạn đang sử dụng các GPU chạy các tải công việc suy luận mà lấy đầu vào của bạn và tạo ra phản ứng của mô hình. Hãy quay trở lại để thảo luận về tượng đá trong một phút.

Đây cũng là David - không phải bản gốc của Michelangelo, mà là một tấm thạch cao được Nữ hoàng Victoria ủy quyền vào năm 1857 cho Bảo tàng Victoria và Albert của London. Trong khi Michelangelo đã dành ba năm mệt mỏi cẩn thận sứt mẻ đá cẩm thạch để tạo ra bản gốc ở Florence, khuôn thạch cao này được làm từ khuôn trực tiếp của bức tượng — tái tạo hoàn hảo mọi đường cong, góc độ và chi tiết mà Michelangelo đã chế tác. Công việc sáng tạo chuyên sâu đã xảy ra một lần. Sau đó, nó trở thành vấn đề sao chép trung thực các tính năng này. Ngày nay, bản sao của David xuất hiện ở khắp mọi nơi từ phòng bảo tàng đến sân sòng bạc Las Vegas.

Đây chính xác là cách suy luận hoạt động trong AI. Đào tạo một mô hình ngôn ngữ lớn giống như quá trình điêu khắc ban đầu của Michelangelo - tính toán chuyên sâu, tốn thời gian và tài nguyên nặng khi mô hình dần dần học đúng "hình dạng" của ngôn ngữ thông qua hàng triệu điều chỉnh nhỏ. Nhưng sử dụng mô hình được đào tạo — suy luận — giống như tạo ra một bản sao. Khi bạn trò chuyện với ChatGPT, bạn không dạy nó ngôn ngữ từ đầu mà sử dụng một bản sao của một mô hình có các thông số (như đường cong và góc chính xác của David) đã được hoàn thiện.

Khối lượng công việc suy luận về cơ bản khác với đào tạo. Mặc dù việc đào tạo đòi hỏi các cụm GPU mới nhất, lớn, dày đặc như H100 để xử lý các tính toán chuyên sâu, suy luận có thể chạy trên các máy chủ GPU đơn lẻ sử dụng phần cứng cũ hơn như A100 hoặc thậm chí là thẻ cấp tiêu dùng, giúp tiết kiệm chi phí hơn đáng kể. Điều đó đang được nói, khối lượng công việc suy luận có những yêu cầu riêng của chúng:

  • Phạm vi địa lý rộng: Mô hình cần được triển khai trên nhiều trung tâm dữ liệu trên toàn thế giới để đảm bảo người dùng tại Singapore nhận được phản hồi cũng nhanh như người dùng tại San Francisco
  • Uptime cao: Khác với việc huấn luyện mô hình, mô hình dự đoán cần phải hoạt động liên tục 24/7 vì người dùng mong đợi nhận được phản hồi ngay lập tức bất cứ lúc nào.
  • Redundancy: Nhiều máy chủ cần sẵn sàng xử lý yêu cầu trong trường hợp một số máy chủ gặp sự cố hoặc quá tải

Những đặc điểm này làm cho các khối công việc suy luận lý tưởng cho các mô hình giá định vị. Dưới mô hình giá định vị, tài nguyên GPU có sẵn với mức giảm giá đáng kể - thường là 30-50% dưới mức giá theo yêu cầu - với hiểu biết rằng dịch vụ có thể tạm dừng khi khách hàng ưu tiên cao hơn cần tài nguyên. Mô hình này phù hợp cho suy luận vì triển khai dự phòng cho phép khối công việc chuyển đổi nhanh chóng sang GPU có sẵn nếu bị gián đoạn.

Trong bối cảnh này của GPUs và AI cloud computing, chúng ta hiện đã có thể bắt đầu khám phá xem tiền điện tử phù hợp vào đâu trong tất cả những điều này. Hãy (cuối cùng) bắt đầu thôi.

Vị trí của tiền điện tử

Các dự án và báo cáo thường trích dẫn quan sát của Peter Thiel rằng “Trí tuệ nhân tạo đang tập trung, tiền điện tử đang phân tán” khi thảo luận về vai trò của tiền điện tử trong việc đào tạo trí tuệ nhân tạo. Mặc dù nhận định của Thiel không thể chối cãi, chúng ta vừa chứng kiến rõ ràng sự ưu thế rõ ràng của Big Tech trong việc đào tạo trí tuệ nhân tạo mạnh mẽ—thường bị sử dụng sai lệch để gợi ý rằng tiền điện tử và máy tính phân tán cung cấp giải pháp chính để cân bằng ảnh hưởng của Big Tech.

Những tuyên bố như vậy phản ánh lại những phát biểu quá đà trước đó về tiềm năng của tiền điện tử trong việc cách mạng hóa mạng xã hội, trò chơi và vô số ngành công nghiệp khác. Chúng không chỉ gây hiệu ứng ngược mà còn, như tôi sẽ bàn luận trong thời gian ngắn, không thực tế - ít nhất là trong tương lai gần.

Thay vào đó, tôi sẽ có một cách tiếp cận thực tế hơn. Tôi sẽ giả định rằng một công ty khởi nghiệp AI đang tìm kiếm tính toán không quan tâm đến các nguyên lý phân cấp hoặc sự phản đối ý thức hệ đối với Big Tech. Thay vào đó, họ có một vấn đề — họ muốn truy cập vào tính toán GPU đáng tin cậy với chi phí thấp nhất có thể. Nếu một dự án tiền điện tử có thể cung cấp giải pháp tốt hơn cho vấn đề này so với các lựa chọn thay thế không phải tiền điện tử, họ sẽ sử dụng nó.

Với mục đích đó, hãy hiểu trước ai là đối thủ cạnh tranh của các dự án crypto. Trước đó, chúng ta đã thảo luận về các danh mục khác nhau của nhà cung cấp đám mây AI - Big Tech và hyperscalers, big neoclouds, small neoclouds, nhà cung cấp nền tảng và các thị trường.

Lý thuyết cơ bản đằng sau sự tính toán phi tập trung (giống như tất cả các dự án DePIN) là thị trường tính toán hiện tại hoạt động không hiệu quả. Cầu GPU vẫn rất cao, trong khi nguồn cung bị phân mảnh và không được tận dụng đầy đủ trong các trung tâm dữ liệu toàn cầu và các nhà riêng lẻ. Hầu hết các dự án trong lĩnh vực này cạnh tranh trực tiếp với các sàn giao dịch bằng cách tổng hợp nguồn cung phân tán này để giảm thiểu sự không hiệu quả.

Với điều đó đã được thiết lập, hãy xem làm thế nào những dự án này (và thị trường tính toán nói chung) có thể hỗ trợ các khối lượng công việc AI khác nhau - đào tạo, điều chỉnh tinh chỉnh và suy luận.

Đào tạo

Điều quan trọng nhất là không, ASI sẽ không được đào tạo trên một mạng lưới toàn cầu của GPU phi tập trung. Ít nhất là không trên quỹ đạo hiện tại của AI. Dưới đây là lý do.

Trước đó, chúng ta đã thảo luận về việc cụm mô hình nền tảng đang trở nên rất lớn. Bạn cần 100.000 GPU mạnh nhất trên thế giới để bắt đầu cạnh tranh. Con số này chỉ tăng lên theo từng năm. Đến năm 2026, dự kiến chi phí cho một lần huấn luyện sẽ vượt qua 100 tỷ đô la, có thể cần tới một triệu GPU hoặc hơn.

Chỉ có các công ty công nghệ lớn, được hỗ trợ bởi các neocloud lớn và các đối tác trực tiếp của Nvidia, mới có thể lắp ráp các cụm máy tính với quy mô như vậy. Hãy nhớ rằng, chúng ta đang trong cuộc đua về Trí tuệ Nhân tạo Siêu thông minh (ASI), và tất cả các người tham gia đều cực kỳ động viên và vốn hóa. Nếu có thêm nguồn cung cấp này nhiều GPU (thực tế không có), thì họ sẽ là những người đầu tiên mua chúng.

Ngay cả khi một dự án tiền điện tử nào đó thu thập đủ tính toán cần thiết, hai rào cản cơ bản ngăn chặn sự phát triển của trí tuệ nhân tạo phi tập trung:

Đầu tiên, các GPU vẫn cần được kết nối thành các cụm lớn để hoạt động hiệu quả. Ngay cả khi những cụm này được chia thành các hòn đảo trong thành phố, chúng vẫn phải được kết nối bằng các đường cáp quang chuyên dụng. Cả hai điều này đều không thể thực hiện trong một môi trường phi tập trung. Ngoài việc mua GPU, việc thiết lập các trung tâm dữ liệu sẵn sàng cho trí tuệ nhân tạo đòi hỏi kế hoạch tỉ mỉ - thường là một quá trình kéo dài từ một đến hai năm. (xAI đã hoàn thành chỉ trong 122 ngày nhưng khó có khả năng Elon sẽ phát hành một mã thông báo trong thời gian sớm nhất.)

Thứ hai, việc chỉ tạo ra một trung tâm dữ liệu AI không đủ để sinh ra một trí tuệ siêu việt AI. Nhưng người sáng lập Anthropic Dario Amodei giải thích gần đâyTrong AI, việc mở rộng tương tự như phản ứng hóa học. Giống như một phản ứng hóa học yêu cầu nhiều chất tham gia với tỷ lệ chính xác để tiến hành, việc mở rộng AI thành công phụ thuộc vào ba yếu tố cần thiết phát triển đồng thời: mạng lớn hơn, thời gian đào tạo lâu hơn và tập dữ liệu lớn hơn. Nếu bạn mở rộng một thành phần mà không có các yếu tố khác, quá trình sẽ ngừng lại.

Ngay cả khi chúng ta quản lý bằng cách nào đó tích lũy cả tính toán và làm cho các cụm hoạt động cùng nhau, chúng ta vẫn cần hàng terabyte dữ liệu chất lượng cao để mô hình được đào tạo trở nên tốt. Nếu không có nguồn dữ liệu độc quyền của Big Tech, vốn để ký các thỏa thuận trị giá hàng triệu đô la với các diễn đàn trực tuyến và phương tiện truyền thông, hoặc các mô hình hiện có để tạo dữ liệu tổng hợp, việc có được dữ liệu đào tạo đầy đủ là không thể.

Gần đây đã có một số suy đoán rằng các quy luật tỷ lệ có thể đạt đến mức giới hạn, với LLMs có thể đạt đến mức giới hạn về hiệu suất. Một số người hiểu điều này như một cơ hội cho phát triển trí tuệ nhân tạo phi tập trung. Tuy nhiên, điều này bỏ qua một yếu tố quan trọng - tập trung tài năng. Các công ty Big Tech và các phòng thí nghiệm trí tuệ nhân tạo hiện nay đang có các nhà nghiên cứu hàng đầu thế giới. Bất kỳ con đường thay thế đột phá nào đến AGI cũng có thể nổi lên từ những trung tâm này. Với cảnh cạnh tranh hiện tại, những khám phá như vậy sẽ được bảo mật chặt chẽ.

Xem xét tất cả các lập luận này, tôi chắc chắn 99,99% rằng việc đào tạo ASI — hoặc thậm chí các mô hình mạnh nhất thế giới — sẽ không được đào tạo về một dự án tính toán phi tập trung. Trong trường hợp đó, tiền điện tử thực sự có thể giúp đào tạo những mô hình nào?

Để các mô hình được đào tạo trên các cụm GPU riêng biệt được đặt ở các vị trí địa lý khác nhau, chúng ta cần triển khai song song dữ liệu giữa chúng. (Hãy nhớ lại rằng song song dữ liệu là cách các đảo GPU khác nhau, mỗi đảo hoạt động trên các khối dữ liệu đào tạo riêng biệt, đồng bộ hóa với nhau). Mô hình được đào tạo càng lớn, lượng dữ liệu cần trao đổi giữa các đảo này càng lớn. Như chúng ta đã thảo luận, đối với các mô hình biên giới có hơn một nghìn tỷ tham số, băng thông cần thiết đủ lớn để yêu cầu kết nối cáp quang chuyên dụng.

Tuy nhiên, đối với các mô hình nhỏ hơn, yêu cầu băng thông giảm tỉ lệ. Những đột phá gần đây trong các thuật toán đào tạo ít giao tiếp, đặc biệt là trong đồng bộ hóa trễ, đã tạo ra những cơ hội triển vọng cho việc đào tạo các mô hình nhỏ đến trung bình theo cách phi tập trung. Hai nhóm đang dẫn đầu những nỗ lực thử nghiệm này.

Nous Researchlà một công ty tăng tốc AI và một nhà lãnh đạo trong việc phát triển AI mã nguồn mở. Họ nổi tiếng với dòng mô hình ngôn ngữ Hermes và các dự án đổi mới như World Sim. Trước đây, họ đã vận hành một mạng lưới BitTensor LLM-ranking trong vài tháng. Họ đã thử sức mình trong việc tính toán phi tập trung bằng cách phát hành DisTrODự án (Distributed Training Over the Internet), nơi họ đã thành công trong việc huấn luyện mô hình Llama-2 với 1.2 tỷ tham số và đạt được giảm yêu cầu băng thông giữa GPU lên đến 857 lần.

Báo cáo DisTrO của Nous Research

Trí tuệ nguyên tố, một startup phát triển cơ sở hạ tầng cho trí tuệ nhân tạo phi tập trung với quy mô lớn, nhằm mục đích tổng hợp tài nguyên tính toán toàn cầu và cho phép huấn luyện cộng tác các mô hình hàng đầu thông qua hệ thống phân tán. Chúng tôi Khung việc OpenDiLoCo (thực hiện của DeepMind Phương pháp phân tán thấp giao tiếp) đã thành công trong việc huấn luyện một mô hình có một tỷ tham số trên hai lục địa và ba quốc gia trong khi duy trì tỷ lệ sử dụng tính toán từ 90-95%.

Nhưng làm sao để các chạy huấn luyện phi tập trung này hoạt động?

Song song dữ liệu truyền thống yêu cầu GPU chia sẻ và tính trung bình trọng số của chúng sau mỗi bước đào tạo — không thể qua kết nối internet. Thay vào đó, các dự án này cho phép mỗi "hòn đảo" GPU đào tạo độc lập trong hàng trăm bước trước khi đồng bộ. Hãy nghĩ về nó giống như các nhóm nghiên cứu độc lập làm việc trong cùng một dự án: thay vì liên tục kiểm tra với nhau, họ đạt được tiến bộ đáng kể một cách độc lập trước khi chia sẻ những phát hiện của họ.

DisTrO và OpenDiLoCo chỉ đồng bộ mỗi 500 bước, sử dụng phương pháp tối ưu hóa kép:

  • Một trình tối ưu hóa “nội tại” xử lý các cập nhật cục bộ trên từng GPU, giống như một đội làm các khám phá cục bộ
  • Một trình tối ưu hóa "bên ngoài" quản lý các đồng bộ định kỳ giữa các GPU, hoạt động như một người phối hợp đưa tất cả các kết quả lại với nhau

Khi chúng đồng bộ hóa, thay vì chia sẻ tất cả các trọng số, chúng chia sẻ một "gradient giả" — về cơ bản là sự khác biệt giữa trọng số hiện tại của chúng và trọng số từ lần đồng bộ hóa cuối cùng. Điều này rất hiệu quả, giống như chỉ chia sẻ những gì đã thay đổi trong tài liệu thay vì gửi toàn bộ tài liệu mỗi lần.

INTELLECT-1, một thực hiện thực tế của OpenDiLoCo bởi Prime Intellect, đang đẩy tiếp cách tiếp cận này một bước xa hơn bằng cách huấn luyện một mô hình có 10 tỷ tham số - nỗ lực huấn luyện phân tán lớn nhất cho đến nay. Họ đã thêm các tối ưu hóa quan trọng như:

  • Nén dữ liệu mà họ cần chia sẻ, làm cho giao tiếp hiệu quả hơn nhiều
  • Xây dựng các hệ thống dự phòng để đào tạo có thể tiếp tục ngay cả khi một số máy tính ngừng hoạt động
  • Làm quá trình đồng bộ hóa cực kỳ nhanh chóng - ít hơn một phút

INTELLECT-1, được đào tạo bởi hơn 20 cụm GPU trên toàn cầu, gần đây đã hoàn thànhpretrainingvà sắp được phát hành dưới dạng một mô hình mã nguồn mở hoàn chỉnh.

Bảng điều khiển đào tạo INTELLECT-1

Teams như gateMacrocosmosđang sử dụng các thuật toán tương tự đểtrain models trong hệ sinh thái Bittensor.

Nếu những thuật toán đào tạo phi tập trung này tiếp tục được cải thiện, chúng có thể hỗ trợ các mô hình lên đến 100 tỷ tham số với thế hệ GPU tiếp theo. Ngay cả các mô hình có kích thước như vậy cũng có thể rất hữu ích cho nhiều trường hợp sử dụng khác nhau:

  1. Nghiên cứu và thử nghiệm với kiến trúc mới mà không yêu cầu tính toán quy mô biên giới
  2. Các mô hình đa dụng nhỏ hơn được tối ưu hóa cho hiệu suất và tốc độ hơn là thông minh thô
  3. Mô hình đặc thù của lĩnh vực

Fine-tuning

Fine-tuning là quá trình lấy một mô hình cơ sở đã được huấn luyện trước (thường là một mô hình mã nguồn mở do Meta, Mistral hoặc Alibaba phát triển) và tiếp tục huấn luyện trên một tập dữ liệu cụ thể để thích nghi với các nhiệm vụ hoặc lĩnh vực cụ thể. Điều này yêu cầu tính toán ít hơn đáng kể so với việc huấn luyện từ đầu vì mô hình đã học được các mẫu ngôn ngữ chung và chỉ cần điều chỉnh trọng số cho lĩnh vực mới.

Xác định yêu cầu tính toán để điều chỉnh tỷ lệ với kích thước mô hình. Giả sử đào tạo trên một H100:

  • Các mô hình nhỏ (thông số 1-7B): GPU đơn, hoàn thành trong vòng 12 giờ
  • Mô hình trung bình (7-13B): 2-4 cụm GPU, hoàn thành trong vòng 36 giờ
  • Mô hình lớn (> 30B): lên đến 8 cụm GPU, hoàn thành trong vòng 4 ngày

Dựa trên các thông số kỹ thuật này, việc điều chỉnh tinh chỉnh không đòi hỏi các thuật toán huấn luyện phân tán phức tạp đã được thảo luận trước đó. Mô hình theo yêu cầu, nơi nhà phát triển thuê cụm GPU trong một khoảng thời gian ngắn, tập trung, cung cấp đủ hỗ trợ. Các thị trường tính toán phi tập trung với khả năng GPU mạnh mẽ được đặt ở vị trí lý tưởng để xử lý các khối công việc này.

Inference

Suy luận là nơi các thị trường điện toán phi tập trung có con đường rõ ràng nhất để phù hợp với thị trường sản phẩm. Trớ trêu thay, đây là quy trình làm việc ít được thảo luận nhất trong bối cảnh đào tạo phi tập trung. Điều này bắt nguồn từ hai yếu tố: suy luận thiếu sức hấp dẫn của 100.000 lần đào tạo "mô hình thần" GPU và một phần do giai đoạn hiện tại của cuộc cách mạng AI.

Cho đến hôm nay, phần lớn máy tính đang được sử dụng để huấn luyện. Cuộc đua đến ASI dẫn đến những khoản đầu tư lớn về cơ sở hạ tầng đào tạo. Tuy nhiên, sự cân bằng này sẽ dịch chuyển không tránh khỏi khi các ứng dụng trí tuệ nhân tạo chuyển từ nghiên cứu sang sản xuất. Để mô hình kinh doanh xung quanh trí tuệ nhân tạo có thể bền vững, doanh thu được tạo ra từ việc suy luận phải vượt qua chi phí của cả quá trình huấn luyện và suy luận kết hợp. Trong khi huấn luyện GPT-4 tốn kém rất nhiều, nhưng đó chỉ là chi phí một lần. Chi phí tính toán liên tục và con đường đến lợi nhuận của OpenAI được thúc đẩy bởi việc phục vụ hàng tỷ yêu cầu suy luận cho khách hàng trả phí.

Thị trường tính toán, phân cấp hoặc không phân cấp, theo bản chất là tổng hợp một loạt các mô hình GPU (cũ và mới) từ khắp nơi trên thế giới, tự thân định vị mình ở một vị trí độc đáo để phục vụ các tải công việc suy luận.

Thị trường điện toán, dù phi tập trung hay truyền thống, đương nhiên vượt trội về khối lượng công việc suy luận bằng cách tổng hợp các mô hình GPU đa dạng (cả hiện tại và cũ) trên toàn cầu. Ưu điểm vốn có của chúng hoàn toàn phù hợp với các yêu cầu suy luận: phân phối địa lý rộng, thời gian hoạt động nhất quán, dự phòng hệ thống và khả năng tương thích giữa các thế hệ GPU.

Nhưng tại sao lại là tiền điện tử?

Chúng tôi đã thảo luận về các quy trình công việc khác nhau mà điện toán phi tập trung có thể và không thể trợ giúp. Bây giờ, chúng ta cần trả lời một câu hỏi quan trọng khác: tại sao một nhà phát triển lại chọn bảo mật tính toán từ một nhà cung cấp phi tập trung thay vì một nhà cung cấp tập trung? Các giải pháp phi tập trung mang lại những lợi thế hấp dẫn nào?

Giá cả và Phạm vi

Stablecoins đã đạt được sự phù hợp với thị trường sản phẩm bằng cách cung cấp một sự lựa chọn vượt trội so với việc thanh toán xuyên biên giới truyền thống. Một yếu tố lớn là stablecoins đơn giản là rẻ hơn nhiều! Tương tự, yếu tố quan trọng nhất làm nên sự lựa chọn của nhà phát triển trí tuệ nhân tạo đối với nhà cung cấp đám mây là chi phí. Đối với các nhà cung cấp tính toán phi tập trung để cạnh tranh hiệu quả, họ phải trước tiên cung cấp giá cả vượt trội.

Thị trường điện toán, giống như tất cả các thị trường, là một doanh nghiệp hiệu ứng mạng. Nguồn cung GPU trên nền tảng càng nhiều, tính thanh khoản và tính khả dụng cho khách hàng càng lớn, từ đó thu hút nhiều nhu cầu hơn. Khi nhu cầu tăng lên, điều này khuyến khích nhiều chủ sở hữu GPU tham gia mạng, tạo ra một chu kỳ đạo đức. Nguồn cung tăng cũng cho phép giá cả cạnh tranh hơn thông qua kết hợp tốt hơn và giảm thời gian nhàn rỗi. Khi khách hàng có thể liên tục tìm thấy điện toán họ cần với mức giá hấp dẫn, họ có nhiều khả năng xây dựng sự phụ thuộc kỹ thuật lâu dài trên nền tảng, điều này củng cố thêm hiệu ứng mạng.

Cơ chế này đặc biệt mạnh mẽ trong việc suy luận, nơi phân bố địa lý của nguồn cung thực sự có thể nâng cao sản phẩm bằng cách giảm độ trễ cho người dùng cuối. Thị trường đầu tiên đạt được vòng xoay thanh khoản này ở quy mô sẽ có lợi thế cạnh tranh đáng kể, vì cả nhà cung cấp và khách hàng đều phải đối mặt với chi phí chuyển đổi sau khi họ tích hợp với các công cụ và luồng công việc của nền tảng.

Bánh xe tác động mạng lưới thị trường GPU

Trong những thị trường như vậy, khởi động mạngvà đạt vận tốc thoát là giai đoạn quan trọng nhất. Ở đây, tiền điện tử cung cấp cho các dự án tính toán phi tập trung một công cụ rất mạnh mà các đối thủ tập trung của họ đơn giản không sở hữu: động cơ khuyến nghị.

Cơ chế có thể đơn giản nhưng mạnh mẽ. Giao thức sẽ đầu tiên phát hành một token bao gồm lịch trình phần thưởng phát sinh, có thể phân phối phân bổ ban đầu cho những người đóng góp sớm thông qua airdrops. Các lượng token này sẽ phục vụ như công cụ chính để khởi động cả hai phía của thị trường.

Đối với các nhà cung cấp GPU, cấu trúc phần thưởng nên được thiết kế cẩn thận để hình thành hành vi từ phía nguồn cung. Các nhà cung cấp sẽ kiếm được token tỷ lệ thuận với tỷ lệ tính toán và sử dụng của họ, nhưng hệ thống nên vượt qua phần thưởng tuyến tính đơn giản. Giao thức có thể triển khai bội số phần thưởng động để giải quyết sự mất cân đối địa lý hoặc loại phần cứng - tương tự như cách Uber sử dụng giá cao điểm để khuyến khích tài xế ở khu vực có nhu cầu cao.

Một nhà cung cấp có thể kiếm được phần thưởng gấp 1,5 lần khi cung cấp điện toán ở các khu vực chưa được phục vụ hoặc phần thưởng gấp 2 lần khi cung cấp các loại GPU tạm thời khan hiếm. Tiếp tục phân cấp hệ thống phần thưởng dựa trên tỷ lệ sử dụng nhất quán sẽ khuyến khích các nhà cung cấp duy trì tính khả dụng ổn định thay vì chuyển đổi cơ hội giữa các nền tảng.

On the demand side, customers would receive token rewards that effectively subsidise their usage. The protocol might offer increased rewards for longer compute commitments—incentivising users to build deeper technical dependencies on the platform. These rewards could be further structured to align with the platform’s strategic priorities, such as capturing the demand in a particular geography.

Các tỷ lệ cơ bản cho tính toán có thể được giữ ở mức thị trường hoặc ít hơn một chút, với các giao thức sử dụng Nhà tiên tri zkTLSđể liên tục theo dõi và so sánh giá cả của đối thủ. Sau đó, phần thưởng token sẽ phục vụ như một lớp động lực bổ sung trên cơ sở giá cả cạnh tranh này. Mô hình giá cả kép này sẽ cho phép nền tảng duy trì tính cạnh tranh về giá cả trong khi sử dụng các động lực token để thúc đẩy các hành vi cụ thể nhằm tăng cường mạng lưới.

Bằng cách phân phối động viên token, cả nhà cung cấp và khách hàng sẽ bắt đầu tích lũy cổ phần trong mạng lưới. Trong khi một số người, có thể là hầu hết, có thể bán cổ phần này, những người khác sẽ giữ chúng, trở thành các bên liên quan và những người tuyên truyền cho nền tảng. Những người tham gia tích cực này sẽ có lợi ích với mạng lưới thành công, đóng góp vào sự phát triển và ứng dụng vượt ra ngoài việc sử dụng trực tiếp hoặc cung cấp tài nguyên tính toán.

Theo thời gian, khi mạng lưới đạt được vận tốc thoát và thiết lập hiệu ứng mạng mạnh mẽ, các động lực token này có thể được dần dần cắt giảm. Các lợi ích tự nhiên của việc trở thành thị trường lớn nhất - tương ứng tốt hơn, sử dụng cao hơn, phạm vi địa lý rộng hơn - sẽ trở thành những nguồn động lực tự duy trì của sự phát triển.

Làm thế nào các động lực token có thể tăng cường bánh xe quảng cáo GPU

Kháng cáo Lập dịch

Mặc dù giá cả và phạm vi là những điểm khác biệt quan trọng, các mạng điện toán phi tập trung giải quyết một mối quan tâm ngày càng tăng: các hạn chế hoạt động từ các nhà cung cấp tập trung. Các nhà cung cấp đám mây truyền thống đã thể hiện sự sẵn sàng đình chỉ hoặc chấm dứt dịch vụ dựa trên chính sách nội dung và áp lực bên ngoài. Những tiền lệ này đặt ra những câu hỏi hợp lý về cách mà các chính sách tương tự có thể mở rộng đến việc phát triển và triển khai mô hình AI.

Khi các mô hình AI trở nên tinh vi hơn và giải quyết các trường hợp sử dụng ngày càng đa dạng, có khả năng thực sự là các nhà cung cấp đám mây có thể thực hiện các hạn chế về đào tạo và phục vụ mô hình, tương tự như các phương pháp kiểm duyệt nội dung hiện có của họ. Điều này có thể ảnh hưởng đến không chỉ nội dung NSFW và các chủ đề gây tranh cãi, mà cả các trường hợp sử dụng hợp pháp trong các lĩnh vực như hình ảnh y tế, nghiên cứu khoa học hoặc nghệ thuật sáng tạo có thể kích hoạt các bộ lọc tự động quá thận trọng.

Một mạng phân tán cung cấp một phương án thay thế bằng cách cho phép các thành viên thị trường tự quyết định về cơ sở hạ tầng của mình, tiềm năng tạo ra một môi trường tự do và không bị hạn chế hơn cho sự đổi mới.

Mặt trái của kiến trúc không cần phép là việc quyền riêng tư trở nên khó khăn hơn. Khi tính toán được phân phối trên một mạng lưới các nhà cung cấp thay vì được chứa trong trung tâm dữ liệu của một đơn vị tin cậy duy nhất, các nhà phát triển cần suy nghĩ cẩn thận về bảo mật dữ liệu. Mặc dù việc mã hóa và môi trường thi hành đáng tin cậy có thể giúp ích, nhưng có một sự đánh đổi căn bản giữa sự chống lại việc kiểm duyệt và quyền riêng tư mà các nhà phát triển phải điều hướng dựa trên yêu cầu cụ thể của họ.

Niềm tin và thực thi hợp đồng

Với nhu cầu cao ngất trời về tính toán AI, các nhà cung cấp GPU có thể khai thác vị trí của họ để thu lợi nhuận tối đa từ những khách hàng thành công. Trong một bài đăng từ năm ngoáiTrong một bài viết của mình, nhà phát triển độc lập nổi tiếng Pieter Levels chia sẻ cách anh ấy và những nhà phát triển khác trải qua tình trạng nhà cung cấp tăng giá đột ngột lên đến 600% sau khi công khai doanh thu của ứng dụng trí tuệ nhân tạo của mình.

Hệ thống phi tập trung có thể cung cấp một phương án cho vấn đề này - thực thi hợp đồng không cần tin cậy. Khi các thỏa thuận được mã hóa trên chuỗi thay vì được chôn vùi trong các điều khoản dịch vụ, chúng trở nên minh bạch và không thể thay đổi. Nhà cung cấp không thể tăng giá một cách tùy ý hoặc thay đổi các điều khoản trong quá trình hợp đồng mà không có sự đồng ý rõ ràng thông qua giao thức.

Vượt qua việc định giá, các mạng phi tập trung có thể tận dụng môi trường thực thi đáng tin cậy (TEEs)để cung cấp tính toán có thể xác minh. Điều này đảm bảo các nhà phát triển thực sự nhận được tài nguyên GPU mà họ trả tiền - cả về thông số kỹ thuật phần cứng và quyền truy cập được cấp cho riêng họ. Ví dụ, khi một nhà phát triển trả tiền để được quyền truy cập riêng tư đến tám GPU H100 để huấn luyện mô hình, các bằng chứng mật mã có thể xác minh rằng công việc của họ đang chạy trên H100 với toàn bộ 80GB bộ nhớ trên mỗi GPU, thay vì bị giảm cấp một cách im lặng xuống thẻ thấp hơn hoặc có tài nguyên được chia sẻ với người dùng khác.

Không cần phép

Mạng máy tính phi tập trung có thể cung cấp cho nhà phát triển các lựa chọn thực sự không cần phép. Không giống như các nhà cung cấp truyền thống yêu cầu quy trình KYC và kiểm tra tín dụng chi tiết, bất kỳ ai cũng có thể tham gia vào các mạng này và bắt đầu tiêu thụ hoặc cung cấp tài nguyên tính toán. Điều này giảm đáng kể ngưỡng cửa, đặc biệt đối với nhà phát triển ở các thị trường mới nổi hoặc làm việc trên các dự án thử nghiệm.

Tính quan trọng của tính chất không cần phép này trở nên mạnh mẽ hơn khi chúng ta xem xét tương lai của các đại lý AI. Các đại lý AI mới chỉ bắt đầu tìm được chỗ đứng của mình, với đại lý tích hợp theo chiều dọcdự kiến vượt qua kích thước của ngành công nghiệp SaaS. Với sự xuất hiện của gateTruth TerminalZerebroChúng tôi đang thấy những dấu hiệu đầu tiên của các tác nhân đạt được tính tự chủ và học cách sử dụng các công cụ bên ngoài như mạng xã hội và các công cụ tạo hình ảnh.

Khi các hệ thống tự trị này trở nên phức tạp hơn, chúng có thể cần phân phối động tài nguyên tính toán của chính mình. Một mạng phân tán nơi các hợp đồng có thể được thực thi một cách đáng tin cậy bởi mã chứ không phải là các trung gian con người là cơ sở hạ tầng tự nhiên cho tương lai này. Các đại lý có thể tự động thương lượng các hợp đồng, giám sát hiệu suất và điều chỉnh việc sử dụng tính toán của họ dựa trên nhu cầu - tất cả đều không cần sự can thiệp hay phê duyệt của con người.

Cảnh quan

Khái niệm về mạng tính toán phi tập trung không mới — các dự án đã cố gắng phổ cập quyền truy cập vào tài nguyên tính toán khan hiếm từ trước thời kỳ bùng nổ AI hiện tại.Mạng Renderđã hoạt động từ năm 2017, tổng hợp tài nguyên GPU để dựng đồ họa máy tính.AkashĐược ra mắt vào năm 2020 để tạo ra một thị trường mở cho việc tính toán chung. Cả hai dự án đều đạt được một thành công vừa phải trong lĩnh vực của họ nhưng hiện tập trung vào khối lượng công việc AI.

Tương tự, các mạng lưu trữ phi tập trung như FilecoinArweaveđang mở rộng vào tính toán. Họ nhận ra rằng khi trí tuệ nhân tạo trở thành người tiêu dùng chính của cả bộ nhớ lưu trữ và tính toán, việc cung cấp các giải pháp tích hợp là hợp lý.

Chỉ như trung tâm dữ liệu truyền thống đang gặp khó khăn trong việc cạnh tranh với các cơ sở AI được xây dựng để mục đích cụ thể, các mạng đã được thành lập này đối mặt với một cuộc chiến đấu gian nan trước các giải pháp AI nguyên bản. Chúng thiếu DNA để thực hiện sự phối hợp phức tạp cần thiết cho các khối công việc AI. Thay vào đó, họ đang tìm thấy chỗ đứng của mình bằng cách trở thành nhà cung cấp tính toán cho các mạng AI cụ thể khác. Ví dụ, cả Render và Akash hiện đã đưa GPU của mình lên sàn giao dịch của io.net.

Những người tham gia thị trường AI-native này là ai?io.netlà một trong những nhà lãnh đạo đầu tiên trong việc tổng hợp nguồn cung cấp GPU hàng đầu dành cho doanh nghiệp, với hơn 300.000 GPU đã xác minh trên mạng của mình. Họ tuyên bố mang lại tiết kiệm chi phí lên đến 90% so với các đối thủ tập trung và đã đạt được thu nhập hàng ngày lên đến hơn 25.000 đô la (ước tính hàng năm 9 triệu đô la). Tương tự,Aethirtập hợp hơn 40.000 GPU (bao gồm hơn 4.000 H100) để phục vụ cả trường hợp sử dụng trí tuệ nhân tạo và điện toán đám mây.

Trước đây, chúng tôi đã thảo luận về cách Prime Intellect đang tạo ra các khung việc cho việc đào tạo phi tập trung quy mô. Ngoài những nỗ lực này, họ cũng cung cấp một Thị trường GPUnơi người dùng có thể thuê H100 theo yêu cầu.Gensynlà dự án khác đặt cược lớn vào việc đào tạo phi tập trung với một khung công việc đào tạo tương tự cùng một cách tiếapproach thị trường GPU.

Trong khi tất cả đều là các thị trường không phụ thuộc vào công việc cụ thể (họ hỗ trợ cả quá trình huấn luyện và suy luận), một số dự án tập trung chỉ vào suy luận - công việc tính toán phân tán mà chúng tôi rất háo hức. Trong số đó, Exo Labs là dự án hàng đầu, cho phép người dùng chạy LLM cấp tiền phong trên các thiết bị hàng ngày. Họ đã phát triển một nền tảng mã nguồn mở cho phép phân phối các nhiệm vụ suy luận trí tuệ nhân tạo trên nhiều thiết bị như iPhone, Android và Mac. Họ gần đây đã thể hiệnchạy mô hình 70-B ( có thể mở rộng lên 400-B) phân phối trên bốn M4 Pro Mac Minis.

Cơ sở hạ tầng cần thiết

Khi Satoshi ra mắt Bitcoin vào năm 2008, những lợi ích của nó - vàng kỹ thuật số với nguồn cung cứng và tiền không thể kiểm soát - chỉ là lý thuyết. Hệ thống tài chính truyền thống, mặc dù có nhược điểm, vẫn hoạt động. Ngân hàng trung ương chưa bắt đầu in tiền vô tiền khoáng hậu. Lệnh trừng phạt quốc tế chưa được sử dụng để tấn công vào toàn bộ nền kinh tế. Nhu cầu về một sự thay thế dường như chỉ là học thuật thay vì khẩn cấp.

Phải mất một thập kỷ nới lỏng định lượng, đỉnh điểm là mở rộng tiền tệ thời COVID, để lợi ích lý thuyết của Bitcoin kết tinh thành giá trị hữu hình. Ngày nay, khi lạm phát làm xói mòn tiết kiệm và căng thẳng địa chính trị đe dọa sự thống trị của đồng đô la, vai trò của Bitcoin là "vàng kỹ thuật số" đã phát triển từ giấc mơ cypherpunk thành một tài sản được các tổ chức và quốc gia chấp nhận.

Mẫu này lặp lại với stablecoins. Ngay khi một blockchain đa mục đích trên Ethereum được có sẵn, stablecoins ngay lập tức trở thành một trong những trường hợp sử dụng triển vọng nhất. Tuy nhiên, đã mất nhiều năm để cải tiến từ từ về công nghệ và kinh tế của các nước như Argentina và Thổ Nhĩ Kỳ bị suy thoái bởi lạm phát để stablecoins tiến hóa từ một đổi mới crypto hẹp thành cơ sở hạ tầng tài chính quan trọng di chuyển hàng ngàn tỷ đô la trong khối lượng hàng năm.

Crypto theo bản chất là một công nghệ phòng thủ - những đổi mới có vẻ không cần thiết trong những thời điểm tốt đẹp nhưng trở nên cần thiết trong những cuộc khủng hoảng. Nhu cầu cho những giải pháp này chỉ trở nên rõ ràng khi hệ thống hiện tại thất bại hoặc tiết lộ bản chất thật của chúng.

Hôm nay, chúng ta đang sống trong thời kỳ vàng của trí tuệ nhân tạo (AI). Tiền mạo hiểm đang chảy mạnh mẽ, các công ty cạnh tranh để mang đến giá thấp nhất và các hạn chế, nếu có, là hiếm. Trong môi trường này, các lựa chọn phi tập trung có thể trông thấy là không cần thiết. Tại sao phải đối mặt với những phức tạp của kinh tế mã thông báo và hệ thống chứng minh khi các nhà cung cấp truyền thống vẫn hoạt động tốt?

Nhưng đi theo những làn sóng công nghệ chính của quá khứ, lòng nhân ái này chỉ là tạm thời. Chúng ta hiện chỉ mới hai năm trong cuộc cách mạng AI. Khi công nghệ trưởng thành và những người chiến thắng cuộc đua AI nổi lên, sức mạnh thực sự của họ sẽ hiện ra. Các công ty cùng ngày hôm nay cung cấp quyền truy cập rộng lượng sẽ cuối cùng khẳng định quyền kiểm soát - thông qua giá cả, thông qua chính sách, thông qua quyền hạn.

Đây không chỉ là một chu kỳ công nghệ khác đang bị đe dọa. AI đang trở thành chất nền mới của nền văn minh - lăng kính mà qua đó chúng ta sẽ xử lý thông tin, tạo ra nghệ thuật, đưa ra quyết định và cuối cùng là tiến hóa như một loài. Điện toán không chỉ là một tài nguyên; Đó là tiền tệ của chính trí thông minh. Những người kiểm soát dòng chảy của nó sẽ định hình biên giới nhận thức của nhân loại.

Tính toán phi tập trung không chỉ đơn giản là cung cấp GPU rẻ hơn hoặc tùy chọn triển khai linh hoạt hơn (mặc dù để thành công, nó phải cung cấp cả hai). Điều quan trọng là đảm bảo việc truy cập vào trí tuệ nhân tạo - công nghệ có sức biến đổi lớn nhất của nhân loại - luôn không thể bị kiểm duyệt và chủ quyền. Đó là lá chắn của chúng ta trước một tương lai không thể tránh khỏi, nơi một vài công ty không chỉ quyết định ai có thể sử dụng trí tuệ nhân tạo mà còn quyết định cách họ sử dụng nó.

Chúng tôi đang xây dựng những hệ thống này không phải vì chúng cần thiết ngay bây giờ, mà vì chúng sẽ trở thành thiết yếu vào ngày mai. Khi trí tuệ nhân tạo trở thành một phần cơ bản của xã hội như tiền tệ, tính toán không cần phép không chỉ là một phương án thay thế - nó sẽ trở thành một yếu tố cần thiết để chống lại chủ nghĩa bành trướng kỹ thuật số, cũng như Bitcoin và đồng tiền ổn định là để chống lại sự kiểm soát tài chính.

Cuộc đua đến trí tuệ siêu nhân tạo có thể vượt ngoài tầm tay của các hệ thống phi tập trung. Nhưng đảm bảo rằng những thành quả của trí tuệ này vẫn có thể tiếp cận cho tất cả? Đó là một cuộc đua đáng để tham gia.

Miễn trừ trách nhiệm:

  1. Bài viết này được sao chép từ [Decentralised.co]. Chuyển tiếp tiêu đề ban đầu: Tính toán phi tập trung. Tất cả các quyền tác giả thuộc về tác giả ban đầu [Shlok Khemani]. Nếu có ý kiến ​​phản đối về việc tái in này, vui lòng liên hệ Gate Learnđội của chúng tôi, và họ sẽ xử lý nhanh chóng.
  2. Bảng từ chối trách nhiệm: Các quan điểm và ý kiến được thể hiện trong bài viết này chỉ là của tác giả và không hề cung cấp bất kỳ lời khuyên đầu tư nào.
  3. Các bản dịch của bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi có đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết dịch là cấm.

Tại sao việc tính toán phi tập trung là một yếu tố quan trọng trong phát triển AI?

Nâng cao1/7/2025, 7:31:27 AM
Bài viết hôm nay đề cập đến lĩnh vực tính toán phi tập trung đang nổi lên nhưng thường bị hiểu sai trong lĩnh vực tiền điện tử. Chúng tôi đào sâu vào cảnh quan cơ sở hạ tầng trí tuệ nhân tạo để hiểu được nơi mà các phương án phi tập trung có thể cạnh tranh một cách thực tế.

Chuyển tiếp Tiêu đề gốc: Tính toán phi tập trung

Bài viết hôm nay sẽ đề cập đến lĩnh vực tính toán phân tán trong lĩnh vực tiền điện tử, một lĩnh vực mới mẻ nhưng thường bị hiểu lầm. Chúng tôi sẽ đào sâu vào cảnh quan cơ sở hạ tầng trí tuệ nhân tạo để hiểu rõ nơi mà các phương án phân tán có thể cạnh tranh một cách có thực.

Chúng tôi khám phá những câu hỏi như: liệu có thể đào tạo ASI trên các mạng phân tán? Các mạng crypto cung cấp những lợi ích độc đáo nào? Và tại sao hạ tầng tính toán không cần phép có thể trở thành không thể thiếu cho trí tuệ nhân tạo như Bitcoin đối với tài chính.

Một mô hình phổ biến bạn sẽ nhận thấy trong bài viết là sự tăng trưởng hàm mũ của tất cả mọi thứ về trí tuệ nhân tạo - đầu tư, tính toán và khả năng. Điều này trùng hợp với sự phục hồi của thị trường tiền điện tử và sự chú ý. Chúng tôi rất hào hứng với sự giao thoa của hai làn sóng công nghệ chính này.

Xin chào!

Trong một ngày nắng ở Memphis, Tennessee, một máy bay do thám chuyên dụng với cánh quạt đã lặp đi lặp lại vòng tròn trên một tòa nhà công nghiệp, hành khách trên máy bay chụp ảnh các cơ sở bên dưới một cách cuồng nhiệt. Đây không phải là cảnh gián điệp Chiến tranh Lạnh mà là từ năm 2024. Mục tiêu không phải là một cơ sở quân sự hay một trang trại làm giàu uranium mà là một nhà máy thiết bị gia dụng cũ, hiện đang chứa đựng một trong những siêu máy tính mạnh nhất thế giới. Các hành khách không phải là đặc vụ nước ngoài mà là nhân viên của một công ty trung tâm dữ liệu đối thủ.

Mỗi vài thập kỷ, một công nghệ đột phá xuất hiện với tiềm năng thay đổi đáng kể quỹ đạo của nền văn minh. Những gì xảy ra sau đó là một cuộc đua giữa những thực thể mạnh nhất thế giới để hiện thực hóa công nghệ này trước. Phần thưởng rất lớn, và hậu quả của thất bại quá khủng khiếp, đến mức các thực thể này nhanh chóng huy động toàn bộ trang bị tài nguyên của mình - tài năng con người và vốn - để thống trị công nghệ.

Trong thế kỷ 20, hai công nghệ nổi bật phù hợp với định nghĩa này - vũ khí hạt nhân và khám phá không gian. Cuộc đua để khai thác những công nghệ này liên quan đến những quốc gia mạnh nhất. Chiến thắng của Hoa Kỳ ở cả hai lĩnh vực đã củng cố tình trạng siêu cường của thế giới, mở đầu cho một kỷ nguyên bền vững. Đối với kẻ thất bại - Đức Quốc Xã và Liên Xô - hậu quả là tàn khốc, thậm chí là chết người.

Nhà máy K-25 rộng 44 mẫu Anh tại Oak Ridge, Tennessee, Hoa Kỳ, nơi sản xuất uranium cho vũ khí nguyên tử đầu tiên đã được sản xuất (nguồn)

Chiến thắng của Mỹ đã đi kèm với một mức giá lớn. Dự án Manhattan đã tốn gần 2 tỷ đô la (tương đương khoảng 30 tỷ đô la sau khi điều chỉnh cho lạm phát) và đã thuê được hơn 120.000 người - một trong mỗi nghìn người Mỹ. Cuộc đua vũ trụ đòi hỏi nguồn lực lớn hơn nhiều. Chương trình Apollo tốn 28 tỷ đô la vào những năm 1960 (tương đương khoảng 300 tỷ đô la trong tiền hiện nay) và liên quan đến hơn 400.000 người - một trong 490 người Mỹ. Vào đỉnh điểm vào năm 1966, NASA chiếm 4,4% của ngân sách liên bang Mỹ toàn bộ.

Apollo 11, ngay trước khi cất cánh trong sứ mệnh lên mặt trăng (nguồn)

Sự ra mắt của ChatGPT vào năm 2022 đánh dấu sự bình minh của một cuộc đua mới với quy mô thay đổi nền văn minh - sự theo đuổi của trí tuệ siêu nhân tạo (ASI). Trong khi trí tuệ nhân tạo (AI) đã được kết hợp vào cuộc sống hàng ngày - quản lý cung cấp truyền thông xã hội, gợi ý Netflix và bộ lọc thư rác email - sự xuất hiện của các mô hình ngôn ngữ lớn (LLMs) hứa hẹn biến đổi mọi thứ: năng suất của con người, sáng tạo truyền thông, nghiên cứu khoa học và sự đổi mới chính nó.

Lần này, những người tham gia không phải là các quốc gia (ít nhất, chưa phải), mà là các công ty lớn nhất thế giới (Microsoft, Google, Meta, Amazon), các startup nổi nhất (OpenAI, Anthropic) và người giàu nhất (Elon Musk). Trong khi Big Tech đổ vốn chưa từng có để xây dựng cơ sở hạ tầng để huấn luyện các mô hình mạnh mẽ hơn, các startup đang đảm bảokỷ lục phá vỡtiền vốn rủi ro. Elon, tốt, làm những điều Elon (trung tâm dữ liệu dưới sự giám sát thuộc sở hữu của công ty của anh ấy, xAI).

Và sau đó là tất cả mọi người khác - doanh nghiệp, các công ty nhỏ hơn và các công ty khởi nghiệp - những người có thể không tham vọng xây dựng ASI nhưng rất háo hức để tận dụng các khả năng cắt cạnh mở ra bởi trí tuệ nhân tạo để tối ưu hóa kinh doanh của họ, phá vỡ một ngành công nghiệp hoặc tạo ra hoàn toàn mới. Những phần thưởng tiềm năng quá lớn đến nỗi mọi người đang tranh chấp để giành phần của họ trong nền kinh tế mới được thúc đẩy bởi trí tuệ nhân tạo máy móc này.

Ở trung tâm của cuộc cách mạng AI nằm bộ phận quan trọng nhất của nó: đơn vị xử lý đồ họa (GPU). Ban đầu được thiết kế để cung cấp sức mạnh cho các trò chơi video, chip máy tính chuyên dụng này đã trở thành mặt hàng nóng nhất trên thế giới. Nhu cầu về GPU quá lớn đến nỗi các công ty thường phải chịu đựng danh sách chờ kéo dài hàng thángchỉ để sở hữu một vài chiếc. Nhu cầu này đã đẩy NVIDIA, nhà sản xuất chính của họ, trở thành công ty có giá trị nhất thế giới.

Đối với các doanh nghiệp không thể hoặc không muốn mua trực tiếp GPU, thuê sức mạnh tính toán đã trở thành lựa chọn tốt nhất tiếp theo. Điều này đã thúc đẩy sự phát triển của các nhà cung cấp đám mây trí tuệ nhân tạo - các công ty vận hành trung tâm dữ liệu tinh vi được thiết kế để đáp ứng nhu cầu tính toán của cuộc bùng nổ trí tuệ nhân tạo. Tuy nhiên, sự tăng trưởng đáng kể về nhu cầu cùng tính bất thường của nó có nghĩa là giá cả cũng như tính sẵn có không đảm bảo.

Tôi tranh luận tiền điện tử đó hoạt động như một công nghệ "Coasian", được thiết kế để "bôi trơn bánh xe, mở đường và củng cố cầu" cho những đổi mới đột phá khác phát triển. Khi AI nổi lên như một lực lượng biến đổi trong thời đại của chúng ta, sự khan hiếm và chi phí cắt cổ của việc truy cập GPU là rào cản đối với sự đổi mới. Một số công ty tiền điện tử đang bước vào, nhằm phá vỡ những rào cản này bằng các ưu đãi dựa trên blockchain.

Trong bài viết hôm nay, chúng tôi trước tiên rút lại khỏi tiền điện tử để xem xét những nguyên tắc cơ bản của cơ sở hạ tầng trí tuệ nhân tạo hiện đại - cách mạng lưới thần kinh học, tại sao GPU đã trở thành thiết yếu và cách các trung tâm dữ liệu hiện nay đang tiến triển để đáp ứng nhu cầu tính toán chưa từng có. Sau đó, chúng tôi đi sâu vào các giải pháp tính toán phi tập trung, khám phá nơi mà chúng có thể cạnh tranh một cách thực tế với các nhà cung cấp truyền thống, những lợi thế độc đáo mà mạng lưới tiền điện tử mang lại và lý do tại sao - mặc dù chúng không cung cấp cho chúng ta AGI - chúng vẫn là thiết yếu để đảm bảo lợi ích của trí tuệ nhân tạo vẫn đáp ứng được cho tất cả mọi người.

Hãy bắt đầu bằng lý do tại sao GPU lại quan trọng đến vậy.

GPUs

Đây là David, một tác phẩm điêu khắc đá cẩm thạch cao 17 feet, nặng 6 tấn, được tạo ra bởi thiên tài của nghệ thuật Phục Hưng Ý Michelangelo. Nó miêu tả vị anh hùng trong Kinh Thánh từ câu chuyện về David và Goliath và được coi là một kiệt tác với sự hiển thị hoàn hảo về cấu trúc hình thể con người và sự chú ý tài tình đến phối cảnh và chi tiết.

Giống như tất cả các tác phẩm điêu khắc từ đá cẩm thạch, David bắt đầu như một tấm đá cẩm thạch tuyệt vời và thô sơ. Để có được hình dạng vĩ đại cuối cùng, Michelangelo đã phải cắt bớt từ từ theo phương pháp. Bắt đầu bằng những nét chải rộng để thiết lập hình dạng cơ bản của con người, ông tiến đến những chi tiết ngày càng tinh tế hơn - đường cong của cơ bắp, sự căng thẳng trong dây tĩnh mạch, sự quyết tâm tinh tế trong đôi mắt. Michelangelo mất ba năm để giải phóng David từ khối đá.

Nhưng tại sao lại thảo luận về một tượng đá 500 năm tuổi trong một bài viết về trí tuệ nhân tạo?

Giống như David, mỗi mạng neural bắt đầu với tiềm năng tinh khiết - một tập hợp các nút được khởi tạo bằng các số ngẫu nhiên (trọng số), không có hình dạng như khối đá Carrara khổng lồ đó.

Mô hình thô này liên tục được cung cấp dữ liệu đào tạo — vô số trường hợp đầu vào được ghép nối với đầu ra chính xác của chúng. Mỗi điểm dữ liệu đi qua mạng kích hoạt hàng ngàn phép tính. Tại mỗi nút (tế bào thần kinh), các kết nối đến nhân giá trị đầu vào với trọng lượng của kết nối, tính tổng các sản phẩm này và biến đổi kết quả thông qua "chức năng kích hoạt" xác định cường độ bắn của tế bào thần kinh.

Chính như Michelangelo sẽ bước lùi, đánh giá công việc của mình, và điều chỉnh hướng đi, các mạng thần kinh trải qua quá trình tinh chỉnh. Sau mỗi lần truyền thẳng, mạng so sánh đầu ra của nó với câu trả lời đúng và tính toán lỗi lệch của nó. Qua quá trình gọi là lan truyền ngược, nó đo lường xem mỗi kết nối đã đóng góp bao nhiêu cho lỗi lệch và, giống như những cú đánh búa của Michelangelo, điều chỉnh giá trị của nó. Nếu một kết nối dẫn đến dự đoán sai, ảnh hưởng của nó giảm đi. Nếu nó giúp đạt được câu trả lời đúng, ảnh hưởng của nó tăng lên.

Khi tất cả dữ liệu đi qua mạng (hoàn tất một bước lan truyền và lan truyền ngược cho mỗi điểm dữ liệu), nó đánh dấu sự kết thúc của một “thời kỳ.” Quá trình này lặp lại nhiều lần, mỗi lần điều chỉnh hiểu biết của mạng. Trong những thời kỳ đầu, sự thay đổi trọng lượng là kịch tính khi mạng thực hiện điều chỉnh rộng lớn—giống như những cú đánh đầu tiên mạnh mẽ đó. Trong những thời kỳ sau, những thay đổi trở nên tinh tế hơn, điều chỉnh kết nối cho hiệu suất tối ưu—giống như những phần chạm sửa tinh tế cuối cùng đã làm nổi bật thông tin của David.

Cuối cùng, sau hàng ngàn hoặc hàng triệu lần lặp, mô hình được đào tạo nảy lên. Giống như David đang tự hào đứng trong hình dáng hoàn thiện của nó, mạng thần kinh biến từ tiếng ồn ngẫu nhiên thành một hệ thống có khả năng nhận biết mẫu, đưa ra dự đoán, tạo ra hình ảnh của mèo đi xe tay ga, hoặc cho phép máy tính hiểu và phản ứng bằng ngôn ngữ của con người.

Tại sao lại sử dụng GPU?

Michelangelo, làm việc một mình trên David, chỉ có thể thực hiện một cú đục tại một thời điểm, mỗi lần đòi hỏi phải tính toán chính xác về góc, lực và vị trí. Độ chính xác tỉ mỉ này là lý do tại sao ông phải mất ba năm không mệt mỏi để hoàn thành kiệt tác của mình. Nhưng hãy tưởng tượng hàng ngàn nhà điêu khắc có tay nghề tương đương làm việc với David trong sự phối hợp hoàn hảo - một nhóm trên những lọn tóc, một nhóm khác trên cơ bắp của thân mình, và hàng trăm người khác trên các chi tiết phức tạp của khuôn mặt, bàn tay và bàn chân. Nỗ lực song song như vậy sẽ nén ba năm đó thành những ngày đơn thuần.

Tương tự, trong khi CPU mạnh mẽ và chính xác, nhưng chúng chỉ có thể thực hiện một phép tính tại một thời điểm. Việc huấn luyện mạng thần kinh không yêu cầu một phép tính phức tạp mà hàng trăm triệu phép tính đơn giản - chủ yếu là nhân và cộng tại mỗi nút. Ví dụ, mạng thần kinh mẫu đã đề cập trước đó, chỉ với 18 nút và khoảng 100 kết nối (tham số), có thể được đào tạo trên CPU trong khoảng thời gian hợp lý.

Tuy nhiên, các mô hình mạnh mẽ nhất hiện nay như GPT-4 của OpenAI có 1,8 nghìn tỷ tham số! Ngay cả các mô hình hiện đại nhỏ hơn cũng chứa ít nhất một tỷ tham số. Đào tạo những mô hình này một phép tính mỗi lần sẽ mất hàng thế kỷ. Đây là nơi mà GPU vượt trội: chúng có thể thực hiện một lượng lớn các phép tính toán đơn giản cùng một lúc, làm cho chúng lý tưởng cho việc xử lý nhiều nút mạng thần kinh song song.

Các GPU hiện đại có sức mạnh đáng kinh ngạc. Ví dụ, GPU B200 mới nhất của NVIDIA bao gồm hơn 200 tỷ bóng bán dẫn và hỗ trợ 2.250 nghìn tỷ tính toán song song mỗi giây (2.250 TFLOPS). Một GPU B200 duy nhất có thể xử lý các mô hình có đến 740 tỷ tham số. Những máy này đại diện cho những thành tựu của kỹ thuật hiện đại, điều này giải thích tại sao NVIDIA, bán mỗi đơn vị với giá 40.000 đô la, đã thấy giá cổ phiếu tăng hơn 2.500% trong năm năm.

Jensen Huang trình bày NVIDIA B200

Tuy nhiên, ngay cả những máy móc mạnh mẽ này cũng không thể huấn luyện mô hình AI một mình. Hãy nhớ rằng trong quá trình huấn luyện, mỗi trường hợp dữ liệu phải được chuyển qua mô hình theo chu trình tiến và lùi một cách riêng lẻ. Các mô hình ngôn ngữ lớn hiện đại (LLMs) được huấn luyện trên các tập dữ liệu bao gồm toàn bộ internet. Ví dụ, GPT-4 đã xử lý khoảng 12 nghìn tỷ mã thông báo (khoảng 9 nghìn tỷ từ), và thế hệ tiếp theo của các mô hình được dự kiến sẽ xử lý lên đến 100 nghìn tỷ mã thông báo. Sử dụng một GPU đơn lẻ cho một lượng dữ liệu khổng lồ như vậy vẫn mất hàng thế kỷ.

Giải pháp nằm ở việc thêm một lớp song song khác - tạo cụm GPU nơi các nhiệm vụ huấn luyện được phân phối giữa nhiều GPU hoạt động như một hệ thống thống nhất. Tải công việc huấn luyện mô hình có thể được song song hóa theo ba cách:

Paralel dữ liệu: Nhiều GPU mỗi cái duy trì một bản sao hoàn chỉnh của mô hình mạng thần kinh trong khi xử lý các phần khác nhau của dữ liệu huấn luyện. Mỗi GPU xử lý lô dữ liệu được giao độc lập trước khi đồng bộ định kỳ với tất cả các GPU khác. Trong giai đoạn đồng bộ này, các GPU liên lạc với nhau để tìm một giá trị trung bình chung của trọng số và sau đó cập nhật trọng số cá nhân của họ sao cho chúng tất cả giống nhau. Do đó, họ tiếp tục huấn luyện trên lô dữ liệu của họ một cách độc lập trước khi đến lúc đồng bộ lại.

Khi các mô hình trở nên lớn hơn, một bản sao đơn có thể trở nên quá lớn để vừa với một GPU. Ví dụ, GPU B200 mới nhất chỉ có thể chứa 740 tỷ tham số trong khi GPT-4 là một mô hình có 1,8 nghìn tỷ tham số. Chia sẻ dữ liệu qua các GPU riêng lẻ không hoạt động trong trường hợp này.

Đồng quyền Tensor: Phương pháp này giải quyết ràng buộc bộ nhớ bằng cách phân phối công việc và trọng số của mỗi lớp mô hình trên nhiều GPU. GPU trao đổi tính toán trung gian với cụm máy chủ toàn bộ trong mỗi bước truyền và truyền ngược. Những GPU này thường được nhóm lại thành tám đơn vị, kết nối thông qua NVLink - kết nối trực tiếp GPU-to-GPU tốc độ cao của NVIDIA. Thiết lập này yêu cầu kết nối băng thông cao (lên đến 400 Gb/s) và độ trễ thấp giữa các GPU. Một cụm tensor hoạt động hiệu quả như một GPU khổng lồ duy nhất.

Song song đường ống: Phương pháp này chia mô hình thành nhiều GPU, mỗi GPU xử lý các lớp cụ thể. Dữ liệu chảy qua các GPU theo thứ tự, giống như một cuộc đua chạy tiếp sức, trong đó mỗi vận động viên (GPU) quản lý phần của họ trước khi chuyển giao. Song song đường ống đặc biệt hiệu quả cho việc kết nối các máy chủ 8-GPU khác nhau trong trung tâm dữ liệu, sử dụng các mạng InfiniBand tốc độ cao để giao tiếp giữa các máy chủ. Mặc dù yêu cầu giao tiếp của nó vượt qua song song dữ liệu, nhưng vẫn thấp hơn sự trao đổi GPU-to-GPU tập trung của song song tensor.

Quy mô của các cụm hiện đại là đáng kinh ngạc. GPT-4, với 1,8 nghìn tỷ tham số và 120 lớp, yêu cầu 25.000 GPU A100 để huấn luyện. Quá trình này mất ba tháng và chi phí hơn 60 triệu đô la. A100 đã cũ hai thế hệ; sử dụng các GPU B200 hiện nay chỉ yêu cầu khoảng 8.000 đơn vị và 20 ngày huấn luyện. Chỉ là một minh chứng khác cho tốc độ phát triển nhanh chóng của trí tuệ nhân tạo.

Nhưng lớp mô hình GPT-4 hiện tại đã cũ kỹ rồi. Việc huấn luyện cho thế hệ tiếp theo của các mô hình tiên tiến đang diễn ra tại các trung tâm dữ liệu chứa các cụm 100.000 B100 hoặc H100 GPU (loại sau cũ hơn một thế hệ). Những cụm này, đại diện cho hơn 4 tỷ USD chi phí vốn GPU một mình, là siêu máy tính mạnh nhất của loài người, cung cấp ít nhất là bốn lần sức mạnh tính toán nguyên thô so với các máy tính siêu vi của chính phủ.

Ngoài việc bảo vệ tính toán thô, ứng viên ASI gặp phải một vấn đề khác khi cố gắng thiết lập các cụm này: điện. Mỗi GPU này tiêu thụ 700W công suất. Khi kết hợp 100.000 GPU này, toàn bộ cụm (bao gồm phần cứng hỗ trợ) tiêu thụ hơn 150MW công suất. Để đặt điều này vào khía cạnh, sự tiêu thụ này tương đương với một thành phố có 300.000 người - tương đương với New Orleans hoặc Zurich.

Sự điên cuồng không ngừng ở đây. Hầu hết những người mơ ước trở thành ASI tin rằng LLM điều chỉnh pháp luật—điều này cho thấy hiệu suất mô hình cải thiện có thể dự đoán được với sự gia tăng kích thước mô hình, kích thước tập dữ liệu và điện toán đào tạo—sẽ tiếp tục đúng. Các kế hoạch đã được thực hiện để đào tạo các mô hình thậm chí còn mạnh mẽ hơn. Đến năm 2025, chi phí của mỗi cụm đào tạo dự kiến sẽ vượt quá 10 tỷ USD. Đến năm 2027, trên 100 tỷ USD. Khi những con số này tiếp cận đầu tư của chính phủ Hoa Kỳ vào các chương trình Apollo, nó trở nên rõ ràng tại sao đạt được ASI đã nổi lên như là cuộc đua xác định của thời đại chúng ta.

Các chỉ số cho các mô hình bắt đầu từ GPT-5 là ước tính

Khi tiêu thụ điện tăng tỷ lệ với kích thước cụm, các chạy huấn luyện năm sau sẽ đòi hỏi hơn 1GW công suất. Năm sau đó, 10GW hoặc hơn. Với không có dấu hiệu của sự mở rộng này chậm lại, các trung tâm dữ liệu dự kiến sẽ tiêu thụ khoảng 4.5% của tổng sản lượng toàn cầu vào năm 2030. Lưới điện hiện có, đã đang gặp khó khăn với yêu cầu của mô hình hiện tại, không thể tạo đủ năng lượng cho các cụm tương lai. Điều này đặt ra một câu hỏi quan trọng: nguồn năng lượng này sẽ đến từ đâu? Công nghệ lớn đang tiếp cận theo hướng hai đầu.

Về lâu dài, giải pháp khả thi duy nhất là cho những người khao khát ASI tự tạo ra điện của họ. Với các cam kết về khí hậu của họ, năng lượng này phải đến từ các nguồn tái tạo. Năng lượng hạt nhân nổi bật là giải pháp chính. Amazon gần đây đã muamột trung tâm dữ liệu được cung cấp bởi một nhà máy điện hạt nhân với giá 650 triệu đô la. Microsoftđã thuêmột chuyên gia về Công nghệ hạt nhân và là đưa nhà máy Three Mile Island lịch sử trở lại hoạt động. Google có mua lại nhiều nhà máy điện hạt nhân nhỏtừ Kairos Power, California. Sam Altman của OpenAI đã hỗ trợ các startup năng lượng như Helion, Exowatt, vàOklo.

Microsoft đang mở lại Nhà máy hạt nhân Three Mile Island (nguồn hình ảnh)

Trong khi hạt giống năng lượng hạt nhân được gieo bây giờ, quả (hoặc sức mạnh) sẽ mất vài năm để đạt được. Còn nhu cầu năng lượng cho việc tạo ra các mô hình ngay lập tức thế nào? Giải pháp tạm thời liên quan đến việc đào tạo phân tán trên nhiều trung tâm dữ liệu. Thay vì tập trung nhu cầu năng lượng khổng lồ tại một địa điểm, các công ty như Microsoft và Google đang phân phối các cụm đào tạo của họ trên nhiều địa điểm.

Thử thách, tất nhiên, là đưa những hệ thống phân phối này làm việc với nhau một cách hiệu quả. Ngay cả ở tốc độ ánh sáng, dữ liệu cũng mất khoảng 43ms để đi lại từ đông sang tây của Hoa Kỳ - một sự vĩnh cửu trong các thuật ngữ máy tính. Ngoài ra, nếu chỉ một con chip lạc hậu đi sau khoảng 10%, nó sẽ làm chậm toàn bộ quá trình đào tạo với cùng một tỷ lệ.

Giải pháp nằm ở việc kết nối trung tâm dữ liệu trên nhiều địa điểm với mạng quang tốc độ cao và áp dụng một kết hợp các kỹ thuật song song đã thảo luận trước đó để đồng bộ hoá các hoạt động của họ. Song song với tensor được áp dụng cho GPU trong mỗi máy chủ, cho phép chúng hoạt động như một đơn vị duy nhất. Song song theo đường ống, với yêu cầu mạng thấp hơn, được sử dụng để kết nối các máy chủ trong cùng một trung tâm dữ liệu. Cuối cùng, các trung tâm dữ liệu ở các vị trí khác nhau (được gọi là “đảo”) đồng bộ thông tin của họ định kỳ bằng song song dữ liệu.

Trước đó, chúng tôi đã nhận thấy rằng đồng thời hóa dữ liệu không hiệu quả đối với các GPU cá nhân vì chúng không thể đáp ứng mô hình lớn độc lập. Tuy nhiên, động thái này thay đổi khi chúng ta đồng thời hóa các đảo - mỗi đảo chứa hàng nghìn GPU - thay vì các đơn vị cá nhân. Dữ liệu huấn luyện được phân phối trên mỗi đảo và các đảo này đồng bộ hóa định kỳ qua kết nối quang sợi tương đối chậm hơn (so với NVLink và Infiniband).

Trung tâm dữ liệu

Hãy chuyển sự tập trung của chúng ta từ việc đào tạo và GPU sang chính các trung tâm dữ liệu.

Hai mươi năm trước, Amazon ra mắt Amazon Web Services (AWS) - một trong những doanh nghiệp có tác động lớn nhất trong lịch sử - và tạo ra một ngành công nghiệp hoàn toàn mới được biết đến là đám mây tính. Ngày nay, các nhà lãnh đạo đám mây (Amazon, Microsoft, Google và Oracle) đang thống trị thoải mái, tạo ra tổng doanh thu hằng năm gần 300 tỷ đô la với lợi nhuận từ 30-40%. Bây giờ, sự xuất hiện của trí tuệ nhân tạo đã tạo ra cơ hội mới trong một thị trường đã lâu nhưng vẫn giữ tính độc quyền.

Yêu cầu vật lý, sự phức tạp kỹ thuật và kinh tế của các trung tâm dữ liệu AI chuyên sử dụng GPU khác biệt rõ ràng so với các trung tâm tương đương truyền thống.

Chúng tôi đã thảo luận trước đó về cách mà các GPU tiêu tốn năng lượng. Điều này dẫn đến việc trung tâm dữ liệu AI có mật độ năng lượng cao hơn và do đó tạo ra nhiều hơn nhiệt. Trong khi các trung tâm dữ liệu truyền thống sử dụng quạt khổng lồ (làm mát bằng không khí) để tiêu hao nhiệt, cách tiếp cận này không đủ và cũng không có tính khả thi tài chính cho các cơ sở vật chất AI. Thay vào đó, các trung tâm dữ liệu AI đang áp dụng các hệ thống làm mát bằng chất lỏng, nơi mà các khối nước gắn trực tiếp vào các GPU và các thành phần nóng khác để tiêu hao nhiệt một cách hiệu quả và yên tĩnh hơn. (Các GPU B200 đi kèm với kiến trúc này tích hợp sẵn). Việc hỗ trợ các hệ thống làm mát bằng chất lỏng đòi hỏi phải thêm các tháp làm mát lớn, một cơ sở hạ tầng hệ thống nước tập trung và ống dẫn để vận chuyển nước tới và từ tất cả các GPU - một sự sửa đổi cơ bản cho cơ sở hạ tầng trung tâm dữ liệu.

Ngoài năng lượng tiêu thụ tuyệt đối cao hơn, các trung tâm dữ liệu AI có yêu cầu tải đặc biệt. Trong khi các trung tâm dữ liệu truyền thống duy trì việc tiêu thụ năng lượng ổn định, mẫu tiêu thụ năng lượng của công việc AI biến đổi nhiều hơn. Sự biến động này xảy ra vì GPU định kỳ chuyển đổi giữa việc hoạt động với công suất 100% và chậm lại gần dừng hoạt động khi quá trình đào tạo đạt đến các điểm kiểm tra, nơi trọng lượng được lưu trữ vào bộ nhớ hoặc, như chúng ta đã thấy trước đó, được đồng bộ hóa với các đảo khác. Các trung tâm dữ liệu AI yêu cầu cơ sở hạ tầng điện năng đặc biệt để quản lý các biến động tải này.

Xây dựng các cụm GPU khó hơn rất nhiều so với việc xây dựng đám mây máy tính thông thường. GPU cần phải nói chuyện với nhau rất nhanh. Để làm điều này xảy ra, chúng phải được đóng gói rất gần nhau. Một cơ sở AI điển hình cần hơn 200.000 cáp đặc biệt gọi là kết nối InfiniBand. Những cáp này cho phép GPU truyền thông. Nếu chỉ một cáp dừng hoạt động, toàn bộ hệ thống sẽ tạm ngừng hoạt động. Quá trình đào tạo không thể tiếp tục cho đến khi cáp đó được sửa chữa.

Yêu cầu cơ sở hạ tầng này làm cho việc nâng cấp các trung tâm dữ liệu truyền thống bằng GPU hiệu năng cao để chuẩn bị cho trí tuệ nhân tạo trở nên gần như không thể thực hiện được. Một cuộc nâng cấp như vậy sẽ đòi hỏi một cuộc cải tổ cấu trúc gần như hoàn toàn. Thay vào đó, các công ty đang xây dựng các trung tâm dữ liệu mới được thiết kế đặc biệt cho trí tuệ nhân tạo từ đầu, với các tổ chức khác nhau thực hiện điều này ở quy mô khác nhau.

Ở hàng đầu, các công ty công nghệ hàng đầu đang tranh nhau xây dựng trung tâm dữ liệu AI riêng của mình. Meta đang đầu tư mạnh vào các cơ sở chỉ dành cho việc phát triển AI riêng của mình, coi đó là một khoản đầu tư vốn trực tiếp vì nó không cung cấp dịch vụ đám mây. Microsoft đang xây dựng các trung tâm khổng lồ tương tự để cung cấp năng lượng cho cả các dự án AI riêng của mình và phục vụ khách hàng quan trọng như OpenAI. Oracle cũng đã mạnh mẽ tham gia vào không gian này, đảm bảo OpenAI là một khách hàng đáng chú ý. Amazon tiếp tục mở rộng cơ sở hạ tầng của mình, đặc biệt là để hỗ trợ các công ty AI mới nổi như Anthropic. xAI của Elon Musk, không muốn phụ thuộc vào một công ty khác, đã chọn xây dựng một cụm GPU 100.000 riêng của mình.

Bên trong trung tâm dữ liệu GPU H100 100.000 của xAI (nguồn)

Bên cạnh các đối thủ cũ, đã xuất hiện các “đám mây mới” - các nhà cung cấp đám mây chuyên nghiệp tập trung hoàn toàn vào tính toán GPU cho các khối công việc AI. Các đám mây mới này được chia thành hai loại khác nhau dựa trên quy mô.

Các nhà cung cấp neocloud lớn, bao gồm gate,CoreWeave, Crusoe, và LLama Labs, vận hành các nhóm máy tính có hơn 2.000 GPU. Họ khác biệt với các dịch vụ đám mây truyền thống ở hai cách: cung cấp giải pháp cơ sở hạ tầng tùy chỉnh thay vì gói tiêu chuẩn, và yêu cầu cam kết dài hạn từ khách hàng thay vì sắp xếp theo hình thức trả tiền theo sử dụng.

Mô hình kinh doanh của họ tận dụng các thỏa thuận dài hạn này và khả năng thanh toán của khách hàng để đảm bảo tài chính cơ sở hạ tầng. Doanh thu đến từ mức phí cao được tính cho các dịch vụ chuyên biệt và lợi nhuận từ sự chênh lệch giữa chi phí tài chính thấp và thanh toán của khách hàng.

Đây là cách mà một nhà cung cấp neocloud thông thường hoạt động: một nhà cung cấp neocloud đảm bảo một hợp đồng ba năm với một AI startup được tài trợ tốt cho 10.000 GPU H100 với giá 40 triệu đô la mỗi tháng. Sử dụng luồng doanh thu đảm bảo này là 1,44 tỷ đô la, nhà cung cấp đảm bảo việc tài trợ ngân hàng ưu đãi (với lãi suất 6%) để mua và lắp đặt cơ sở hạ tầng trị giá 700 triệu đô la. Doanh thu hàng tháng 40 triệu đô la bao gồm 10 triệu đô la chi phí vận hành và 20 triệu đô la thanh toán khoản vay, tạo ra 10 triệu đô la lợi nhuận hàng tháng trong khi startup nhận được sức mạnh tính toán tùy chỉnh, chuyên biệt.

Mô hình này yêu cầu lựa chọn khách hàng cẩn thận đặc biệt. Các nhà cung cấp thông thường tìm kiếm các công ty có dự trữ tiền mặt lớn hoặc có sự hỗ trợ mạnh mẽ từ các nhà đầu tư - thường là định giá từ 500 triệu đô la trở lên.

Small neoclouds cung cấp cụm GPU từ 2.000 hoặc ít hơn và phục vụ cho một đối tượng khách hàng khác của thị trường trí tuệ nhân tạo - các start-up nhỏ và vừa. Các công ty này hoặc đào tạo mô hình nhỏ hơn (tối đa 70 tỷ tham số) hoặc điều chỉnh các mô hình nguồn mở. (Điều chỉnh tinh chỉnh là quá trình điều chỉnh mô hình cơ sở cho các trường hợp sử dụng cụ thể.) Cả hai công việc này đều yêu cầu tính toán vừa phải nhưng được dành riêng trong thời gian ngắn.

Những nhà cung cấp này cung cấp tính toán theo yêu cầu với giá theo giờ cho việc truy cập cụm không ngừng, có thời hạn cố định. Mặc dù điều này tốn kém hơn so với hợp đồng dài hạn, nhưng nó mang lại sự linh hoạt cho các doanh nghiệp khởi nghiệp để thử nghiệm mà không cần phải cam kết với các thỏa thuận triệu đô.

Cuối cùng, ngoài các công ty lớn về đám mây và các nhà cung cấp dịch vụ đám mây mới, chúng ta còn có các trung gian trong không gian cơ sở hạ tầng trí tuệ nhân tạo: các nền tảng và người tổng hợp. Những trung gian này không sở hữu cơ sở hạ tầng GPU mà thay vào đó kết nối chủ sở hữu tài nguyên tính toán với những người cần chúng.

Các nhà cung cấp nền tảng như gate HydraHostFluidstackphục vụ như Shopify của tính toán GPU. Tương tự như Shopify cho phép các nhà bán hàng mở cửa hàng trực tuyến mà không cần xây dựng cơ sở hạ tầng thương mại điện tử, những nền tảng này cho phép các nhà điều hành trung tâm dữ liệu và chủ sở hữu GPU cung cấp dịch vụ tính toán mà không cần phát triển giao diện khách hàng của riêng họ. Chúng cung cấp một gói kỹ thuật hoàn chỉnh cho việc vận hành một doanh nghiệp tính toán GPU, bao gồm các công cụ quản lý cơ sở hạ tầng, hệ thống cung cấp khách hàng và giải pháp thanh toán.

Các trình tự tập hợp thị trường như gate.ioVast.aichức năng như Amazon của thế giới GPU. Họ tạo ra một thị trường kết hợp các công cụ tính toán đa dạng từ các nhà cung cấp khác nhau - từ các thẻ RTX dành cho người tiêu dùng đến GPU H100 chuyên nghiệp. Chủ sở hữu GPU liệt kê tài nguyên của họ với các chỉ số hiệu suất chi tiết và xếp hạng đáng tin cậy, trong khi khách hàng mua thời gian tính toán thông qua một nền tảng tự phục vụ.

Gate

Cho đến nay, cuộc thảo luận của chúng ta đã tập trung vào việc đào tạo (hoặc điều chỉnh tinh chỉnh) các mô hình. Tuy nhiên, sau khi được đào tạo, một mô hình phải được triển khai để phục vụ người dùng cuối - một quá trình gọi là suy luận. Mỗi khi bạn trò chuyện với ChatGPT, bạn đang sử dụng các GPU chạy các tải công việc suy luận mà lấy đầu vào của bạn và tạo ra phản ứng của mô hình. Hãy quay trở lại để thảo luận về tượng đá trong một phút.

Đây cũng là David - không phải bản gốc của Michelangelo, mà là một tấm thạch cao được Nữ hoàng Victoria ủy quyền vào năm 1857 cho Bảo tàng Victoria và Albert của London. Trong khi Michelangelo đã dành ba năm mệt mỏi cẩn thận sứt mẻ đá cẩm thạch để tạo ra bản gốc ở Florence, khuôn thạch cao này được làm từ khuôn trực tiếp của bức tượng — tái tạo hoàn hảo mọi đường cong, góc độ và chi tiết mà Michelangelo đã chế tác. Công việc sáng tạo chuyên sâu đã xảy ra một lần. Sau đó, nó trở thành vấn đề sao chép trung thực các tính năng này. Ngày nay, bản sao của David xuất hiện ở khắp mọi nơi từ phòng bảo tàng đến sân sòng bạc Las Vegas.

Đây chính xác là cách suy luận hoạt động trong AI. Đào tạo một mô hình ngôn ngữ lớn giống như quá trình điêu khắc ban đầu của Michelangelo - tính toán chuyên sâu, tốn thời gian và tài nguyên nặng khi mô hình dần dần học đúng "hình dạng" của ngôn ngữ thông qua hàng triệu điều chỉnh nhỏ. Nhưng sử dụng mô hình được đào tạo — suy luận — giống như tạo ra một bản sao. Khi bạn trò chuyện với ChatGPT, bạn không dạy nó ngôn ngữ từ đầu mà sử dụng một bản sao của một mô hình có các thông số (như đường cong và góc chính xác của David) đã được hoàn thiện.

Khối lượng công việc suy luận về cơ bản khác với đào tạo. Mặc dù việc đào tạo đòi hỏi các cụm GPU mới nhất, lớn, dày đặc như H100 để xử lý các tính toán chuyên sâu, suy luận có thể chạy trên các máy chủ GPU đơn lẻ sử dụng phần cứng cũ hơn như A100 hoặc thậm chí là thẻ cấp tiêu dùng, giúp tiết kiệm chi phí hơn đáng kể. Điều đó đang được nói, khối lượng công việc suy luận có những yêu cầu riêng của chúng:

  • Phạm vi địa lý rộng: Mô hình cần được triển khai trên nhiều trung tâm dữ liệu trên toàn thế giới để đảm bảo người dùng tại Singapore nhận được phản hồi cũng nhanh như người dùng tại San Francisco
  • Uptime cao: Khác với việc huấn luyện mô hình, mô hình dự đoán cần phải hoạt động liên tục 24/7 vì người dùng mong đợi nhận được phản hồi ngay lập tức bất cứ lúc nào.
  • Redundancy: Nhiều máy chủ cần sẵn sàng xử lý yêu cầu trong trường hợp một số máy chủ gặp sự cố hoặc quá tải

Những đặc điểm này làm cho các khối công việc suy luận lý tưởng cho các mô hình giá định vị. Dưới mô hình giá định vị, tài nguyên GPU có sẵn với mức giảm giá đáng kể - thường là 30-50% dưới mức giá theo yêu cầu - với hiểu biết rằng dịch vụ có thể tạm dừng khi khách hàng ưu tiên cao hơn cần tài nguyên. Mô hình này phù hợp cho suy luận vì triển khai dự phòng cho phép khối công việc chuyển đổi nhanh chóng sang GPU có sẵn nếu bị gián đoạn.

Trong bối cảnh này của GPUs và AI cloud computing, chúng ta hiện đã có thể bắt đầu khám phá xem tiền điện tử phù hợp vào đâu trong tất cả những điều này. Hãy (cuối cùng) bắt đầu thôi.

Vị trí của tiền điện tử

Các dự án và báo cáo thường trích dẫn quan sát của Peter Thiel rằng “Trí tuệ nhân tạo đang tập trung, tiền điện tử đang phân tán” khi thảo luận về vai trò của tiền điện tử trong việc đào tạo trí tuệ nhân tạo. Mặc dù nhận định của Thiel không thể chối cãi, chúng ta vừa chứng kiến rõ ràng sự ưu thế rõ ràng của Big Tech trong việc đào tạo trí tuệ nhân tạo mạnh mẽ—thường bị sử dụng sai lệch để gợi ý rằng tiền điện tử và máy tính phân tán cung cấp giải pháp chính để cân bằng ảnh hưởng của Big Tech.

Những tuyên bố như vậy phản ánh lại những phát biểu quá đà trước đó về tiềm năng của tiền điện tử trong việc cách mạng hóa mạng xã hội, trò chơi và vô số ngành công nghiệp khác. Chúng không chỉ gây hiệu ứng ngược mà còn, như tôi sẽ bàn luận trong thời gian ngắn, không thực tế - ít nhất là trong tương lai gần.

Thay vào đó, tôi sẽ có một cách tiếp cận thực tế hơn. Tôi sẽ giả định rằng một công ty khởi nghiệp AI đang tìm kiếm tính toán không quan tâm đến các nguyên lý phân cấp hoặc sự phản đối ý thức hệ đối với Big Tech. Thay vào đó, họ có một vấn đề — họ muốn truy cập vào tính toán GPU đáng tin cậy với chi phí thấp nhất có thể. Nếu một dự án tiền điện tử có thể cung cấp giải pháp tốt hơn cho vấn đề này so với các lựa chọn thay thế không phải tiền điện tử, họ sẽ sử dụng nó.

Với mục đích đó, hãy hiểu trước ai là đối thủ cạnh tranh của các dự án crypto. Trước đó, chúng ta đã thảo luận về các danh mục khác nhau của nhà cung cấp đám mây AI - Big Tech và hyperscalers, big neoclouds, small neoclouds, nhà cung cấp nền tảng và các thị trường.

Lý thuyết cơ bản đằng sau sự tính toán phi tập trung (giống như tất cả các dự án DePIN) là thị trường tính toán hiện tại hoạt động không hiệu quả. Cầu GPU vẫn rất cao, trong khi nguồn cung bị phân mảnh và không được tận dụng đầy đủ trong các trung tâm dữ liệu toàn cầu và các nhà riêng lẻ. Hầu hết các dự án trong lĩnh vực này cạnh tranh trực tiếp với các sàn giao dịch bằng cách tổng hợp nguồn cung phân tán này để giảm thiểu sự không hiệu quả.

Với điều đó đã được thiết lập, hãy xem làm thế nào những dự án này (và thị trường tính toán nói chung) có thể hỗ trợ các khối lượng công việc AI khác nhau - đào tạo, điều chỉnh tinh chỉnh và suy luận.

Đào tạo

Điều quan trọng nhất là không, ASI sẽ không được đào tạo trên một mạng lưới toàn cầu của GPU phi tập trung. Ít nhất là không trên quỹ đạo hiện tại của AI. Dưới đây là lý do.

Trước đó, chúng ta đã thảo luận về việc cụm mô hình nền tảng đang trở nên rất lớn. Bạn cần 100.000 GPU mạnh nhất trên thế giới để bắt đầu cạnh tranh. Con số này chỉ tăng lên theo từng năm. Đến năm 2026, dự kiến chi phí cho một lần huấn luyện sẽ vượt qua 100 tỷ đô la, có thể cần tới một triệu GPU hoặc hơn.

Chỉ có các công ty công nghệ lớn, được hỗ trợ bởi các neocloud lớn và các đối tác trực tiếp của Nvidia, mới có thể lắp ráp các cụm máy tính với quy mô như vậy. Hãy nhớ rằng, chúng ta đang trong cuộc đua về Trí tuệ Nhân tạo Siêu thông minh (ASI), và tất cả các người tham gia đều cực kỳ động viên và vốn hóa. Nếu có thêm nguồn cung cấp này nhiều GPU (thực tế không có), thì họ sẽ là những người đầu tiên mua chúng.

Ngay cả khi một dự án tiền điện tử nào đó thu thập đủ tính toán cần thiết, hai rào cản cơ bản ngăn chặn sự phát triển của trí tuệ nhân tạo phi tập trung:

Đầu tiên, các GPU vẫn cần được kết nối thành các cụm lớn để hoạt động hiệu quả. Ngay cả khi những cụm này được chia thành các hòn đảo trong thành phố, chúng vẫn phải được kết nối bằng các đường cáp quang chuyên dụng. Cả hai điều này đều không thể thực hiện trong một môi trường phi tập trung. Ngoài việc mua GPU, việc thiết lập các trung tâm dữ liệu sẵn sàng cho trí tuệ nhân tạo đòi hỏi kế hoạch tỉ mỉ - thường là một quá trình kéo dài từ một đến hai năm. (xAI đã hoàn thành chỉ trong 122 ngày nhưng khó có khả năng Elon sẽ phát hành một mã thông báo trong thời gian sớm nhất.)

Thứ hai, việc chỉ tạo ra một trung tâm dữ liệu AI không đủ để sinh ra một trí tuệ siêu việt AI. Nhưng người sáng lập Anthropic Dario Amodei giải thích gần đâyTrong AI, việc mở rộng tương tự như phản ứng hóa học. Giống như một phản ứng hóa học yêu cầu nhiều chất tham gia với tỷ lệ chính xác để tiến hành, việc mở rộng AI thành công phụ thuộc vào ba yếu tố cần thiết phát triển đồng thời: mạng lớn hơn, thời gian đào tạo lâu hơn và tập dữ liệu lớn hơn. Nếu bạn mở rộng một thành phần mà không có các yếu tố khác, quá trình sẽ ngừng lại.

Ngay cả khi chúng ta quản lý bằng cách nào đó tích lũy cả tính toán và làm cho các cụm hoạt động cùng nhau, chúng ta vẫn cần hàng terabyte dữ liệu chất lượng cao để mô hình được đào tạo trở nên tốt. Nếu không có nguồn dữ liệu độc quyền của Big Tech, vốn để ký các thỏa thuận trị giá hàng triệu đô la với các diễn đàn trực tuyến và phương tiện truyền thông, hoặc các mô hình hiện có để tạo dữ liệu tổng hợp, việc có được dữ liệu đào tạo đầy đủ là không thể.

Gần đây đã có một số suy đoán rằng các quy luật tỷ lệ có thể đạt đến mức giới hạn, với LLMs có thể đạt đến mức giới hạn về hiệu suất. Một số người hiểu điều này như một cơ hội cho phát triển trí tuệ nhân tạo phi tập trung. Tuy nhiên, điều này bỏ qua một yếu tố quan trọng - tập trung tài năng. Các công ty Big Tech và các phòng thí nghiệm trí tuệ nhân tạo hiện nay đang có các nhà nghiên cứu hàng đầu thế giới. Bất kỳ con đường thay thế đột phá nào đến AGI cũng có thể nổi lên từ những trung tâm này. Với cảnh cạnh tranh hiện tại, những khám phá như vậy sẽ được bảo mật chặt chẽ.

Xem xét tất cả các lập luận này, tôi chắc chắn 99,99% rằng việc đào tạo ASI — hoặc thậm chí các mô hình mạnh nhất thế giới — sẽ không được đào tạo về một dự án tính toán phi tập trung. Trong trường hợp đó, tiền điện tử thực sự có thể giúp đào tạo những mô hình nào?

Để các mô hình được đào tạo trên các cụm GPU riêng biệt được đặt ở các vị trí địa lý khác nhau, chúng ta cần triển khai song song dữ liệu giữa chúng. (Hãy nhớ lại rằng song song dữ liệu là cách các đảo GPU khác nhau, mỗi đảo hoạt động trên các khối dữ liệu đào tạo riêng biệt, đồng bộ hóa với nhau). Mô hình được đào tạo càng lớn, lượng dữ liệu cần trao đổi giữa các đảo này càng lớn. Như chúng ta đã thảo luận, đối với các mô hình biên giới có hơn một nghìn tỷ tham số, băng thông cần thiết đủ lớn để yêu cầu kết nối cáp quang chuyên dụng.

Tuy nhiên, đối với các mô hình nhỏ hơn, yêu cầu băng thông giảm tỉ lệ. Những đột phá gần đây trong các thuật toán đào tạo ít giao tiếp, đặc biệt là trong đồng bộ hóa trễ, đã tạo ra những cơ hội triển vọng cho việc đào tạo các mô hình nhỏ đến trung bình theo cách phi tập trung. Hai nhóm đang dẫn đầu những nỗ lực thử nghiệm này.

Nous Researchlà một công ty tăng tốc AI và một nhà lãnh đạo trong việc phát triển AI mã nguồn mở. Họ nổi tiếng với dòng mô hình ngôn ngữ Hermes và các dự án đổi mới như World Sim. Trước đây, họ đã vận hành một mạng lưới BitTensor LLM-ranking trong vài tháng. Họ đã thử sức mình trong việc tính toán phi tập trung bằng cách phát hành DisTrODự án (Distributed Training Over the Internet), nơi họ đã thành công trong việc huấn luyện mô hình Llama-2 với 1.2 tỷ tham số và đạt được giảm yêu cầu băng thông giữa GPU lên đến 857 lần.

Báo cáo DisTrO của Nous Research

Trí tuệ nguyên tố, một startup phát triển cơ sở hạ tầng cho trí tuệ nhân tạo phi tập trung với quy mô lớn, nhằm mục đích tổng hợp tài nguyên tính toán toàn cầu và cho phép huấn luyện cộng tác các mô hình hàng đầu thông qua hệ thống phân tán. Chúng tôi Khung việc OpenDiLoCo (thực hiện của DeepMind Phương pháp phân tán thấp giao tiếp) đã thành công trong việc huấn luyện một mô hình có một tỷ tham số trên hai lục địa và ba quốc gia trong khi duy trì tỷ lệ sử dụng tính toán từ 90-95%.

Nhưng làm sao để các chạy huấn luyện phi tập trung này hoạt động?

Song song dữ liệu truyền thống yêu cầu GPU chia sẻ và tính trung bình trọng số của chúng sau mỗi bước đào tạo — không thể qua kết nối internet. Thay vào đó, các dự án này cho phép mỗi "hòn đảo" GPU đào tạo độc lập trong hàng trăm bước trước khi đồng bộ. Hãy nghĩ về nó giống như các nhóm nghiên cứu độc lập làm việc trong cùng một dự án: thay vì liên tục kiểm tra với nhau, họ đạt được tiến bộ đáng kể một cách độc lập trước khi chia sẻ những phát hiện của họ.

DisTrO và OpenDiLoCo chỉ đồng bộ mỗi 500 bước, sử dụng phương pháp tối ưu hóa kép:

  • Một trình tối ưu hóa “nội tại” xử lý các cập nhật cục bộ trên từng GPU, giống như một đội làm các khám phá cục bộ
  • Một trình tối ưu hóa "bên ngoài" quản lý các đồng bộ định kỳ giữa các GPU, hoạt động như một người phối hợp đưa tất cả các kết quả lại với nhau

Khi chúng đồng bộ hóa, thay vì chia sẻ tất cả các trọng số, chúng chia sẻ một "gradient giả" — về cơ bản là sự khác biệt giữa trọng số hiện tại của chúng và trọng số từ lần đồng bộ hóa cuối cùng. Điều này rất hiệu quả, giống như chỉ chia sẻ những gì đã thay đổi trong tài liệu thay vì gửi toàn bộ tài liệu mỗi lần.

INTELLECT-1, một thực hiện thực tế của OpenDiLoCo bởi Prime Intellect, đang đẩy tiếp cách tiếp cận này một bước xa hơn bằng cách huấn luyện một mô hình có 10 tỷ tham số - nỗ lực huấn luyện phân tán lớn nhất cho đến nay. Họ đã thêm các tối ưu hóa quan trọng như:

  • Nén dữ liệu mà họ cần chia sẻ, làm cho giao tiếp hiệu quả hơn nhiều
  • Xây dựng các hệ thống dự phòng để đào tạo có thể tiếp tục ngay cả khi một số máy tính ngừng hoạt động
  • Làm quá trình đồng bộ hóa cực kỳ nhanh chóng - ít hơn một phút

INTELLECT-1, được đào tạo bởi hơn 20 cụm GPU trên toàn cầu, gần đây đã hoàn thànhpretrainingvà sắp được phát hành dưới dạng một mô hình mã nguồn mở hoàn chỉnh.

Bảng điều khiển đào tạo INTELLECT-1

Teams như gateMacrocosmosđang sử dụng các thuật toán tương tự đểtrain models trong hệ sinh thái Bittensor.

Nếu những thuật toán đào tạo phi tập trung này tiếp tục được cải thiện, chúng có thể hỗ trợ các mô hình lên đến 100 tỷ tham số với thế hệ GPU tiếp theo. Ngay cả các mô hình có kích thước như vậy cũng có thể rất hữu ích cho nhiều trường hợp sử dụng khác nhau:

  1. Nghiên cứu và thử nghiệm với kiến trúc mới mà không yêu cầu tính toán quy mô biên giới
  2. Các mô hình đa dụng nhỏ hơn được tối ưu hóa cho hiệu suất và tốc độ hơn là thông minh thô
  3. Mô hình đặc thù của lĩnh vực

Fine-tuning

Fine-tuning là quá trình lấy một mô hình cơ sở đã được huấn luyện trước (thường là một mô hình mã nguồn mở do Meta, Mistral hoặc Alibaba phát triển) và tiếp tục huấn luyện trên một tập dữ liệu cụ thể để thích nghi với các nhiệm vụ hoặc lĩnh vực cụ thể. Điều này yêu cầu tính toán ít hơn đáng kể so với việc huấn luyện từ đầu vì mô hình đã học được các mẫu ngôn ngữ chung và chỉ cần điều chỉnh trọng số cho lĩnh vực mới.

Xác định yêu cầu tính toán để điều chỉnh tỷ lệ với kích thước mô hình. Giả sử đào tạo trên một H100:

  • Các mô hình nhỏ (thông số 1-7B): GPU đơn, hoàn thành trong vòng 12 giờ
  • Mô hình trung bình (7-13B): 2-4 cụm GPU, hoàn thành trong vòng 36 giờ
  • Mô hình lớn (> 30B): lên đến 8 cụm GPU, hoàn thành trong vòng 4 ngày

Dựa trên các thông số kỹ thuật này, việc điều chỉnh tinh chỉnh không đòi hỏi các thuật toán huấn luyện phân tán phức tạp đã được thảo luận trước đó. Mô hình theo yêu cầu, nơi nhà phát triển thuê cụm GPU trong một khoảng thời gian ngắn, tập trung, cung cấp đủ hỗ trợ. Các thị trường tính toán phi tập trung với khả năng GPU mạnh mẽ được đặt ở vị trí lý tưởng để xử lý các khối công việc này.

Inference

Suy luận là nơi các thị trường điện toán phi tập trung có con đường rõ ràng nhất để phù hợp với thị trường sản phẩm. Trớ trêu thay, đây là quy trình làm việc ít được thảo luận nhất trong bối cảnh đào tạo phi tập trung. Điều này bắt nguồn từ hai yếu tố: suy luận thiếu sức hấp dẫn của 100.000 lần đào tạo "mô hình thần" GPU và một phần do giai đoạn hiện tại của cuộc cách mạng AI.

Cho đến hôm nay, phần lớn máy tính đang được sử dụng để huấn luyện. Cuộc đua đến ASI dẫn đến những khoản đầu tư lớn về cơ sở hạ tầng đào tạo. Tuy nhiên, sự cân bằng này sẽ dịch chuyển không tránh khỏi khi các ứng dụng trí tuệ nhân tạo chuyển từ nghiên cứu sang sản xuất. Để mô hình kinh doanh xung quanh trí tuệ nhân tạo có thể bền vững, doanh thu được tạo ra từ việc suy luận phải vượt qua chi phí của cả quá trình huấn luyện và suy luận kết hợp. Trong khi huấn luyện GPT-4 tốn kém rất nhiều, nhưng đó chỉ là chi phí một lần. Chi phí tính toán liên tục và con đường đến lợi nhuận của OpenAI được thúc đẩy bởi việc phục vụ hàng tỷ yêu cầu suy luận cho khách hàng trả phí.

Thị trường tính toán, phân cấp hoặc không phân cấp, theo bản chất là tổng hợp một loạt các mô hình GPU (cũ và mới) từ khắp nơi trên thế giới, tự thân định vị mình ở một vị trí độc đáo để phục vụ các tải công việc suy luận.

Thị trường điện toán, dù phi tập trung hay truyền thống, đương nhiên vượt trội về khối lượng công việc suy luận bằng cách tổng hợp các mô hình GPU đa dạng (cả hiện tại và cũ) trên toàn cầu. Ưu điểm vốn có của chúng hoàn toàn phù hợp với các yêu cầu suy luận: phân phối địa lý rộng, thời gian hoạt động nhất quán, dự phòng hệ thống và khả năng tương thích giữa các thế hệ GPU.

Nhưng tại sao lại là tiền điện tử?

Chúng tôi đã thảo luận về các quy trình công việc khác nhau mà điện toán phi tập trung có thể và không thể trợ giúp. Bây giờ, chúng ta cần trả lời một câu hỏi quan trọng khác: tại sao một nhà phát triển lại chọn bảo mật tính toán từ một nhà cung cấp phi tập trung thay vì một nhà cung cấp tập trung? Các giải pháp phi tập trung mang lại những lợi thế hấp dẫn nào?

Giá cả và Phạm vi

Stablecoins đã đạt được sự phù hợp với thị trường sản phẩm bằng cách cung cấp một sự lựa chọn vượt trội so với việc thanh toán xuyên biên giới truyền thống. Một yếu tố lớn là stablecoins đơn giản là rẻ hơn nhiều! Tương tự, yếu tố quan trọng nhất làm nên sự lựa chọn của nhà phát triển trí tuệ nhân tạo đối với nhà cung cấp đám mây là chi phí. Đối với các nhà cung cấp tính toán phi tập trung để cạnh tranh hiệu quả, họ phải trước tiên cung cấp giá cả vượt trội.

Thị trường điện toán, giống như tất cả các thị trường, là một doanh nghiệp hiệu ứng mạng. Nguồn cung GPU trên nền tảng càng nhiều, tính thanh khoản và tính khả dụng cho khách hàng càng lớn, từ đó thu hút nhiều nhu cầu hơn. Khi nhu cầu tăng lên, điều này khuyến khích nhiều chủ sở hữu GPU tham gia mạng, tạo ra một chu kỳ đạo đức. Nguồn cung tăng cũng cho phép giá cả cạnh tranh hơn thông qua kết hợp tốt hơn và giảm thời gian nhàn rỗi. Khi khách hàng có thể liên tục tìm thấy điện toán họ cần với mức giá hấp dẫn, họ có nhiều khả năng xây dựng sự phụ thuộc kỹ thuật lâu dài trên nền tảng, điều này củng cố thêm hiệu ứng mạng.

Cơ chế này đặc biệt mạnh mẽ trong việc suy luận, nơi phân bố địa lý của nguồn cung thực sự có thể nâng cao sản phẩm bằng cách giảm độ trễ cho người dùng cuối. Thị trường đầu tiên đạt được vòng xoay thanh khoản này ở quy mô sẽ có lợi thế cạnh tranh đáng kể, vì cả nhà cung cấp và khách hàng đều phải đối mặt với chi phí chuyển đổi sau khi họ tích hợp với các công cụ và luồng công việc của nền tảng.

Bánh xe tác động mạng lưới thị trường GPU

Trong những thị trường như vậy, khởi động mạngvà đạt vận tốc thoát là giai đoạn quan trọng nhất. Ở đây, tiền điện tử cung cấp cho các dự án tính toán phi tập trung một công cụ rất mạnh mà các đối thủ tập trung của họ đơn giản không sở hữu: động cơ khuyến nghị.

Cơ chế có thể đơn giản nhưng mạnh mẽ. Giao thức sẽ đầu tiên phát hành một token bao gồm lịch trình phần thưởng phát sinh, có thể phân phối phân bổ ban đầu cho những người đóng góp sớm thông qua airdrops. Các lượng token này sẽ phục vụ như công cụ chính để khởi động cả hai phía của thị trường.

Đối với các nhà cung cấp GPU, cấu trúc phần thưởng nên được thiết kế cẩn thận để hình thành hành vi từ phía nguồn cung. Các nhà cung cấp sẽ kiếm được token tỷ lệ thuận với tỷ lệ tính toán và sử dụng của họ, nhưng hệ thống nên vượt qua phần thưởng tuyến tính đơn giản. Giao thức có thể triển khai bội số phần thưởng động để giải quyết sự mất cân đối địa lý hoặc loại phần cứng - tương tự như cách Uber sử dụng giá cao điểm để khuyến khích tài xế ở khu vực có nhu cầu cao.

Một nhà cung cấp có thể kiếm được phần thưởng gấp 1,5 lần khi cung cấp điện toán ở các khu vực chưa được phục vụ hoặc phần thưởng gấp 2 lần khi cung cấp các loại GPU tạm thời khan hiếm. Tiếp tục phân cấp hệ thống phần thưởng dựa trên tỷ lệ sử dụng nhất quán sẽ khuyến khích các nhà cung cấp duy trì tính khả dụng ổn định thay vì chuyển đổi cơ hội giữa các nền tảng.

On the demand side, customers would receive token rewards that effectively subsidise their usage. The protocol might offer increased rewards for longer compute commitments—incentivising users to build deeper technical dependencies on the platform. These rewards could be further structured to align with the platform’s strategic priorities, such as capturing the demand in a particular geography.

Các tỷ lệ cơ bản cho tính toán có thể được giữ ở mức thị trường hoặc ít hơn một chút, với các giao thức sử dụng Nhà tiên tri zkTLSđể liên tục theo dõi và so sánh giá cả của đối thủ. Sau đó, phần thưởng token sẽ phục vụ như một lớp động lực bổ sung trên cơ sở giá cả cạnh tranh này. Mô hình giá cả kép này sẽ cho phép nền tảng duy trì tính cạnh tranh về giá cả trong khi sử dụng các động lực token để thúc đẩy các hành vi cụ thể nhằm tăng cường mạng lưới.

Bằng cách phân phối động viên token, cả nhà cung cấp và khách hàng sẽ bắt đầu tích lũy cổ phần trong mạng lưới. Trong khi một số người, có thể là hầu hết, có thể bán cổ phần này, những người khác sẽ giữ chúng, trở thành các bên liên quan và những người tuyên truyền cho nền tảng. Những người tham gia tích cực này sẽ có lợi ích với mạng lưới thành công, đóng góp vào sự phát triển và ứng dụng vượt ra ngoài việc sử dụng trực tiếp hoặc cung cấp tài nguyên tính toán.

Theo thời gian, khi mạng lưới đạt được vận tốc thoát và thiết lập hiệu ứng mạng mạnh mẽ, các động lực token này có thể được dần dần cắt giảm. Các lợi ích tự nhiên của việc trở thành thị trường lớn nhất - tương ứng tốt hơn, sử dụng cao hơn, phạm vi địa lý rộng hơn - sẽ trở thành những nguồn động lực tự duy trì của sự phát triển.

Làm thế nào các động lực token có thể tăng cường bánh xe quảng cáo GPU

Kháng cáo Lập dịch

Mặc dù giá cả và phạm vi là những điểm khác biệt quan trọng, các mạng điện toán phi tập trung giải quyết một mối quan tâm ngày càng tăng: các hạn chế hoạt động từ các nhà cung cấp tập trung. Các nhà cung cấp đám mây truyền thống đã thể hiện sự sẵn sàng đình chỉ hoặc chấm dứt dịch vụ dựa trên chính sách nội dung và áp lực bên ngoài. Những tiền lệ này đặt ra những câu hỏi hợp lý về cách mà các chính sách tương tự có thể mở rộng đến việc phát triển và triển khai mô hình AI.

Khi các mô hình AI trở nên tinh vi hơn và giải quyết các trường hợp sử dụng ngày càng đa dạng, có khả năng thực sự là các nhà cung cấp đám mây có thể thực hiện các hạn chế về đào tạo và phục vụ mô hình, tương tự như các phương pháp kiểm duyệt nội dung hiện có của họ. Điều này có thể ảnh hưởng đến không chỉ nội dung NSFW và các chủ đề gây tranh cãi, mà cả các trường hợp sử dụng hợp pháp trong các lĩnh vực như hình ảnh y tế, nghiên cứu khoa học hoặc nghệ thuật sáng tạo có thể kích hoạt các bộ lọc tự động quá thận trọng.

Một mạng phân tán cung cấp một phương án thay thế bằng cách cho phép các thành viên thị trường tự quyết định về cơ sở hạ tầng của mình, tiềm năng tạo ra một môi trường tự do và không bị hạn chế hơn cho sự đổi mới.

Mặt trái của kiến trúc không cần phép là việc quyền riêng tư trở nên khó khăn hơn. Khi tính toán được phân phối trên một mạng lưới các nhà cung cấp thay vì được chứa trong trung tâm dữ liệu của một đơn vị tin cậy duy nhất, các nhà phát triển cần suy nghĩ cẩn thận về bảo mật dữ liệu. Mặc dù việc mã hóa và môi trường thi hành đáng tin cậy có thể giúp ích, nhưng có một sự đánh đổi căn bản giữa sự chống lại việc kiểm duyệt và quyền riêng tư mà các nhà phát triển phải điều hướng dựa trên yêu cầu cụ thể của họ.

Niềm tin và thực thi hợp đồng

Với nhu cầu cao ngất trời về tính toán AI, các nhà cung cấp GPU có thể khai thác vị trí của họ để thu lợi nhuận tối đa từ những khách hàng thành công. Trong một bài đăng từ năm ngoáiTrong một bài viết của mình, nhà phát triển độc lập nổi tiếng Pieter Levels chia sẻ cách anh ấy và những nhà phát triển khác trải qua tình trạng nhà cung cấp tăng giá đột ngột lên đến 600% sau khi công khai doanh thu của ứng dụng trí tuệ nhân tạo của mình.

Hệ thống phi tập trung có thể cung cấp một phương án cho vấn đề này - thực thi hợp đồng không cần tin cậy. Khi các thỏa thuận được mã hóa trên chuỗi thay vì được chôn vùi trong các điều khoản dịch vụ, chúng trở nên minh bạch và không thể thay đổi. Nhà cung cấp không thể tăng giá một cách tùy ý hoặc thay đổi các điều khoản trong quá trình hợp đồng mà không có sự đồng ý rõ ràng thông qua giao thức.

Vượt qua việc định giá, các mạng phi tập trung có thể tận dụng môi trường thực thi đáng tin cậy (TEEs)để cung cấp tính toán có thể xác minh. Điều này đảm bảo các nhà phát triển thực sự nhận được tài nguyên GPU mà họ trả tiền - cả về thông số kỹ thuật phần cứng và quyền truy cập được cấp cho riêng họ. Ví dụ, khi một nhà phát triển trả tiền để được quyền truy cập riêng tư đến tám GPU H100 để huấn luyện mô hình, các bằng chứng mật mã có thể xác minh rằng công việc của họ đang chạy trên H100 với toàn bộ 80GB bộ nhớ trên mỗi GPU, thay vì bị giảm cấp một cách im lặng xuống thẻ thấp hơn hoặc có tài nguyên được chia sẻ với người dùng khác.

Không cần phép

Mạng máy tính phi tập trung có thể cung cấp cho nhà phát triển các lựa chọn thực sự không cần phép. Không giống như các nhà cung cấp truyền thống yêu cầu quy trình KYC và kiểm tra tín dụng chi tiết, bất kỳ ai cũng có thể tham gia vào các mạng này và bắt đầu tiêu thụ hoặc cung cấp tài nguyên tính toán. Điều này giảm đáng kể ngưỡng cửa, đặc biệt đối với nhà phát triển ở các thị trường mới nổi hoặc làm việc trên các dự án thử nghiệm.

Tính quan trọng của tính chất không cần phép này trở nên mạnh mẽ hơn khi chúng ta xem xét tương lai của các đại lý AI. Các đại lý AI mới chỉ bắt đầu tìm được chỗ đứng của mình, với đại lý tích hợp theo chiều dọcdự kiến vượt qua kích thước của ngành công nghiệp SaaS. Với sự xuất hiện của gateTruth TerminalZerebroChúng tôi đang thấy những dấu hiệu đầu tiên của các tác nhân đạt được tính tự chủ và học cách sử dụng các công cụ bên ngoài như mạng xã hội và các công cụ tạo hình ảnh.

Khi các hệ thống tự trị này trở nên phức tạp hơn, chúng có thể cần phân phối động tài nguyên tính toán của chính mình. Một mạng phân tán nơi các hợp đồng có thể được thực thi một cách đáng tin cậy bởi mã chứ không phải là các trung gian con người là cơ sở hạ tầng tự nhiên cho tương lai này. Các đại lý có thể tự động thương lượng các hợp đồng, giám sát hiệu suất và điều chỉnh việc sử dụng tính toán của họ dựa trên nhu cầu - tất cả đều không cần sự can thiệp hay phê duyệt của con người.

Cảnh quan

Khái niệm về mạng tính toán phi tập trung không mới — các dự án đã cố gắng phổ cập quyền truy cập vào tài nguyên tính toán khan hiếm từ trước thời kỳ bùng nổ AI hiện tại.Mạng Renderđã hoạt động từ năm 2017, tổng hợp tài nguyên GPU để dựng đồ họa máy tính.AkashĐược ra mắt vào năm 2020 để tạo ra một thị trường mở cho việc tính toán chung. Cả hai dự án đều đạt được một thành công vừa phải trong lĩnh vực của họ nhưng hiện tập trung vào khối lượng công việc AI.

Tương tự, các mạng lưu trữ phi tập trung như FilecoinArweaveđang mở rộng vào tính toán. Họ nhận ra rằng khi trí tuệ nhân tạo trở thành người tiêu dùng chính của cả bộ nhớ lưu trữ và tính toán, việc cung cấp các giải pháp tích hợp là hợp lý.

Chỉ như trung tâm dữ liệu truyền thống đang gặp khó khăn trong việc cạnh tranh với các cơ sở AI được xây dựng để mục đích cụ thể, các mạng đã được thành lập này đối mặt với một cuộc chiến đấu gian nan trước các giải pháp AI nguyên bản. Chúng thiếu DNA để thực hiện sự phối hợp phức tạp cần thiết cho các khối công việc AI. Thay vào đó, họ đang tìm thấy chỗ đứng của mình bằng cách trở thành nhà cung cấp tính toán cho các mạng AI cụ thể khác. Ví dụ, cả Render và Akash hiện đã đưa GPU của mình lên sàn giao dịch của io.net.

Những người tham gia thị trường AI-native này là ai?io.netlà một trong những nhà lãnh đạo đầu tiên trong việc tổng hợp nguồn cung cấp GPU hàng đầu dành cho doanh nghiệp, với hơn 300.000 GPU đã xác minh trên mạng của mình. Họ tuyên bố mang lại tiết kiệm chi phí lên đến 90% so với các đối thủ tập trung và đã đạt được thu nhập hàng ngày lên đến hơn 25.000 đô la (ước tính hàng năm 9 triệu đô la). Tương tự,Aethirtập hợp hơn 40.000 GPU (bao gồm hơn 4.000 H100) để phục vụ cả trường hợp sử dụng trí tuệ nhân tạo và điện toán đám mây.

Trước đây, chúng tôi đã thảo luận về cách Prime Intellect đang tạo ra các khung việc cho việc đào tạo phi tập trung quy mô. Ngoài những nỗ lực này, họ cũng cung cấp một Thị trường GPUnơi người dùng có thể thuê H100 theo yêu cầu.Gensynlà dự án khác đặt cược lớn vào việc đào tạo phi tập trung với một khung công việc đào tạo tương tự cùng một cách tiếapproach thị trường GPU.

Trong khi tất cả đều là các thị trường không phụ thuộc vào công việc cụ thể (họ hỗ trợ cả quá trình huấn luyện và suy luận), một số dự án tập trung chỉ vào suy luận - công việc tính toán phân tán mà chúng tôi rất háo hức. Trong số đó, Exo Labs là dự án hàng đầu, cho phép người dùng chạy LLM cấp tiền phong trên các thiết bị hàng ngày. Họ đã phát triển một nền tảng mã nguồn mở cho phép phân phối các nhiệm vụ suy luận trí tuệ nhân tạo trên nhiều thiết bị như iPhone, Android và Mac. Họ gần đây đã thể hiệnchạy mô hình 70-B ( có thể mở rộng lên 400-B) phân phối trên bốn M4 Pro Mac Minis.

Cơ sở hạ tầng cần thiết

Khi Satoshi ra mắt Bitcoin vào năm 2008, những lợi ích của nó - vàng kỹ thuật số với nguồn cung cứng và tiền không thể kiểm soát - chỉ là lý thuyết. Hệ thống tài chính truyền thống, mặc dù có nhược điểm, vẫn hoạt động. Ngân hàng trung ương chưa bắt đầu in tiền vô tiền khoáng hậu. Lệnh trừng phạt quốc tế chưa được sử dụng để tấn công vào toàn bộ nền kinh tế. Nhu cầu về một sự thay thế dường như chỉ là học thuật thay vì khẩn cấp.

Phải mất một thập kỷ nới lỏng định lượng, đỉnh điểm là mở rộng tiền tệ thời COVID, để lợi ích lý thuyết của Bitcoin kết tinh thành giá trị hữu hình. Ngày nay, khi lạm phát làm xói mòn tiết kiệm và căng thẳng địa chính trị đe dọa sự thống trị của đồng đô la, vai trò của Bitcoin là "vàng kỹ thuật số" đã phát triển từ giấc mơ cypherpunk thành một tài sản được các tổ chức và quốc gia chấp nhận.

Mẫu này lặp lại với stablecoins. Ngay khi một blockchain đa mục đích trên Ethereum được có sẵn, stablecoins ngay lập tức trở thành một trong những trường hợp sử dụng triển vọng nhất. Tuy nhiên, đã mất nhiều năm để cải tiến từ từ về công nghệ và kinh tế của các nước như Argentina và Thổ Nhĩ Kỳ bị suy thoái bởi lạm phát để stablecoins tiến hóa từ một đổi mới crypto hẹp thành cơ sở hạ tầng tài chính quan trọng di chuyển hàng ngàn tỷ đô la trong khối lượng hàng năm.

Crypto theo bản chất là một công nghệ phòng thủ - những đổi mới có vẻ không cần thiết trong những thời điểm tốt đẹp nhưng trở nên cần thiết trong những cuộc khủng hoảng. Nhu cầu cho những giải pháp này chỉ trở nên rõ ràng khi hệ thống hiện tại thất bại hoặc tiết lộ bản chất thật của chúng.

Hôm nay, chúng ta đang sống trong thời kỳ vàng của trí tuệ nhân tạo (AI). Tiền mạo hiểm đang chảy mạnh mẽ, các công ty cạnh tranh để mang đến giá thấp nhất và các hạn chế, nếu có, là hiếm. Trong môi trường này, các lựa chọn phi tập trung có thể trông thấy là không cần thiết. Tại sao phải đối mặt với những phức tạp của kinh tế mã thông báo và hệ thống chứng minh khi các nhà cung cấp truyền thống vẫn hoạt động tốt?

Nhưng đi theo những làn sóng công nghệ chính của quá khứ, lòng nhân ái này chỉ là tạm thời. Chúng ta hiện chỉ mới hai năm trong cuộc cách mạng AI. Khi công nghệ trưởng thành và những người chiến thắng cuộc đua AI nổi lên, sức mạnh thực sự của họ sẽ hiện ra. Các công ty cùng ngày hôm nay cung cấp quyền truy cập rộng lượng sẽ cuối cùng khẳng định quyền kiểm soát - thông qua giá cả, thông qua chính sách, thông qua quyền hạn.

Đây không chỉ là một chu kỳ công nghệ khác đang bị đe dọa. AI đang trở thành chất nền mới của nền văn minh - lăng kính mà qua đó chúng ta sẽ xử lý thông tin, tạo ra nghệ thuật, đưa ra quyết định và cuối cùng là tiến hóa như một loài. Điện toán không chỉ là một tài nguyên; Đó là tiền tệ của chính trí thông minh. Những người kiểm soát dòng chảy của nó sẽ định hình biên giới nhận thức của nhân loại.

Tính toán phi tập trung không chỉ đơn giản là cung cấp GPU rẻ hơn hoặc tùy chọn triển khai linh hoạt hơn (mặc dù để thành công, nó phải cung cấp cả hai). Điều quan trọng là đảm bảo việc truy cập vào trí tuệ nhân tạo - công nghệ có sức biến đổi lớn nhất của nhân loại - luôn không thể bị kiểm duyệt và chủ quyền. Đó là lá chắn của chúng ta trước một tương lai không thể tránh khỏi, nơi một vài công ty không chỉ quyết định ai có thể sử dụng trí tuệ nhân tạo mà còn quyết định cách họ sử dụng nó.

Chúng tôi đang xây dựng những hệ thống này không phải vì chúng cần thiết ngay bây giờ, mà vì chúng sẽ trở thành thiết yếu vào ngày mai. Khi trí tuệ nhân tạo trở thành một phần cơ bản của xã hội như tiền tệ, tính toán không cần phép không chỉ là một phương án thay thế - nó sẽ trở thành một yếu tố cần thiết để chống lại chủ nghĩa bành trướng kỹ thuật số, cũng như Bitcoin và đồng tiền ổn định là để chống lại sự kiểm soát tài chính.

Cuộc đua đến trí tuệ siêu nhân tạo có thể vượt ngoài tầm tay của các hệ thống phi tập trung. Nhưng đảm bảo rằng những thành quả của trí tuệ này vẫn có thể tiếp cận cho tất cả? Đó là một cuộc đua đáng để tham gia.

Miễn trừ trách nhiệm:

  1. Bài viết này được sao chép từ [Decentralised.co]. Chuyển tiếp tiêu đề ban đầu: Tính toán phi tập trung. Tất cả các quyền tác giả thuộc về tác giả ban đầu [Shlok Khemani]. Nếu có ý kiến ​​phản đối về việc tái in này, vui lòng liên hệ Gate Learnđội của chúng tôi, và họ sẽ xử lý nhanh chóng.
  2. Bảng từ chối trách nhiệm: Các quan điểm và ý kiến được thể hiện trong bài viết này chỉ là của tác giả và không hề cung cấp bất kỳ lời khuyên đầu tư nào.
  3. Các bản dịch của bài viết sang các ngôn ngữ khác được thực hiện bởi nhóm Gate Learn. Trừ khi có đề cập, việc sao chép, phân phối hoặc đạo văn các bài viết dịch là cấm.
เริ่มตอนนี้
สมัครและรับรางวัล
$100