Gần đây tôi nhận thấy ngành trí tuệ nhân tạo đang đối mặt với một cuộc khủng hoảng lưu trữ thực sự, và điều này không phải là phóng đại. Các công ty tạo ra dữ liệu với tốc độ mà các kho lưu trữ truyền thống không thể theo kịp, và các trung tâm trung tâm đơn giản là bị quá tải. Hơn một nửa các tổ chức gặp phải các trở ngại về lưu trữ làm chậm các dự án của họ, và tệ hơn nữa là các đĩa cứng đã hết hàng trên thị trường.



Nhưng có một giải pháp thực sự đang xuất hiện ngay bây giờ. Lưu trữ phân tán chia các tệp thành các mảnh mã hóa và phân phối chúng qua hàng nghìn thiết bị độc lập trên toàn thế giới. Không có công ty nào kiểm soát chúng, và hệ thống vẫn hoạt động ngay cả khi mất toàn bộ các khu vực. Điều này không chỉ hiệu quả hơn mà còn rẻ hơn rất nhiều - đôi khi giảm tới 80 phần trăm so với các nhà cung cấp lớn.

Vào tháng 1 năm 2026, Filecoin đã ra mắt dịch vụ đám mây On-Chain Cloud của mình, và ngay lập tức thu hút các nhóm trí tuệ nhân tạo đang tìm kiếm lưu trữ có thể lập trình và xác minh. Các hợp đồng thông minh tự động xử lý thanh toán và sửa chữa, và dữ liệu vẫn không thể bị thao túng suốt vòng đời của nó. Đây là điều mà các đám mây trung tâm không thể làm được với cùng mức giá.

Storj đã bổ sung một khía cạnh khác - cung cấp lưu trữ tương thích S3 cảm giác như lưu trữ cục bộ ngay cả khi dữ liệu phân tán qua các châu lục. Việc truy xuất từ nút gần nhất giảm đáng kể thời gian truy cập. Công ty Axle AI, chuyển đổi thư viện video thành các tài sản trí tuệ nhân tạo có thể tìm kiếm, đã chuyển sang Storj và thấy rõ sự cải thiện về hiệu suất. Các công ty khởi nghiệp hiện nay đang xây dựng dây chuyền sản xuất trong vòng vài ngày thay vì vài tháng.

Trong khi đó, Arweave giải quyết một vấn đề khác - dữ liệu đào tạo sẽ ra sao sau khi mô hình kết thúc? Họ xử lý dữ liệu như vàng kỹ thuật số vĩnh viễn. Sau khi tải lên, các tệp vẫn có sẵn mãi mãi với một khoản phí duy trì duy nhất để tài trợ cho các bản sao vĩnh viễn. Các nhà nghiên cứu sử dụng điều này để tạo ra các hồ sơ không thể thay đổi, đảm bảo nguồn gốc của từng bộ dữ liệu cung cấp cho các mô hình nền tảng.

Về tốc độ và hiệu suất, 0G Storage cung cấp một điều gì đó thú vị. Hai lớp được thiết kế đặc biệt cho tải trọng trí tuệ nhân tạo - lớp ghi chép xử lý các luồng dữ liệu khổng lồ với tốc độ vượt quá 30 MB mỗi giây. Các nhà nghiên cứu đã huấn luyện thành công một mô hình với 107 tỷ tham số trên các nút phi tập trung. Điều này chứng minh rằng các mạng phân tán có thể hỗ trợ các tải trọng công việc ở mức giới hạn mà không dựa vào các hệ thống trung tâm.

Ở nơi khác, một công ty khởi nghiệp trong lĩnh vực khám phá vật liệu đã thể hiện kết quả thực tế. Họ đã chuyển hoạt động sang Storj với tính toán GPU phân tán, giảm đáng kể thời gian đào tạo. Nhóm hiện tập trung vào các khám phá hóa học trong khi lớp lưu trữ xử lý sao lưu và sửa chữa. Họ không còn phải chờ các vé cấu hình hoặc theo dõi bảng điều khiển chuyển sang màu đỏ nữa.

Kinh tế học ủng hộ phân phối. Việc đào tạo tạo ra lưu lượng dự kiến, nhưng dự đoán sẽ là phần lớn gánh nặng trong năm 2027, và điều này đòi hỏi dữ liệu gần người dùng hơn. Các ứng dụng thực tế - trợ lý cá nhân, phương tiện tự lái - cần phản hồi trong vòng chưa đầy 10 mili giây. Điều này gần như không thể khi dữ liệu phải vượt qua đại dương. Các mạng phân tán đặt các phần gần các điểm cuối, cho phép các nhóm suy luận truy xuất ngữ cảnh trực tiếp mà không cần chuyến đi vòng quanh thế giới.

An ninh được tích hợp thông qua mã hóa đầu cuối và các bằng chứng mật mã. Bất kỳ ai cũng có thể xác minh sự tồn tại và tính toàn vẹn của dữ liệu mà không tiết lộ nội dung. Filecoin tích hợp các kiểm tra này trực tiếp vào các hợp đồng thông minh, và thanh toán chỉ được thực hiện sau khi các bằng chứng thành công. Storj bổ sung mã hóa xóa bỏ và các đánh giá định kỳ đảm bảo độ bền được chứng minh bằng toán học.

Ảnh hưởng của mạng lưới là thực tế. Mỗi đĩa cứng không sử dụng trở thành một phần của giải pháp khi mọi người chạy phần mềm nút. Tăng trưởng theo tự nhiên - mỗi dự án trí tuệ nhân tạo mới ra đời đều biến khả năng dư thừa thành một nguồn lực chung. Các nhà vận hành nhỏ ở các thị trường mới nổi kiếm được thu nhập hợp lý từ việc cung cấp băng thông, tạo ra các cơ hội kinh tế và thúc đẩy hạ tầng.

Các công ty chuyển dữ liệu trí tuệ nhân tạo lạnh sang các mạng phân tán thấy tiết kiệm nhanh chóng tích tụ. Dữ liệu đào tạo từng tốn hàng nghìn đô la mỗi tháng giờ đây được lưu trữ với giá chỉ vài xu mỗi GB. Các nhóm tái phân bổ khoản tiết kiệm để mua thêm GPU hoặc mở rộng bộ dữ liệu, giúp rút ngắn thời gian dự kiến.

Các kỹ sư bắt đầu thử nghiệm các thiết lập này báo cáo về các đường cong mở rộng mượt mà hơn và ít gián đoạn đột ngột hơn. Điều này mang lại sự tự tin cho các nhóm sản phẩm khi ra mắt các tính năng dựa trên truy cập trực tiếp dữ liệu. Và việc chuyển đổi dường như là điều tất yếu - khi trí tuệ nhân tạo chuyển từ phòng thí nghiệm sang các sản phẩm hàng ngày mà hàng triệu người dùng sẽ sử dụng cùng lúc.

Các nhà phát triển, trước đây xem lưu trữ phân tán như một thử nghiệm, giờ đây coi đó là lựa chọn mặc định cho bất kỳ tải trọng công việc nào liên quan đến bộ dữ liệu lớn và động. Các API đơn giản cho phép thay thế nhà cung cấp mà không gây gián đoạn. Các bằng chứng có thể xác minh cung cấp một thứ gì đó rõ ràng cho các quy định tuân thủ. Và cấu trúc chi phí thưởng cho hiệu quả thay vì phạt quy mô.

Điều này không phải là tương lai xa - nó đang diễn ra ngay bây giờ. Các nhóm nhỏ đang đạt được tốc độ và tiết kiệm ở cấp độ sản xuất mà trước đây chỉ có các ngân sách khổng lồ mới làm được. Công nghệ đang trưởng thành song song với trí tuệ nhân tạo, tạo nền tảng hỗ trợ AI trong thập kỷ tới mà không cần tái cấu trúc liên tục.
FIL2,63%
STORJ1,08%
AR0,91%
0G0,57%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • Bình luận
  • Đăng lại
  • Retweed
Bình luận
Thêm một bình luận
Thêm một bình luận
Không có bình luận
  • Ghim