Chủ đề thịnh hành
Tin tức AI DePIN mới nhất
Xem các dự án AI
6 tháng trước
CreatorBid Hợp tác với io.net để Tăng cường Phát triển AI thông qua Mạng GPU Phi tập trung
Trong một phát triển quan trọng cho Kinh tế Người sáng tạo AI, io.net đã công bố một quan hệ đối tác chiến lược với CreatorBid, một nền tảng chuyên về các công cụ AI cho người sáng tạo và thương hiệu. Sự hợp tác này sẽ cho phép CreatorBid sử dụng mạng GPU phi tập trung của io.net, nâng cao khả năng mở rộng và hiệu quả của các mô hình hình ảnh và video. Bằng cách tận dụng cơ sở hạ tầng phi tập trung này, CreatorBid nhằm tối ưu hóa việc sử dụng tài nguyên trong khi giảm thiểu chi phí, giúp tính toán hiệu suất cao trở nên dễ tiếp cận hơn cho các doanh nghiệp tham gia vào công nghệ AI.
Tausif Ahmed, Phó Chủ tịch Phát triển Kinh doanh tại io.net, nhấn mạnh những lợi ích của mối quan hệ đối tác này, cho biết rằng nó cho phép CreatorBid khai thác mạng GPU phi tập trung của họ cho các giải pháp AI tiên tiến. Giám đốc điều hành của CreatorBid, Phil Kothe, cũng đồng tình với quan điểm này, nhấn mạnh tiềm năng của các nguồn GPU có thể mở rộng để trao quyền cho các Người ảnh hưởng và Đại lý AI. Mối quan hệ đối tác này dự kiến sẽ cách mạng hóa việc tạo nội dung, vì nó cho phép các nhà sáng tạo tương tác với khán giả và sản xuất các định dạng nội dung đa dạng một cách tự chủ, mở đường cho một kỷ nguyên mới trong khởi nghiệp kỹ thuật số.
CreatorBid đang dẫn đầu trong Kinh tế Người sáng tạo AI, cung cấp các công cụ cho phép người sáng tạo kiếm tiền từ nội dung của họ và xây dựng các cộng đồng sôi động xung quanh các Đại lý AI. Những nhân vật kỹ thuật số tùy chỉnh này tạo điều kiện cho sự tương tác và gắn kết, thúc đẩy sự đồng sở hữu giữa người sáng tạo và người hâm mộ. Bằng cách tích hợp các công cụ AI tiên tiến với công nghệ blockchain, CreatorBid đang định nghĩa lại cảnh quan người sáng tạo và định vị mình như một người chơi chính trong quá trình chuyển đổi sang Kinh tế Người sáng tạo tự chủ. Mối quan hệ đối tác với io.net không chỉ thể hiện các ứng dụng thực tiễn của các mạng GPU phi tập trung mà còn thúc đẩy tầm nhìn của CreatorBid về một tương lai do AI điều khiển trong việc tạo nội dung và thương hiệu.

6 tháng trước
EdgeAI Phi Tập Trung: Dân Chủ Hóa Truy Cập Trí Tuệ Nhân Tạo
Cảnh quan trí tuệ nhân tạo (AI) đang trải qua một sự chuyển mình đáng kể với sự xuất hiện của EdgeAI phi tập trung, nhằm dân chủ hóa quyền truy cập vào các công nghệ AI. Hiện tại, một số công ty công nghệ lớn, bao gồm OpenAI, IBM, Amazon và Google, đang thống trị lớp hạ tầng AI, tạo ra rào cản cho các thực thể nhỏ hơn và hạn chế quyền truy cập cho hàng triệu người dùng và doanh nghiệp trên toàn thế giới. Sự kiểm soát tập trung này không chỉ làm tăng chi phí mà còn hạn chế đổi mới. EdgeAI phi tập trung, được minh họa bởi các sáng kiến như Network3, nhằm giải quyết những thách thức này bằng cách tích hợp Hạ Tầng Vật Lý Phi Tập Trung (DePIN) và EdgeAI, cho phép các hệ thống AI hoạt động trên nhiều thiết bị khác nhau trong khi đảm bảo tính riêng tư và sự tham gia của cộng đồng.
Một trong những lợi thế chính của EdgeAI là khả năng giảm sự phụ thuộc vào các trung tâm dữ liệu lớn do các gã khổng lồ công nghệ sở hữu. Các mô hình AI truyền thống, đặc biệt là các mô hình ngôn ngữ lớn (LLMs) như GPT-3, yêu cầu nguồn lực đáng kể để đào tạo, thường có chi phí từ 500.000 đến 4,6 triệu đô la. Rào cản tài chính này càng củng cố thêm sự độc quyền của Big Tech. Ngược lại, EdgeAI cho phép các nhà phát triển đào tạo và triển khai các mô hình trên các thiết bị nhỏ hơn, từ điện thoại thông minh đến các thiết bị IoT, mở rộng khả năng tiếp cận và thúc đẩy đổi mới. Tuy nhiên, để EdgeAI đạt được tiềm năng tối đa, các thiết bị phải có khả năng giao tiếp và chia sẻ tài nguyên hiệu quả, vượt qua những hạn chế về tính toán và lưu trữ.
Khung học tập liên kết phi tập trung sáng tạo của Network3 đại diện cho một bước tiến quan trọng trong việc đào tạo AI hợp tác. Bằng cách cho phép nhiều thiết bị hoặc 'nút' kết hợp tài nguyên của họ, khung này nâng cao hiệu quả và sự phát triển của các hệ thống AI. Việc tích hợp các phương pháp mã hóa mạnh mẽ, chẳng hạn như Chữ ký ẩn không có chứng chỉ (CLSC), đảm bảo việc chia sẻ dữ liệu an toàn trong khi vẫn duy trì tính riêng tư. Hơn nữa, việc sử dụng mã hóa Reed-Solomon tối ưu hóa độ chính xác của dữ liệu. Kết quả là, các thiết bị Edge trong hệ sinh thái Network3 có thể thực hiện các phân tích cục bộ, dẫn đến độ trễ thấp và phản hồi theo thời gian thực. Cách tiếp cận phi tập trung này không chỉ giảm thiểu sự độc quyền tập trung mà còn mở ra các nguồn doanh thu mới cho các nhà phát triển và người dùng, cuối cùng làm cho AI trở nên dễ tiếp cận và có lợi cho tất cả mọi người.

6 tháng trước
Tinh Chỉnh Llama 3.2: Hướng Dẫn Toàn Diện Để Nâng Cao Hiệu Suất Mô Hình
Việc phát hành Llama 3.2 gần đây của Meta đánh dấu một bước tiến quan trọng trong việc tinh chỉnh các mô hình ngôn ngữ lớn (LLMs), giúp các kỹ sư máy học và nhà khoa học dữ liệu dễ dàng nâng cao hiệu suất mô hình cho các nhiệm vụ cụ thể. Hướng dẫn này phác thảo quy trình tinh chỉnh, bao gồm thiết lập cần thiết, tạo tập dữ liệu và cấu hình kịch bản đào tạo. Tinh chỉnh cho phép các mô hình như Llama 3.2 chuyên môn hóa trong các lĩnh vực cụ thể, chẳng hạn như hỗ trợ khách hàng, dẫn đến các phản hồi chính xác và liên quan hơn so với các mô hình đa năng.
Để bắt đầu tinh chỉnh Llama 3.2, người dùng trước tiên phải thiết lập môi trường của họ, đặc biệt nếu họ đang sử dụng Windows. Điều này bao gồm việc cài đặt Windows Subsystem for Linux (WSL) để truy cập vào terminal Linux, cấu hình quyền truy cập GPU với các driver NVIDIA phù hợp, và cài đặt các công cụ cần thiết như các phụ thuộc phát triển Python. Khi môi trường đã được chuẩn bị, người dùng có thể tạo một tập dữ liệu được tùy chỉnh cho việc tinh chỉnh. Ví dụ, một tập dữ liệu có thể được tạo ra để đào tạo Llama 3.2 trả lời các câu hỏi toán đơn giản, đây là một ví dụ đơn giản về tinh chỉnh có mục tiêu.
Sau khi chuẩn bị tập dữ liệu, bước tiếp theo là thiết lập một kịch bản đào tạo sử dụng thư viện Unsloth, giúp đơn giản hóa quy trình tinh chỉnh thông qua Low-Rank Adaptation (LoRA). Điều này bao gồm việc cài đặt các gói cần thiết, tải mô hình và bắt đầu quá trình đào tạo. Khi mô hình đã được tinh chỉnh, điều quan trọng là đánh giá hiệu suất của nó bằng cách tạo một tập kiểm tra và so sánh các phản hồi của mô hình với các câu trả lời mong đợi. Mặc dù tinh chỉnh mang lại nhiều lợi ích đáng kể trong việc cải thiện độ chính xác của mô hình cho các nhiệm vụ cụ thể, nhưng cần xem xét những hạn chế của nó và hiệu quả tiềm năng của việc tinh chỉnh lời nhắc cho các yêu cầu ít phức tạp hơn.

6 tháng trước
Stratos Hợp Tác với Tatsu để Tăng Cường Xác Minh Danh Tính Phi Tập Trung
Trong một phát triển quan trọng trong lĩnh vực blockchain và AI, Stratos đã công bố một quan hệ đối tác chiến lược với Tatsu, một dự án crypto AI phi tập trung tiên phong hoạt động trong mạng Bittensor và hệ sinh thái TAO. Tatsu đã đạt được những bước tiến đáng kể trong việc xác minh danh tính phi tập trung, tận dụng các chỉ số tiên tiến như hoạt động trên GitHub và số dư tiền điện tử để tạo ra một điểm số con người độc đáo. Cách tiếp cận đổi mới này nâng cao quy trình xác minh, làm cho chúng đáng tin cậy và hiệu quả hơn trong bối cảnh phi tập trung. Với sự ra mắt sắp tới của Tatsu Identity 2.0 và một subnet Hiểu Biết Tài Liệu mới, Tatsu đang chuẩn bị định nghĩa lại khả năng của AI phi tập trung.
Quan hệ đối tác này sẽ thấy Tatsu tích hợp các giải pháp lưu trữ phi tập trung của Stratos, điều này sẽ tăng cường đáng kể quản lý dữ liệu và các giao thức bảo mật của họ. Sự hợp tác này không chỉ là một sự hợp nhất công nghệ mà còn là sự kết hợp của chuyên môn nhằm đẩy mạnh ranh giới của những gì có thể trong không gian phi tập trung. Bằng cách sử dụng cơ sở hạ tầng vững chắc của Stratos, Tatsu có thể nâng cao các dịch vụ của mình và đảm bảo rằng quy trình xác minh danh tính của họ vừa an toàn vừa hiệu quả. Sự hợp tác này dự kiến sẽ thúc đẩy đổi mới và tăng trưởng trong hệ sinh thái TAO, mở ra cánh cửa cho các ứng dụng mới cho công nghệ tiên tiến của Tatsu.
Khi cả hai công ty bắt đầu hành trình này cùng nhau, những tác động đối với cộng đồng blockchain là rất lớn. Sự tích hợp lưu trữ phi tập trung với các giải pháp AI tiên tiến có thể dẫn đến những thay đổi mang tính chuyển mình trong cách xác minh danh tính được thực hiện trong nhiều lĩnh vực khác nhau. Quan hệ đối tác này minh chứng cho tiềm năng của việc kết hợp công nghệ phi tập trung với AI để tạo ra các giải pháp an toàn, hiệu quả và đổi mới hơn, thiết lập một tiền lệ cho các hợp tác trong tương lai trong không gian blockchain.

6 tháng trước
Google Ra Mắt Imagen 3: Một Kỷ Nguyên Mới Trong Tạo Hình Ảnh AI
Google đã chính thức ra mắt Imagen 3, mô hình AI chuyển đổi văn bản thành hình ảnh mới nhất của họ, năm tháng sau thông báo ban đầu tại Google I/O 2024. Phiên bản mới này hứa hẹn mang đến chất lượng hình ảnh được cải thiện với chi tiết tốt hơn, ánh sáng tốt hơn và ít hiện tượng hình ảnh không mong muốn hơn so với các phiên bản trước. Imagen 3 được thiết kế để diễn giải các yêu cầu bằng ngôn ngữ tự nhiên một cách chính xác hơn, cho phép người dùng tạo ra những hình ảnh cụ thể mà không cần phải lập trình yêu cầu phức tạp. Nó có thể sản xuất nhiều phong cách khác nhau, từ những bức ảnh siêu thực đến những minh họa vui nhộn, và thậm chí có thể hiển thị văn bản trong hình ảnh một cách rõ ràng, mở đường cho những ứng dụng sáng tạo như thiệp chúc mừng tùy chỉnh và tài liệu quảng cáo.
An toàn và sử dụng có trách nhiệm là ưu tiên hàng đầu trong sự phát triển của Imagen 3. Google DeepMind đã thực hiện các kỹ thuật lọc và gán nhãn dữ liệu nghiêm ngặt để giảm thiểu rủi ro tạo ra nội dung có hại hoặc không phù hợp. Cam kết đối với các tiêu chuẩn đạo đức là rất quan trọng khi công nghệ AI tạo sinh ngày càng được tích hợp vào nhiều ngành công nghiệp khác nhau. Người dùng quan tâm đến việc thử nghiệm Imagen 3 có thể làm như vậy thông qua Chatbot Gemini của Google bằng cách nhập các yêu cầu bằng ngôn ngữ tự nhiên, cho phép mô hình tạo ra những hình ảnh chi tiết dựa trên mô tả của họ.
Mặc dù có những tiến bộ, Imagen 3 vẫn có những hạn chế có thể ảnh hưởng đến khả năng sử dụng của nó đối với một số chuyên gia. Hiện tại, nó chỉ hỗ trợ tỷ lệ khung hình vuông, điều này có thể hạn chế các dự án yêu cầu định dạng phong cảnh hoặc chân dung. Thêm vào đó, nó thiếu các tính năng chỉnh sửa như inpainting hoặc outpainting, và người dùng không thể áp dụng các bộ lọc hoặc phong cách nghệ thuật cho hình ảnh của họ. Khi so sánh với các đối thủ như Midjourney, DALL-E 3 và Flux, Imagen 3 nổi bật về chất lượng hình ảnh và xử lý ngôn ngữ tự nhiên nhưng lại thiếu kiểm soát và tùy chỉnh cho người dùng. Tổng thể, mặc dù Imagen 3 là một công cụ mạnh mẽ để tạo ra hình ảnh chất lượng cao, nhưng những hạn chế của nó có thể làm nản lòng người dùng đang tìm kiếm nhiều sự linh hoạt hơn trong quy trình sáng tạo của họ.

6 tháng trước
Mạng Render Cách mạng hóa Sáng tạo Nội dung Kỹ thuật số với 'Unification'
Trong một cuộc thảo luận gần đây do Render Foundation Spaces tổ chức trên X, Jules Urbach, Giám đốc điều hành của OTOY và người sáng lập Mạng Render, đã cung cấp những hiểu biết về những thành tựu đột phá được tạo điều kiện bởi công nghệ hợp tác của họ trong quá trình sản xuất "765874 Unification," một bộ phim ngắn kỷ niệm 30 năm Star Trek. Urbach nhấn mạnh cách mà Mạng Render đang cách mạng hóa việc sáng tạo nội dung kỹ thuật số, cho phép các nhà sáng tạo khám phá những ranh giới mới trong điện ảnh, nghệ thuật và kể chuyện. Sản xuất bộ phim đã cho thấy tiềm năng của Mạng Render trong việc dân chủ hóa việc sáng tạo nội dung chất lượng cao, cho phép tạo ra hiệu ứng hình ảnh ấn tượng mà không cần ngân sách khổng lồ.
Một trong những điểm nổi bật của cuộc trò chuyện là việc sử dụng máy học (ML) một cách sáng tạo để nâng cao quy trình làm phim truyền thống. Urbach lưu ý rằng trong khi OTOY có một lịch sử dài trong việc sử dụng các bản sao kỹ thuật số và thay thế khuôn mặt, những tiến bộ trong công nghệ đã cho phép họ giảm đáng kể giờ lao động. Việc tích hợp AI đã đơn giản hóa việc mô hình hóa khuôn mặt của các diễn viên, loại bỏ sự cần thiết phải có các dấu hiệu khuôn mặt cồng kềnh. Điều này không chỉ rút ngắn quy trình sản xuất mà còn giúp các nghệ sĩ tập trung nhiều hơn vào việc kể chuyện thay vì những thách thức kỹ thuật, cho thấy cách mà AI và việc kết xuất GPU có thể biến đổi cảnh quan sáng tạo.
Nhìn về phía trước, Mạng Render dự kiến sẽ phát hành các công cụ và tích hợp mới, đặc biệt khi Ngày Thứ Sáu Đen đang đến gần. Kế hoạch bao gồm việc tích hợp các công cụ AI vào quy trình tạo hình 3D và mở rộng hỗ trợ cho việc kết xuất holographic. Tầm nhìn của Urbach vẫn rõ ràng: cung cấp cho các nhà sáng tạo những nguồn lực họ cần để kể những câu chuyện hấp dẫn. Thành công của "Unification" là một minh chứng cho tinh thần đổi mới của Mạng Render, mở đường cho các nhà sáng tạo tương lai vượt qua những ranh giới của những gì có thể trong việc sáng tạo nội dung kỹ thuật số.

6 tháng trước
Phòng Thí Nghiệm AI Hợp Tác với Theta EdgeCloud để Nâng Cao Giáo Dục AI
Phòng Thí Nghiệm AI, một nhà cung cấp e-learning hàng đầu tại Hàn Quốc, gần đây đã ký kết một thỏa thuận nhiều năm với Theta EdgeCloud, đánh dấu một bước quan trọng trong việc nâng cao các chương trình giáo dục về Trí Tuệ Nhân Tạo (AI) và Phân Tích Dữ Liệu (DA). Sự hợp tác này cho phép Phòng Thí Nghiệm AI tận dụng các nguồn tài nguyên GPU phân tán của Theta EdgeCloud, điều này sẽ hỗ trợ giáo dục AI tiên tiến, đào tạo mô hình và các ứng dụng AI sinh tạo. Với trọng tâm mạnh mẽ vào trải nghiệm thực hành và nội dung tương tác, Phòng Thí Nghiệm AI nhằm mục tiêu cung cấp giáo dục chất lượng cao thông qua nền tảng sáng tạo của mình, CodingX, được công nhận vì hiệu quả trong việc dạy AI và kỹ năng lập trình trên toàn cầu.
Sự hợp tác với Theta EdgeCloud dự kiến sẽ mang lại nhiều lợi ích cho Phòng Thí Nghiệm AI. Bằng cách sử dụng các nguồn GPU theo yêu cầu, tổ chức có thể nâng cao tính linh hoạt của chương trình giảng dạy, cho phép tích hợp liền mạch AI vào các chương trình giáo dục của mình. Thêm vào đó, sự hợp tác này sẽ giảm chi phí hoạt động thông qua cơ sở hạ tầng phân tán của Theta, cho phép mở rộng dịch vụ một cách tiết kiệm chi phí. Quan trọng nhất, việc tích hợp các phương pháp học tập dựa trên AI sẽ tạo điều kiện cho những trải nghiệm học tập cá nhân hóa, được điều chỉnh để đáp ứng nhu cầu độc đáo của từng sinh viên, từ đó cải thiện hiệu suất tổng thể.
Theta EdgeCloud đã nhanh chóng mở rộng cơ sở khách hàng của mình, gần đây đã hợp tác với các tổ chức danh tiếng như Đại học Quốc gia Seoul và Đại học Bắc Kinh. Sự tăng trưởng này nhấn mạnh nhu cầu ngày càng tăng về các giải pháp công nghệ có thể mở rộng và tiết kiệm chi phí trong lĩnh vực giáo dục. John Choi, Giám đốc điều hành của Phòng Thí Nghiệm AI, bày tỏ sự tự tin vào sự hợp tác này, nhấn mạnh danh tiếng mạnh mẽ của Theta trong các trường đại học Hàn Quốc và tiềm năng của nó để mở rộng đáng kể hoạt động của Phòng Thí Nghiệm AI trong những năm tới. Sự hợp tác này dự kiến sẽ đáp ứng nhu cầu ngày càng tăng về kỹ năng công nghệ trong một tương lai dựa trên AI, định vị Phòng Thí Nghiệm AI như một nhân tố chính trong bối cảnh giáo dục đang phát triển.

6 tháng trước
Tinh Chỉnh Llama 3.2 11B với Q-LoRA cho Câu Hỏi Trích Xuất
Các Mô Hình Ngôn Ngữ Lớn (LLMs) đã trở thành công cụ thiết yếu trong xử lý ngôn ngữ tự nhiên, có khả năng xử lý nhiều nhiệm vụ khác nhau. Tuy nhiên, do việc đào tạo rộng rãi của chúng, chúng có thể không xuất sắc trong các ứng dụng cụ thể mà không cần điều chỉnh thêm. Các kỹ thuật tinh chỉnh, chẳng hạn như Q-LoRA, cho phép các nhà nghiên cứu điều chỉnh các mô hình đã được đào tạo trước như Llama 3.2 11B cho các nhiệm vụ cụ thể, chẳng hạn như câu hỏi trích xuất. Bài viết này phác thảo quy trình tinh chỉnh Llama 3.2 11B sử dụng Q-LoRA trên tập dữ liệu SQuAD v2, trình bày những cải tiến về hiệu suất đạt được thông qua phương pháp này.
LoRA, hay Điều Chỉnh Thấp Hạng, là một kỹ thuật giới thiệu các trọng số mới vào một mô hình hiện có mà không thay đổi các tham số gốc. Bằng cách thêm các trọng số bộ điều chỉnh điều chỉnh đầu ra của một số lớp nhất định, LoRA cho phép các mô hình giữ lại kiến thức đã được đào tạo trước trong khi có được các khả năng mới được điều chỉnh cho các nhiệm vụ cụ thể. Trong thí nghiệm này, trọng tâm là tinh chỉnh Llama 3.2 11B cho câu hỏi trích xuất, nhằm mục đích trích xuất các đoạn văn bản chính xác trả lời trực tiếp các truy vấn của người dùng, thay vì tóm tắt hoặc diễn đạt lại nội dung. Thí nghiệm được thực hiện trên nền tảng Google Colab sử dụng GPU A100, với thư viện Hugging Face Transformers hỗ trợ việc triển khai.
Kết quả của quá trình tinh chỉnh rất hứa hẹn, cho thấy sự cải thiện đáng kể trong hiệu suất của mô hình trên tập xác thực. Điểm BERT cải thiện từ 0.6469 lên 0.7505, trong khi điểm khớp chính xác tăng từ 0.116 lên 0.418. Những cải tiến này cho thấy kỹ thuật Q-LoRA thích ứng hiệu quả mô hình Llama 3.2 11B cho các nhiệm vụ câu hỏi trích xuất. Bài viết này phục vụ như một hướng dẫn cho các nhà nghiên cứu muốn áp dụng các phương pháp tương tự cho các mô hình và nhiệm vụ khác, nhấn mạnh tiềm năng của việc tinh chỉnh trong lĩnh vực xử lý ngôn ngữ tự nhiên.

6 tháng trước
io.net hợp tác với OpenLedger để nâng cao phát triển mô hình AI
Tuần này, nền tảng tài nguyên GPU phân tán phi tập trung io.net đã công bố một quan hệ đối tác chiến lược với OpenLedger, một blockchain dữ liệu được thiết kế đặc biệt cho trí tuệ nhân tạo (AI). Sự hợp tác này sẽ cho phép OpenLedger sử dụng tài nguyên tính toán GPU toàn cầu của io.net, nâng cao khả năng tinh chỉnh và đào tạo các mô hình AI. Được biết đến như Internet của các GPU, io.net cung cấp một mạng lưới mạnh mẽ các tài nguyên GPU phân tán, cho phép OpenLedger tăng tốc phát triển các mô hình AI của mình và trao quyền cho các nhà phát triển tạo ra các ứng dụng phi tập trung (DApps) dựa trên AI hiệu quả hơn. Theo Tausif Ahmad, Phó Chủ tịch Phát triển Kinh doanh tại io.net, quan hệ đối tác này sẽ cung cấp cho OpenLedger một cơ sở hạ tầng đáng tin cậy để mở rộng các mô hình AI của mình và mở khóa các trường hợp sử dụng mới, củng cố vị thế của nó như một nhà cung cấp đổi mới trong không gian AI phi tập trung.
Ngoài việc cung cấp tài nguyên GPU, cơ sở hạ tầng của io.net sẽ hỗ trợ việc suy diễn và lưu trữ các mô hình AI, đảm bảo hiệu suất và khả năng mở rộng tối ưu. Quan hệ đối tác này dự kiến sẽ nâng cao danh tiếng của OpenLedger như một nhà cung cấp dữ liệu đáng tin cậy, thúc đẩy đổi mới tại giao điểm của blockchain và AI. Sự hợp tác nhằm tạo ra dữ liệu chất lượng cao một cách an toàn và hiệu quả trong khi thúc đẩy đổi mới và hiệu suất. Một thành viên trong nhóm của OpenLedger nhấn mạnh rằng việc tận dụng cơ sở hạ tầng GPU của io.net sẽ cho phép người dùng tinh chỉnh các mô hình AI một cách hiệu quả hơn, cuối cùng dẫn đến sự phát triển của các mô hình AI đáng tin cậy và có thể giải thích.
Một yếu tố quan trọng trong sự lựa chọn của OpenLedger đối với io.net như là nhà cung cấp tài nguyên GPU của mình là các giải pháp tính toán hiệu quả về chi phí và có thể mở rộng. Quan hệ đối tác này sẽ cho phép OpenLedger mở rộng dịch vụ của mình mà không bị ràng buộc bởi chi phí cao liên quan đến các nhà cung cấp đám mây tập trung. Bằng cách xử lý các tập dữ liệu lớn hơn và phát triển các mô hình AI với hiệu suất chưa từng có, OpenLedger nhằm mục đích đẩy ranh giới của đổi mới AI phi tập trung. Cuối cùng, quan hệ đối tác này phù hợp với sứ mệnh của OpenLedger trong việc thúc đẩy một môi trường dữ liệu mở và hợp tác trong khi thúc đẩy việc áp dụng các giải pháp AI được hỗ trợ bởi blockchain.

6 tháng trước
Stratos Hợp Tác với Cortensor để Nâng Cao Cơ Sở Hạ Tầng AI Phi Tập Trung
Trong một phát triển quan trọng cho lĩnh vực AI phi tập trung, Stratos đã công bố một quan hệ đối tác với Cortensor, một nhà lãnh đạo trong các mạng lưới suy diễn AI phi tập trung. Sự hợp tác này nhằm nâng cao cơ sở hạ tầng AI phi tập trung bằng cách tích hợp các giải pháp lưu trữ và phát trực tuyến phi tập trung mạnh mẽ của Stratos vào hệ sinh thái AI sáng tạo của Cortensor. Quan hệ đối tác này sẽ cung cấp lưu trữ dữ liệu an toàn và có thể mở rộng, đảm bảo rằng cả khối lượng công việc AI công khai và riêng tư đều có thể hoạt động liền mạch và đáng tin cậy, từ đó cải thiện hiệu suất mạng tổng thể.
Một trong những tính năng chính của sự hợp tác này là việc giới thiệu khả năng phát trực tuyến suy diễn thời gian thực. Các API phát video tiên tiến của Stratos sẽ cho phép Cortensor cung cấp đầu ra suy diễn AI ngay lập tức, tạo điều kiện cho các ứng dụng động và các nhiệm vụ do người dùng điều khiển. Sự cải tiến này dự kiến sẽ tối ưu hóa hiệu suất cho các khối lượng công việc AI, khi cơ sở hạ tầng thông lượng cao của Stratos sẽ cải thiện giao tiếp giữa các nút, đảm bảo dòng dữ liệu hiệu quả ngay cả trong các môi trường có nhu cầu cao. Đây là một bước quan trọng hướng tới việc làm cho các công cụ AI tiên tiến trở nên dễ tiếp cận và tiết kiệm chi phí hơn.
Cả hai công ty đều chia sẻ một tầm nhìn cho tương lai AI phi tập trung, với hệ thống Chứng minh Suy diễn (PoI) và Chứng minh Công việc Hữu ích (PoUW) của Cortensor xác thực các nhiệm vụ và thưởng cho những người đóng góp cho công việc có ý nghĩa. Stratos, với cơ sở hạ tầng phi tập trung hỗ trợ các giải pháp Web3 và AI, có hơn 900 nút lưu trữ toàn cầu hoạt động và dung lượng 21 PB. Quan hệ đối tác này không chỉ minh chứng cho cam kết của họ đối với đổi mới mà còn nhằm mở ra những khả năng mới cho các doanh nghiệp, nhà phát triển và thợ mỏ do cộng đồng điều hành, cuối cùng xây dựng một hệ sinh thái AI bao trùm và có thể mở rộng hơn. Hãy theo dõi các cập nhật tiếp theo khi họ tiếp tục đẩy mạnh ranh giới của các giải pháp AI phi tập trung.
Đăng ký để nhận tin tức và cập nhật mới nhất từ DePIN