CUDOS Hợp Tác với ParallelAI để Tăng Cường Điện Toán AI Phi Tập Trung

thứ sáu, tháng 11 8, 2024 12:00 AM
105
CUDOS Hợp Tác với ParallelAI để Tăng Cường Điện Toán AI Phi Tập Trung cover

CUDOS, một người chơi nổi bật trong lĩnh vực điện toán đám mây bền vững và phi tập trung, gần đây đã thiết lập một quan hệ đối tác chiến lược với ParallelAI, một người tiên phong trong các giải pháp xử lý song song dành cho trí tuệ nhân tạo. Sự hợp tác này nhằm kết hợp GPU Ada Lovelace và Ampere hiệu suất cao của CUDOS với Middleware GPU Parahub của ParallelAI, từ đó tạo ra một môi trường điện toán AI phi tập trung hứa hẹn mang lại hiệu quả và khả năng mở rộng xuất sắc. Bằng cách tận dụng cơ sở hạ tầng phi tập trung của CUDOS, hệ sinh thái $PAI của ParallelAI sẽ có quyền truy cập vào các nguồn GPU mạnh mẽ và tiết kiệm chi phí, cho phép tăng tốc các khối lượng công việc AI, giúp các nhà phát triển và doanh nghiệp tối ưu hóa việc sử dụng GPU trong khi giảm thiểu chi phí hoạt động.

Thời điểm của mối quan hệ đối tác này đặc biệt quan trọng khi CUDOS tiếp tục xây dựng trên sự hợp nhất token gần đây với các thành viên ASI Alliance, bao gồm các thực thể nổi bật như Fetch.ai, SingularityNET và Ocean Protocol. Sự liên kết chiến lược này càng củng cố vị thế của CUDOS trong một mạng lưới AI phi tập trung được công nhận toàn cầu. Các sản phẩm sắp ra mắt của ParallelAI như Ngôn ngữ Lập trình Parilix và Bộ chuyển đổi mã tự động PACT sẽ bổ sung cho mối quan hệ đối tác này, đơn giản hóa lập trình GPU và nâng cao khả năng tiếp cận xử lý song song cho các nhà phát triển, từ đó thúc đẩy đổi mới trong lĩnh vực AI.

Sự hợp tác giữa CUDOS và ParallelAI thể hiện sự cam kết chung trong việc thúc đẩy các giải pháp điện toán AI bền vững và dễ tiếp cận. Khi việc tích hợp công nghệ của họ tiến triển, mối quan hệ đối tác này dự kiến sẽ mở ra một kỷ nguyên mới của điện toán hiệu suất cao phi tập trung, cuối cùng định hình lại cảnh quan trí tuệ nhân tạo cho cả các nhà phát triển và doanh nghiệp. Với khả năng của ParallelAI trong việc nâng cao hiệu quả tính toán bằng cách giảm đáng kể thời gian tính toán, sự kết hợp giữa hai công ty này dự kiến sẽ thúc đẩy một loạt các dự án AI và phân tích dữ liệu quy mô lớn.

Mua Ngay tại

Related News

Sự Phi Tập Trung của Tính Toán AI: Một Kỷ Nguyên Mới về Nhu Cầu và Hiệu Quả cover
2 ngày trước
Sự Phi Tập Trung của Tính Toán AI: Một Kỷ Nguyên Mới về Nhu Cầu và Hiệu Quả
Ngành công nghiệp AI hiện đang trải qua một thời điểm quan trọng với sự xuất hiện của các mô hình nhỏ hơn và hiệu quả hơn, chẳng hạn như DeepSeek. Trái ngược với mong đợi, những tiến bộ này không làm giảm nhu cầu về tài nguyên tính toán; thay vào đó, chúng gia tăng nhu cầu, phù hợp với Nghịch lý Jevons, cho rằng hiệu quả cao hơn có thể dẫn đến mức tiêu thụ tổng thể lớn hơn. Khi các mô hình AI trở nên rẻ hơn, nhanh hơn và dễ tiếp cận hơn, nhu cầu về sức mạnh tính toán tiếp tục tăng, đặt ra những câu hỏi quan trọng về cách hỗ trợ suy diễn AI rộng rãi mà không tạo ra các nút thắt cổ chai mới trong cơ sở hạ tầng hiện có. Lịch sử cho thấy, AI đã phụ thuộc vào cơ sở hạ tầng tập trung quy mô lớn do các nhà cung cấp lớn kiểm soát, điều này đã dẫn đến những lo ngại về khả năng tiếp cận, giá cả và tính khả dụng. Tuy nhiên, sự xuất hiện của các mô hình như DeepSeek thách thức mô hình này bằng cách chứng minh rằng việc tăng hiệu quả có thể tạo ra áp lực mới lên tài nguyên tính toán. Khi ngày càng nhiều cá nhân và tổ chức áp dụng công nghệ AI, tổng nhu cầu tính toán đang tăng vọt, đặc biệt khi các lựa chọn mã nguồn mở ngày càng được ưa chuộng. Sự chuyển mình này thể hiện rõ trong sự phát triển nhanh chóng của các mô hình miễn phí và mã nguồn mở vượt trội hơn các tùy chọn độc quyền, cho phép các startup và nhà phát triển độc lập tham gia vào lĩnh vực AI mà không bị ràng buộc bởi các nhà cung cấp đám mây truyền thống. Khi nhu cầu về cơ sở hạ tầng AI có thể mở rộng và tiết kiệm chi phí tăng lên, tính toán phi tập trung đang nổi lên như một giải pháp khả thi. Bằng cách phân phối khối lượng công việc qua một mạng lưới toàn cầu các GPU hiệu suất cao, mô hình này giải quyết nhiều điểm yếu liên quan đến các hệ thống tập trung. Sự phi tập trung không chỉ nâng cao hiệu quả chi phí và khả năng mở rộng mà còn cung cấp quyền riêng tư và kiểm soát dữ liệu tốt hơn. Sự thành công của các mô hình như DeepSeek minh họa cho nhu cầu chuyển hướng sang tính toán AI phân tán, nơi các nhà phát triển và nhà nghiên cứu có thể hoạt động độc lập với cơ sở hạ tầng đám mây độc quyền. Tương lai của tính toán AI không phải là giảm nhu cầu mà là thích ứng với nhu cầu ngày càng tăng về sức mạnh tính toán, đảm bảo rằng hệ sinh thái AI phát triển song song với những tiến bộ của nó.
Mawari Ra Mắt Thành Phố Giải Trí Kỹ Thuật Số Namba: Cuộc Cách Mạng Thành Phố Thông Minh cover
2 ngày trước
Mawari Ra Mắt Thành Phố Giải Trí Kỹ Thuật Số Namba: Cuộc Cách Mạng Thành Phố Thông Minh
Trong một sự hợp tác đột phá, Mawari đã hợp tác với Công ty Đường sắt Điện Nankai, Công ty Meta Osaka và Công ty e-stadium để ra mắt "Thành phố Giải trí Kỹ thuật số Namba" tại Osaka, Nhật Bản. Dự án sáng tạo này nhằm tạo ra thành phố thông minh đầu tiên trên thế giới tích hợp trí tuệ nhân tạo (AI), thực tế mở rộng (XR) và mạng lưới cơ sở hạ tầng vật lý phi tập trung (DePIN) trên quy mô toàn thành phố. Bằng cách tận dụng những điểm mạnh độc đáo của từng đối tác, sáng kiến này nhằm kết hợp công nghệ tiên tiến với cuộc sống đô thị hàng ngày, thúc đẩy một nền văn hóa kỹ thuật số sôi động và giải quyết các thách thức xã hội thông qua sự tham gia của cộng đồng. Vai trò quan trọng của Mawari liên quan đến việc triển khai điện toán biên và thiết bị xử lý trên các tài sản của Nankai để thiết lập một cơ sở hạ tầng phát trực tuyến phi tập trung. Cài đặt này nâng cao trải nghiệm người dùng bằng cách giảm thiểu độ trễ và cho phép tương tác thời gian thực với các hình đại diện AI sống động. Những hình đại diện này được thiết kế để hỗ trợ trong nhiều nhiệm vụ, chẳng hạn như hướng dẫn khách du lịch và tạo điều kiện giao tiếp qua các rào cản ngôn ngữ. Dự án này là một cột mốc quan trọng đối với Mawari, khi nó nhằm mục đích dân chủ hóa những trải nghiệm nhập vai được điều khiển bởi AI, với Giám đốc điều hành Luis Oscar Ramirez nhấn mạnh tiềm năng của nó cho việc áp dụng đại trà và tác động xã hội cụ thể. Tác động dự kiến của Thành phố Giải trí Kỹ thuật số Namba không chỉ giới hạn trong lĩnh vực giải trí, mà còn nhắm đến các lĩnh vực như du lịch và lao động. Bằng cách cung cấp các hướng dẫn 3D đa ngôn ngữ và trải nghiệm văn hóa nhập vai, dự án nhằm thu hút nhiều du khách nước ngoài hơn đến Nhật Bản, từ đó thúc đẩy các doanh nghiệp địa phương. Ngoài ra, nó còn giải quyết tình trạng thiếu lao động của Nhật Bản bằng cách tạo ra cơ hội làm việc linh hoạt, từ xa thông qua các hình đại diện điều khiển bởi AI, thúc đẩy sự bao gồm cho các nhóm đa dạng. Sáng kiến này không chỉ nâng cao khả năng tiếp cận mà còn phù hợp với nhu cầu cấp bách của Nhật Bản về các giải pháp lực lượng lao động đổi mới, đánh dấu một bước chuyển mình hướng tới một tương lai đô thị tích hợp kỹ thuật số.
Thành phố Giải trí Kỹ thuật số Namba: Sự kết hợp của AI và XR tại Osaka cover
2 ngày trước
Thành phố Giải trí Kỹ thuật số Namba: Sự kết hợp của AI và XR tại Osaka
Thành phố Giải trí Kỹ thuật số Namba là một dự án thực tế mở rộng (XR) đổi mới nằm ở Osaka, Nhật Bản, tích hợp các hướng dẫn trí tuệ nhân tạo (AI) trên khắp thành phố. Sáng kiến này được hỗ trợ bởi mạng lưới cơ sở hạ tầng vật lý phi tập trung (DePIN) của Mawari, cho thấy cách mà các DePIN có thể đáp ứng hiệu quả nhu cầu tính toán của cả công nghệ XR và AI. Sự hợp tác này bao gồm các bên quan trọng như Mawari, Meta Osaka, Đường sắt Điện Nankai và sân vận động điện tử Namba, làm nổi bật di sản văn hóa và công nghệ phong phú của Osaka trong khi mở rộng ranh giới của những trải nghiệm nhập vai. Dự án nhằm nâng cao trải nghiệm du lịch bằng cách sử dụng các hướng dẫn AI ảo có khả năng thực hiện nhiều nhiệm vụ, từ việc cung cấp hướng dẫn đến việc cung cấp dịch vụ khách hàng. Những nhân vật điều khiển bằng AI này được thiết kế để tạo điều kiện cho các tương tác trực quan vượt qua rào cản ngôn ngữ, giúp du lịch trở nên dễ tiếp cận hơn. Sự tích hợp của AI trong các trải nghiệm XR đặt ra những thách thức độc đáo, đặc biệt là do sức mạnh tính toán đáng kể cần thiết cho việc xử lý đồ họa và xử lý AI. Các DePIN, như những gì mà Mawari cung cấp, hứa hẹn sẽ giảm bớt những thách thức này bằng cách tận dụng các mạng GPU phi tập trung để giảm độ trễ và yêu cầu băng thông. Khi nhu cầu xử lý AI gia tăng, việc chuyển đổi từ xử lý đồ họa sang khả năng AI đang trở nên phổ biến hơn trong số các DePIN GPU. Đáng chú ý, Render Network đã thành công trong việc chuyển hướng để bao gồm xử lý AI bên cạnh trọng tâm ban đầu của mình về đồ họa. Dự án Thành phố Giải trí Kỹ thuật số Namba minh họa xu hướng này, cho thấy tiềm năng của các mạng GPU phi tập trung trong việc hỗ trợ sự hội tụ của các công nghệ XR và AI. Hơn nữa, theo luật pháp Nhật Bản, các token DePIN được phân loại là token tiện ích, điều này giúp điều hướng các thách thức quy định trong khi thúc đẩy đổi mới trong lĩnh vực này.
Mở khóa sức mạnh tính toán vô song với GPU trên Aleph Cloud cover
2 ngày trước
Mở khóa sức mạnh tính toán vô song với GPU trên Aleph Cloud
GPU hiện đã được tích hợp vào [Aleph Cloud](https://aleph.im/), cung cấp khả năng tính toán hiệu suất cao cho các dịch vụ AI, rendering, game, tác nhân AI và nhiều hơn nữa. Chúng tôi tự hào thông báo một cột mốc quan trọng cho hệ sinh thái đám mây phi tập trung của chúng tôi với sự tích hợp GPU mới nhất. Ứng dụng Node Kênh Core Aleph Cloud mới giới thiệu tích hợp GPU, một tính năng chuyển đổi giúp Aleph Cloud trở thành một giải pháp mạnh mẽ và cạnh tranh hơn cho các nhu cầu tính toán hiệu suất cao. Ngoài ra, bản phát hành này mang đến khả năng quản lý tài khoản, ước tính giá cả và một loạt các cải tiến về hiệu suất, khiến Aleph Cloud trở thành một nền tảng mạnh mẽ hơn cho cả nhà phát triển và doanh nghiệp. Với hỗ trợ GPU, người dùng giờ đây có thể mở khóa sức mạnh tính toán vô song cho các tác vụ như đào tạo AI, rendering, game và chạy các tác nhân AI. Bằng cách tận dụng cơ sở hạ tầng phi tập trung, Aleph Cloud cung cấp cả khả năng mở rộng và linh hoạt với giá cả cạnh tranh cao, tất cả thông qua sự tiện lợi của mô hình Trả theo mức sử dụng (PAYG) sử dụng token ALEPH. # Cách mạng hóa tính toán đám mây với tích hợp GPU Việc tích hợp GPU vào Aleph Cloud đánh dấu một bước tiến quan trọng. Bằng cách cho phép truy cập cả GPU tiêu dùng và GPU doanh nghiệp, người dùng giờ đây có thể chọn các tài nguyên chính xác mà họ cần thông qua giao diện trực quan của chúng tôi tại console.twentysix.cloud. Điều này cho phép họ mở rộng khối lượng công việc một cách liền mạch, cho dù họ đang xây dựng các mô hình học máy, rendering đồ họa phức tạp, hay cung cấp nền tảng game dựa trên đám mây. Mỗi mô hình GPU được ghép đôi với các phân bổ vCPU, RAM và đĩa cụ thể, đảm bảo hiệu suất tối đa cho bất kỳ khối lượng công việc nào. Ví dụ, một RTX 4090, lý tưởng cho game hoặc các dự án AI nhỏ hơn, sẽ có giá khoảng 240 đô la mỗi tháng*, trong khi một H100 cấp doanh nghiệp, được thiết kế cho các hoạt động yêu cầu dữ liệu cao, có giá khoảng 1,920 đô la mỗi tháng*. # Mô hình Trả theo mức sử dụng được cải tiến Mô hình PAYG của Aleph Cloud được thiết kế để cung cấp sự linh hoạt và minh bạch về chi phí, một lợi thế quan trọng cho các doanh nghiệp và nhà phát triển. Với token ALEPH là phương thức thanh toán độc quyền, người dùng có thể tận hưởng trải nghiệm thanh toán liền mạch trên các blockchain như Base và Avalanche. Điều này đảm bảo không chỉ tính khả thi mà còn cả khả năng tiếp cận đến một đối tượng toàn cầu. Ngoài ra, khi một người dùng cung cấp một máy ảo được hỗ trợ GPU và khởi động thanh toán, hệ thống sẽ tự động tạo ra hai dòng thanh toán. 80% thanh toán sẽ được phân bổ trực tiếp cho nhà điều hành nút cung cấp sức mạnh tính toán, trong khi 20% sẽ đóng góp vào kho bạc Aleph Cloud. Mô hình này đảm bảo phân phối tài nguyên công bằng và bền vững, khuyến khích các nhà điều hành nút trong khi cũng tái đầu tư vào sự phát triển và tăng trưởng liên tục của hệ sinh thái Aleph Cloud. Cấu trúc giá cả rất đơn giản nhưng cực kỳ cạnh tranh. Ví dụ: * GPU tiêu dùng như RTX 4090 có giá khoảng 111 đô la mỗi tháng, trong khi một RTX 4000 ADA chỉ có giá khoảng 55 đô la mỗi tháng*. * GPU doanh nghiệp như A100 và H100 được thiết kế cho các tác vụ yêu cầu cao, có giá khoảng 875 đô la và 583 đô la mỗi tháng*, tương ứng. Cấu trúc minh bạch này cho phép người dùng lập ngân sách chính xác, mở rộng tài nguyên của họ khi các dự án phát triển. ![Mô hình giá Aleph](https://pbs.twimg.com/media/GkKhUsAXwAE7jv9?format=png&name=large) Phân tích giá cả tính đến ngày 18/02/2025 # Tính năng mới cho trải nghiệm người dùng tối ưu Ngoài việc tích hợp GPU, bản phát hành này giới thiệu một số tính năng nhằm nâng cao hiệu suất và tính khả dụng. Trong số những điểm nổi bật: * Lưu trữ tổng hợp: Bằng cách triển khai lưu trữ cho các tổng hợp chủ sở hữu và dữ liệu chỉ số, nền tảng hiện cung cấp thời gian phản hồi nhanh hơn và hiệu suất mượt mà hơn. * Ước tính giá cả: Người dùng giờ đây có thể ước tính chi phí của các thông điệp thực thi trước khi gửi chúng, cung cấp sự minh bạch và kiểm soát lớn hơn. * Số dư đã được tính toán trước: Tính năng này cải thiện đáng kể hiệu suất hệ thống bằng cách giảm tải tính toán. * Cập nhật dịch vụ chi phí: Dịch vụ chi phí hiện sử dụng các tổng hợp giá cả để có ước tính chính xác hơn. Những cải tiến này cùng nhau làm cho Aleph Cloud đáng tin cậy và thân thiện với người dùng hơn, củng cố vị thế của nó như một giải pháp hàng đầu cho tính toán đám mây phi tập trung. ## Mở khóa các trường hợp sử dụng mới với GPU Việc bổ sung GPU mở rộng khả năng của Aleph Cloud để phục vụ cho nhiều ngành công nghiệp và ứng dụng khác nhau: * AI và học máy: Đào tạo và triển khai các mô hình học máy nhanh hơn và hiệu quả hơn. * Rendering: Tạo hiệu ứng hình ảnh tuyệt đẹp và đồ họa 3D chất lượng cao với thời gian rendering giảm. * Game: Cung cấp trải nghiệm liền mạch, hiệu suất cao cho các nền tảng game đám mây. * Tác nhân AI: Cung cấp sức mạnh cho các tác nhân AI tiên tiến với các nguồn tài nguyên tính toán phi tập trung mạnh mẽ. Những trường hợp sử dụng này cho thấy tính linh hoạt của dịch vụ GPU của Aleph Cloud, khiến nó trở thành lựa chọn hấp dẫn cho các nhà phát triển, người sáng tạo và doanh nghiệp. # Nhìn về phía trước Việc phát hành tích hợp GPU và các tính năng đi kèm đại diện cho một bước nhảy vọt quan trọng cho Aleph Cloud và cộng đồng của nó. Khi chúng tôi tiếp tục nâng cao nền tảng của mình, chúng tôi vẫn cam kết trao quyền cho người dùng với các công cụ mà họ cần để đổi mới, mở rộng và thành công trong một thế giới phi tập trung. Để khám phá những tính năng mới này và bắt đầu tận dụng GPU trên Aleph Cloud, hãy truy cập [console.twentysix.cloud](https://console.twentysix.cloud/computing/gpu-instance/) ngay hôm nay. Để biết thêm thông tin cập nhật, hãy theo dõi chúng tôi trên Twitter và tham gia cộng đồng Discord của chúng tôi. Cùng nhau, hãy định nghĩa lại tương lai của tính toán đám mây. *Các mức giá này được chuyển đổi sang USD từ giá hiện tại của token ALEPH. Dữ liệu này sẽ thay đổi theo thời gian.*
Phoenix Hợp Tác với TandemAI Để Cách Mạng Hóa Khám Phá Thuốc AI cover
3 ngày trước
Phoenix Hợp Tác với TandemAI Để Cách Mạng Hóa Khám Phá Thuốc AI
Vào ngày 20 tháng 2 năm 2025, tại Thượng Hải, Trung Quốc, Phoenix, một mạng lưới tính toán AI phi tập trung, đã công bố một quan hệ đối tác chiến lược với TandemAI, một công ty hàng đầu trong công nghệ khám phá thuốc AI. Sự hợp tác này nhằm triển khai nền tảng khám phá thuốc AI tiên tiến của TandemAI, TandemViz, trên lớp tính toán AI SkyNet của Phoenix. Việc tích hợp này sẽ tạo điều kiện cho một phiên bản nhẹ tùy chỉnh của TandemViz hoạt động trên mạng nút AI của SkyNet, cho phép các tổ chức nghiên cứu, phòng thí nghiệm và công ty dược phẩm truy cập hệ thống mà không phải chi phí ban đầu, với khả năng giảm đáng kể chi phí vận hành khi họ mở rộng việc sử dụng. Tầm quan trọng của quan hệ đối tác này vượt ra ngoài việc tích hợp công nghệ; nó đại diện cho một sự chuyển mình mang tính cách mạng trong việc tiếp cận các giải pháp AI trong khám phá thuốc. Trước đây, những giải pháp có chi phí cao và yêu cầu tính toán lớn chủ yếu chỉ có sẵn cho các tập đoàn lớn. Tuy nhiên, sự hợp tác này nhằm dân chủ hóa việc tiếp cận, khiến cho các thực thể nhỏ hơn, bao gồm cả các nhà nghiên cứu cá nhân và phòng thí nghiệm, có thể tận dụng những công cụ tiên tiến này. Sự phát triển này đặc biệt có liên quan đến lĩnh vực khoa học phi tập trung (DeSci), vì nó giới thiệu các công cụ nghiên cứu AI chuyên ngành có thể nâng cao giá trị của các sáng kiến DeSci, có khả năng dẫn đến việc thành lập các tổ chức tự trị phi tập trung (DAO) cung cấp tài trợ cho các nguyên nhân nghiên cứu cụ thể. TandemAI, được thành lập bởi chuyên gia trong ngành Lanny Sun, đã nhanh chóng phát triển với hơn 350 nhân viên, bao gồm hơn 50 nhà hóa học AI và tính toán đoạt giải thưởng. Công ty có hơn 80 công ty dược phẩm lớn trên toàn thế giới là khách hàng. Trong khi đó, lớp Tính toán SkyNet của Phoenix được thiết kế để mở rộng và hiệu quả, hỗ trợ một loạt các ứng dụng trong hệ sinh thái AI của nó, bao gồm hơn 130 ứng dụng tập trung vào AI cho giao dịch, trò chơi và DeSci. Quan hệ đối tác này dự kiến sẽ thúc đẩy đổi mới trong lĩnh vực khám phá thuốc AI, được hỗ trợ bởi Quỹ Hệ sinh thái AI Phoenix trị giá 20 triệu đô la, được ra mắt bởi JDI Group và Tensor Ventures.
Phoenix và Tandem AI hợp tác cách mạng hóa quy trình phát hiện thuốc cover
3 ngày trước
Phoenix và Tandem AI hợp tác cách mạng hóa quy trình phát hiện thuốc
Trong một sự hợp tác đột phá, Phoenix, nhà cung cấp cơ sở hạ tầng DePIN AI, đã hợp tác với Tandem AI, một nền tảng đổi mới chuyên về phát hiện thuốc tích hợp. Quan hệ đối tác này sẽ thấy Phoenix triển khai TandemViz trên lớp tính toán AI của mình, SkyNet. TandemViz được thiết kế để đơn giản hóa quy trình phát hiện thuốc bằng cách tích hợp phần mềm dựa trên vật lý tiên tiến và điều khiển bằng AI với các công cụ giúp quản lý và phân tích kết quả từ phòng thí nghiệm ướt. Trong khi đó, SkyNet phục vụ như một cơ sở hạ tầng phi tập trung hỗ trợ toàn bộ vòng đời tính toán AI, từ đào tạo và suy diễn đến mở rộng và triển khai các mô hình AI một cách dễ dàng. Việc tích hợp AI vào quy trình phát hiện thuốc đang biến đổi ngành công nghiệp bằng cách giải quyết những thách thức về thời gian và chi phí liên quan đến các phương pháp truyền thống. Không gian hóa học rộng lớn, chứa hàng triệu phân tử, làm phức tạp quy trình phát triển thuốc, khiến nó trở thành một công việc kéo dài và tốn kém. Phát hiện thuốc bằng AI tăng tốc quy trình này bằng cách xác định các hợp chất tiềm năng và xác thực các mục tiêu thuốc một cách hiệu quả hơn. Với quan hệ đối tác mới, một phiên bản nhẹ của TandemViz sẽ có sẵn cho các tổ chức nhỏ hơn và các nhà nghiên cứu độc lập, dân chủ hóa quyền truy cập vào các công cụ phát hiện thuốc AI tiên tiến mà trước đây chỉ giới hạn cho các tập đoàn lớn với nguồn lực đáng kể. Sự hợp tác này không chỉ nâng cao khả năng của cả Phoenix và Tandem mà còn góp phần vào sự phát triển của phong trào khoa học phi tập trung (DeSci). Bằng cách tận dụng các kiến trúc phi tập trung, quan hệ đối tác nhằm cung cấp giá trị lớn hơn cho cộng đồng DeSci, làm nổi bật tiềm năng của những công nghệ này trong việc thúc đẩy nghiên cứu khoa học. Với đội ngũ ấn tượng của Tandem gồm hơn 350 nhân viên và cơ sở khách hàng hơn 80 công ty dược phẩm lớn, quan hệ đối tác này dự kiến sẽ đạt được những bước tiến đáng kể trong lĩnh vực phát hiện thuốc và hơn thế nữa.
Đăng ký để nhận tin tức và cập nhật mới nhất từ DePIN