Network3 công bố tính năng Mô hình Ngôn ngữ Lớn (LLM) Cục bộ mới
Network3, một nền tảng AI Layer2 dành cho các nhà phát triển trí tuệ nhân tạo toàn cầu, vừa công bố sáng tạo mới nhất của mình tại Hội nghị R3al World tại Singapore. Tính năng Mô hình Ngôn ngữ Lớn (LLM) mới được thiết kế để tăng cường hiệu suất và hiệu suất của công nghệ AI Edge. AI Edge liên quan đến triển khai các mô hình AI trực tiếp trên các thiết bị cục bộ như điện thoại thông minh, đưa xử lý dữ liệu gần nguồn để cải thiện hiệu suất ứng dụng và giảm độ trễ. Thị trường AI Edge toàn cầu dự kiến sẽ vượt quá 269 tỷ đô la trong 8 năm tới, nhấn mạnh sự quan trọng ngày càng tăng của công nghệ này.
Biến các Thiết bị Thông minh thành Tài sản Đào Tạo AI
Với sự tập trung vào việc làm cho các công nghệ Web3 & AI trở nên dễ tiếp cận, Network3 tích hợp DePIN với AI để cho phép các thiết bị IoT đào tạo các mô hình AI nhỏ. Bằng cách tận dụng tài nguyên không hoạt động trên các thiết bị thông minh, cá nhân có thể tham gia vào việc đào tạo AI và kiếm phần thưởng. Việc giới thiệu tính năng LLM cục bộ nhằm tối ưu hóa khả năng xử lý của các thiết bị thông minh trong thời gian không hoạt động, giảm sự phụ thuộc vào điện toán đám mây, giảm băng thông sử dụng, và tăng cường bảo mật và quyền riêng tư dữ liệu. Network3, với hơn 320.000 nút hoạt động trên toàn cầu, vừa ra mắt thiết bị đào N3 Edge V1, cung cấp khả năng đào kép cho token IoTeX và Network3.
Cung cấp Dịch vụ Chat AI trên Thiết bị Di động
Cập nhật mới nhất của Network3 cho phép người dùng truy cập dịch vụ chat AI trên thiết bị di động của họ mà không cần cơ sở hạ tầng đám mây đắt tiền. Một phiên bản thử nghiệm của cập nhật sẽ sớm có sẵn để tải xuống trên trang web chính thức, cung cấp cho người dùng cơ hội tương tác với mô hình, kiếm token, và cá nhân hóa trải nghiệm AI của họ.