Việc chạy một mô hình Trí tuệ Nhân tạo (AI) mà không cần kết nối internet nghe có vẻ hấp dẫn, nhưng thường đòi hỏi phần cứng mạnh mẽ và đắt tiền. Tuy nhiên, điều này không phải lúc nào cũng đúng: mô hình DeepSeek R1 cung cấp một lựa chọn hữu ích cho các thiết bị có cấu hình thấp hơn và đáng ngạc nhiên là nó cũng rất dễ cài đặt. Tại thuthuatmobile.net, chúng tôi sẽ hướng dẫn bạn cách thực hiện và đánh giá chi tiết trải nghiệm này.
Chạy AI Chatbot Cục Bộ Nghĩa Là Gì?
Khi bạn sử dụng các chatbot AI trực tuyến như ChatGPT, các yêu cầu của bạn được xử lý trên máy chủ của OpenAI, nghĩa là thiết bị của bạn không phải chịu tải nặng. Bạn cần có kết nối internet liên tục để giao tiếp với các chatbot AI và không bao giờ hoàn toàn kiểm soát dữ liệu của mình. Các mô hình ngôn ngữ lớn (LLM) cung cấp năng lượng cho chatbot AI, như ChatGPT, Gemini, Claude, v.v., cực kỳ yêu cầu về tài nguyên khi chạy vì chúng dựa vào GPU với nhiều VRAM. Đó là lý do tại sao hầu hết các mô hình AI đều dựa trên đám mây.
Một chatbot AI cục bộ được cài đặt trực tiếp trên thiết bị của bạn, giống như bất kỳ phần mềm nào khác. Điều đó có nghĩa là bạn không cần kết nối internet liên tục để sử dụng chatbot AI và có thể gửi yêu cầu bất cứ lúc nào. DeepSeek-R1 là một LLM cục bộ có thể cài đặt trên nhiều thiết bị. Mô hình 7B (bảy tỷ tham số) được chưng cất của nó là một phiên bản nhỏ hơn, được tối ưu hóa, hoạt động tốt trên phần cứng tầm trung, cho phép tôi tạo ra các phản hồi AI mà không cần xử lý đám mây. Nói một cách đơn giản, điều này có nghĩa là phản hồi nhanh hơn, quyền riêng tư tốt hơn và kiểm soát hoàn toàn dữ liệu của bạn.
Hướng Dẫn Cài Đặt DeepSeek-R1 Trên Laptop
Việc chạy DeepSeek-R1 trên thiết bị của bạn khá đơn giản, nhưng hãy nhớ rằng bạn đang sử dụng một phiên bản ít mạnh mẽ hơn so với chatbot AI dựa trên web của DeepSeek. Chatbot AI của DeepSeek sử dụng khoảng 671 tỷ tham số, trong khi DeepSeek-R1 có khoảng 7 tỷ tham số.
Bạn có thể tải xuống và sử dụng DeepSeek-R1 trên máy tính của mình bằng cách làm theo các bước sau:
Giao diện Terminal hiển thị DeepSeek-R1 đang chạy lệnh
- Truy cập trang web của Ollama và tải xuống phiên bản mới nhất. Sau đó, cài đặt nó trên thiết bị của bạn như bất kỳ ứng dụng nào khác.
- Mở Terminal (hoặc Command Prompt trên Windows) và nhập lệnh sau:
ollama run deepseek-r1:7b
Lệnh này sẽ tải xuống mô hình DeepSeek-R1 7B vào máy tính của bạn, cho phép bạn nhập các truy vấn trong Terminal và nhận phản hồi. Nếu bạn gặp vấn đề về hiệu suất hoặc treo máy, hãy thử sử dụng một mô hình ít đòi hỏi hơn bằng cách thay thế 7b bằng 1.5b trong lệnh trên.
Mặc dù mô hình hoạt động hoàn hảo trong Terminal, nếu bạn muốn có giao diện người dùng (UI) đầy đủ tính năng với định dạng văn bản phù hợp như ChatGPT, bạn cũng có thể sử dụng một ứng dụng như Chatbox.
Đánh Giá Thực Tế Hiệu Năng DeepSeek-R1 Cục Bộ
Như đã đề cập trước đó, các phản hồi sẽ không tốt (hoặc nhanh!) bằng những phản hồi từ chatbot AI trực tuyến của DeepSeek vì nó sử dụng một mô hình mạnh mẽ hơn và xử lý mọi thứ trên đám mây. Nhưng hãy cùng xem các mô hình nhỏ hơn này hoạt động tốt như thế nào.
Giải Quyết Bài Toán Phức Tạp
Để kiểm tra hiệu suất của mô hình tham số 7B, tôi đã đưa cho nó một phương trình và yêu cầu nó giải tích phân. Tôi khá hài lòng với cách nó hoạt động, đặc biệt là vì các mô hình cơ bản thường gặp khó khăn với toán học.
Giao diện Terminal hiển thị DeepSeek-R1 đang chạy lệnh
Phải thừa nhận rằng đây không phải là một câu hỏi phức tạp nhất, nhưng đó chính xác là lý do tại sao việc chạy một LLM cục bộ lại hữu ích đến vậy. Đó là việc có một thứ gì đó sẵn sàng để xử lý các truy vấn đơn giản ngay lập tức thay vì phải dựa vào đám mây cho mọi thứ.
Gỡ Lỗi Mã Nguồn (Debugging Code)
Một trong những công dụng tốt nhất mà tôi đã tìm thấy khi chạy DeepSeek-R1 cục bộ là cách nó giúp ích cho các dự án AI của tôi. Nó đặc biệt hữu ích vì tôi thường viết mã trên các chuyến bay khi không có kết nối internet, và tôi rất thường xuyên dựa vào LLM để gỡ lỗi. Để kiểm tra xem nó hoạt động tốt như thế nào, tôi đã đưa cho nó đoạn mã này với một lỗi ngớ ngẩn được cố tình thêm vào.
X = np.array([1, 2, 3, 4, 5]).reshape(-1, 1) y = np.array([2, 4, 6, 8, 10]) model = LinearRegression() model.fit(X, y) new_X = np.array([6, 7, 8]) prediction = model.predict(new_X)
Nó đã xử lý đoạn mã một cách dễ dàng, nhưng hãy nhớ rằng tôi đang chạy thử nghiệm này trên một chiếc MacBook Air M1 với chỉ 8GB Unified Memory (Unified Memory là bộ nhớ được chia sẻ giữa CPU, GPU và các bộ phận khác của SoC).
DeepSeek-R1 sửa lỗi trong mã Python, cung cấp gợi ý chính xác
Khi IDE đang mở và một vài tab trình duyệt đang chạy, hiệu suất của MacBook của tôi đã bị ảnh hưởng nghiêm trọng—tôi phải buộc đóng mọi thứ để nó phản hồi lại. Nếu bạn có 16GB RAM hoặc thậm chí là một GPU tầm trung, bạn có thể sẽ không gặp phải những vấn đề này.
Tôi cũng đã thử nghiệm nó với các cơ sở mã lớn hơn, nhưng nó bị kẹt trong một vòng lặp suy nghĩ, vì vậy tôi sẽ không dựa vào nó để thay thế hoàn toàn các mô hình mạnh mẽ hơn. Mặc dù vậy, nó vẫn hữu ích để nhanh chóng tạo ra các đoạn mã nhỏ.
Giải Đáp Các Bài Đố Logic
Tôi cũng tò mò muốn xem mô hình này xử lý các câu đố và lý luận logic tốt đến mức nào, vì vậy tôi đã thử nghiệm nó với bài toán Monty Hall, và nó đã giải quyết dễ dàng. Nhưng tôi thực sự bắt đầu đánh giá cao DeepSeek vì một lý do khác.
DeepSeek-R1 giải quyết bài toán Monty Hall một cách chi tiết
Như đã hiển thị trong ảnh chụp màn hình, nó không chỉ đưa ra câu trả lời—nó còn hướng dẫn bạn toàn bộ quá trình suy nghĩ, giải thích cách nó đi đến giải pháp. Điều này làm rõ rằng nó đang lý luận qua vấn đề thay vì chỉ đơn thuần nhớ lại một câu trả lời đã được huấn luyện.
Hỗ Trợ Công Việc Nghiên Cứu
Một trong những hạn chế lớn nhất của việc chạy LLM cục bộ là giới hạn kiến thức (knowledge cutoff) đã lỗi thời của nó. Vì nó không thể truy cập internet, việc tìm kiếm thông tin đáng tin cậy về các sự kiện gần đây có thể là một thách thức. Hạn chế này đã rõ ràng trong quá trình thử nghiệm của tôi, nhưng nó trở nên tồi tệ hơn khi tôi yêu cầu một cái nhìn tổng quan ngắn gọn về chiếc iPhone gốc—nó đã tạo ra một phản hồi vừa không chính xác vừa vô tình hài hước.
Giao diện Terminal hiển thị DeepSeek-R1 đang chạy lệnh
Chiếc iPhone đầu tiên rõ ràng không ra mắt với iOS 5, cũng không ra mắt sau “iPhone 3” không tồn tại. Nó đã sai gần như mọi thứ. Tôi đã thử nghiệm nó với một vài câu hỏi cơ bản khác, nhưng những sai sót vẫn tiếp diễn.
Sau khi DeepSeek gặp sự cố rò rỉ dữ liệu, thật yên tâm khi biết rằng tôi có thể chạy mô hình này cục bộ mà không phải lo lắng về việc dữ liệu của mình bị lộ. Mặc dù nó không hoàn hảo, nhưng việc có một trợ lý AI ngoại tuyến là một lợi thế rất lớn. thuthuatmobile.net hy vọng sẽ thấy nhiều mô hình như thế này được tích hợp vào các thiết bị tiêu dùng như điện thoại thông minh, đặc biệt là sau sự thất vọng của cộng đồng với Apple Intelligence.
Kết luận:
DeepSeek-R1 mang lại một giải pháp hữu ích cho những ai muốn trải nghiệm AI ngay trên thiết bị của mình mà không cần phụ thuộc vào kết nối internet hay lo lắng về quyền riêng tư dữ liệu. Mặc dù phiên bản cục bộ này không thể sánh bằng các mô hình đám mây về hiệu năng và phạm vi kiến thức cập nhật, nó vẫn chứng tỏ khả năng vượt trội trong các tác vụ cụ thể như giải toán, gỡ lỗi mã nguồn nhỏ và lý luận logic. Tuy nhiên, bạn cần lưu ý về yêu cầu tài nguyên phần cứng và hạn chế trong việc truy xuất thông tin mới.
Bạn đã từng thử chạy AI cục bộ chưa? Hãy chia sẻ kinh nghiệm của bạn với DeepSeek-R1 hoặc các mô hình khác trong phần bình luận bên dưới nhé!