Google quay trở lại cuộc đua AI mã nguồn mở với Gemma 4

Decrypt
GLM-2,95%

Tóm tắt ngắn gọn

  • Google đã ra mắt Gemma 4, một họ các mô hình mã nguồn mở theo giấy phép Apache 2.0.
  • Bộ sưu tập gồm bốn mô hình trải từ điện thoại đến trung tâm dữ liệu, với mô hình 31B hiện xếp hạng #3 trên toàn cầu.
  • AI mã nguồn mở của Mỹ nhận được sự thúc đẩy cần thiết, khi Gemma 4—được hậu thuẫn bởi DeepMind—định vị mình là ứng viên Mỹ mạnh nhất trước DeepSeek, Qwen và các lãnh đạo Trung Quốc khác.

Tham vọng AI mã nguồn mở của Google hôm nay đã trở nên nghiêm túc hơn rất nhiều. Công ty đã phát hành Gemma 4, một họ gồm bốn mô hình trọng số mở, được xây dựng dựa trên cùng nghiên cứu với Gemini 3, và được cấp phép theo Apache 2.0—một bước rẽ đáng kể so với các điều khoản chặt chẽ hơn trong các phiên bản Gemma trước đó. Các nhà phát triển đã tải xuống các thế hệ Gemma trước đây hơn 400 triệu lần, tạo ra hơn 100.000 biến thể do cộng đồng phát triển. Bản phát hành này là tham vọng nhất cho đến nay.

Chúng tôi vừa phát hành Gemma 4 — các mô hình mã nguồn mở thông minh nhất của chúng tôi tính đến hiện tại.

Được xây dựng từ cùng nghiên cứu đẳng cấp thế giới như Gemini 3, Gemma 4 mang trí tuệ đột phá đến trực tiếp phần cứng của bạn để phục vụ suy luận nâng cao và các quy trình làm việc theo tác nhân.

Được phát hành theo giấy phép… pic.twitter.com/W6Tvj9CuHW

— Google (@Google) April 2, 2026

Trong suốt năm qua, bảng xếp hạng AI mã nguồn mở chủ yếu là câu chuyện của Trung Quốc. DeepSeek, Minimax, GLM và Qwen đã thống trị các vị trí hàng đầu, khiến các lựa chọn của Mỹ phải gấp rút tìm lại sự liên quan. Như Decrypt đã đưa tin vào năm ngoái, các mô hình mã nguồn mở của Trung Quốc đã tăng từ chỉ khoảng 1,2% mức sử dụng các mô hình mở toàn cầu vào cuối năm 2024 lên xấp xỉ 30% vào cuối năm 2025, trong đó Qwen của Alibaba thậm chí còn vượt Meta’s Llama để trở thành mô hình tự lưu trữ được dùng nhiều nhất trên toàn thế giới. Llama của Meta trước đây là lựa chọn mặc định cho các nhà phát triển muốn có một mô hình có năng lực và chạy được cục bộ. Danh tiếng đó đã suy giảm—giấy phép do Meta kiểm soát của Llama làm dấy lên câu hỏi về tình trạng mã nguồn mở thực sự của nó, và hiệu năng của nó tụt lại sau cuộc cạnh tranh đến từ các mô hình của Trung Quốc. Họ mô hình OLMo của Allen Institute đã cố gắng lấp khoảng trống nhưng không thể tạo được lực kéo đáng kể. OpenAI đã phát hành các mô hình gpt-oss vào tháng 8 năm 2025, mang lại một luồng sinh khí mới cho hệ sinh thái, nhưng chúng không bao giờ được thiết kế để trở thành đối thủ cạnh tranh tuyến đầu.  Và hôm qua, một startup của Mỹ gồm 30 người tên là Arcee AI đã phát hành Trinity, một mô hình mã nguồn mở tham số 400 tỷ, đưa ra lập luận thuyết phục rằng bối cảnh tại Mỹ không hoàn toàn đã tắt. Gemma 4 tiếp nối đà đó, lần này với toàn bộ “trọng lượng” của Google DeepMind đứng sau, biến nó thành—có thể nói—mô hình Mỹ tốt nhất trong mảng AI mã nguồn mở. Mô hình được “xây dựng từ cùng nghiên cứu và công nghệ đẳng cấp thế giới như Gemini 3,” Google cho biết trong thông báo của mình. Gemma 4 được đóng gói trong bốn kích thước: Effective 2B và 4B cho điện thoại và thiết bị biên, một mô hình 26B Mixture of Experts tập trung vào tốc độ, và một mô hình 31B Dense được tối ưu cho chất lượng thô.

Mô hình 31B Dense hiện xếp hạng thứ ba trong tất cả các mô hình mở trên bảng xếp hạng văn bản của Arena AI. MoE 26B xếp thứ sáu. Google tuyên bố cả hai vượt trội hơn các mô hình lớn gấp 20 lần—một tuyên bố vẫn giữ được, ít nhất là so với các con số của Arena AI, nơi các mô hình Trung Quốc vẫn chiếm hai vị trí dẫn đầu.

Chúng tôi đã thử Gemma 4. Nó có năng lực, với một vài lưu ý. Mô hình áp dụng suy luận ngay cả với các tác vụ không nhất thiết cần nó, điều này có thể khiến các phản hồi trông như bị “thiết kế quá công phu” cho những prompt đơn giản. Viết sáng tạo ở mức ổn—khả dụng, không phải truyền cảm hứng—và có khả năng sẽ cải thiện nếu có hướng dẫn cụ thể hơn và kỹ thuật viết prompt tốt hơn. Nơi nó thể hiện rõ nhất là ở mảng code. Khi được yêu cầu tạo một trò chơi, đầu ra không đặc biệt bắt mắt hay công phu, nhưng nó chạy mà không gặp lỗi ngay từ lần thử đầu tiên. Không tệ đối với một mô hình có 41 tỷ tham số. Mức độ tin cậy zero-shot này có thể đáng giá hơn một kết quả “đẹp” hơn nhưng lại cần gỡ lỗi. Bạn có thể thử trò chơi tại đây (cơ bản, nhưng hoạt động được).

Bốn biến thể bao phủ toàn bộ dải phần cứng. Các mô hình E2B và E4B được xây dựng cho điện thoại Android, Raspberry Pi và các thiết bị biên, chạy hoàn toàn offline với độ trễ gần như bằng 0, đầu vào âm thanh gốc, và cửa sổ ngữ cảnh 128K. Các mô hình 26B và 31B nhắm đến máy trạm và triển khai trên đám mây, mở rộng ngữ cảnh lên 256K và bổ sung gọi hàm gốc và đầu ra JSON có cấu trúc để xây dựng các tác nhân tự động. Cả bốn mô hình đều xử lý hình ảnh và video một cách nguyên bản. Các trọng số độ chính xác đầy đủ của các mô hình lớn hơn vừa trên một GPU NVIDIA H100 80GB duy nhất; các phiên bản đã lượng tử hóa chạy được trên phần cứng người dùng phổ thông. Giấy phép Apache 2.0 là điểm nhấn chính khác. Các bản phát hành Gemma trước đây của Google dùng một giấy phép tùy chỉnh, tạo ra sự mơ hồ pháp lý cho các sản phẩm thương mại. Apache 2.0 loại bỏ hoàn toàn ma sát đó—các nhà phát triển có thể sửa đổi, phân phối lại và thương mại hóa mà không phải lo lắng việc Google thay đổi các điều khoản sau này. Đồng sáng lập Hugging Face Clement Delangue đã khen ngợi, nói rằng “Local AI đang có thời của nó,” và đó là tương lai của ngành công nghiệp AI. CEO của Google DeepMind Demis Hassabis còn đi xa hơn, gọi Gemma 4 là “các mô hình mã nguồn mở tốt nhất trên thế giới cho kích thước tương ứng của chúng.”

Hào hứng khi ra mắt Gemma 4: các mô hình mã nguồn mở tốt nhất trên thế giới cho kích thước tương ứng của chúng. Có sẵn trong 4 kích thước có thể tinh chỉnh cho tác vụ cụ thể của bạn: 31B dense cho hiệu năng thô tuyệt vời, 26B MoE cho độ trễ thấp, và effective 2B & 4B cho việc dùng trên thiết bị biên—chúc bạn xây dựng vui vẻ! pic.twitter.com/Sjbe3ph8xr

— Demis Hassabis (@demishassabis) April 2, 2026

Đó là một tuyên bố mạnh mẽ. Các hệ thống độc quyền từ Anthropic, OpenAI và chính Gemini của Google vẫn dẫn đầu trong các bài benchmark khó nhất. Nhưng đối với các mô hình trọng số mở mà bạn có thể chạy cục bộ, sửa đổi tự do và triển khai trên hạ tầng của riêng mình? Cuộc cạnh tranh vừa trở nên mỏng đi đáng kể. Bạn có thể dùng thử Gemma 4 ngay bây giờ trong Google AI Studio (31B và 26B) hoặc Google AI Edge Gallery (E2B và E4B). Trọng số mô hình cũng có sẵn trên Hugging Face, Kaggle và Ollama.

Tuyên bố miễn trừ trách nhiệm: Thông tin trên trang này có thể đến từ bên thứ ba và không đại diện cho quan điểm hoặc ý kiến của Gate. Nội dung hiển thị trên trang này chỉ mang tính chất tham khảo và không cấu thành bất kỳ lời khuyên tài chính, đầu tư hoặc pháp lý nào. Gate không đảm bảo tính chính xác hoặc đầy đủ của thông tin và sẽ không chịu trách nhiệm cho bất kỳ tổn thất nào phát sinh từ việc sử dụng thông tin này. Đầu tư vào tài sản ảo tiềm ẩn rủi ro cao và chịu biến động giá đáng kể. Bạn có thể mất toàn bộ vốn đầu tư. Vui lòng hiểu rõ các rủi ro liên quan và đưa ra quyết định thận trọng dựa trên tình hình tài chính và khả năng chấp nhận rủi ro của riêng bạn. Để biết thêm chi tiết, vui lòng tham khảo Tuyên bố miễn trừ trách nhiệm.
Bình luận
0/400
Không có bình luận