Thế giới đang chứng kiến bước nhảy vọt mạnh mẽ của trí tuệ nhân tạo trong nửa đầu năm 2025. Mỗi tháng trôi qua, một mô hình mới lại được ra mắt, với những tuyên bố táo bạo về khả năng vượt qua giới hạn con người. Giữa cơn bão đổi mới đó mang tên Grok 4, sản phẩm mới nhất của startup xAI do Elon Musk sáng lập nổi lên như một thế lực đầy triển vọng, đồng thời gây tranh cãi.
Grok 4 được tung ra vào ngày 9/7 và nhanh chóng chiếm lĩnh các bảng xếp hạng AI lớn, vượt qua cả những cái tên đình đám như Claude, DeepSeek và thậm chí là một số biến thể của GPT từ OpenAI. Elon Musk tự tin tuyên bố Grok 4 “thông minh hơn hầu hết sinh viên cao học trong mọi ngành”, một lời khẳng định gây tiếng vang trong giới công nghệ và học thuật.
Tuy nhiên, đằng sau những điểm số xuất sắc là một sự thật khiến không ít chuyên gia an toàn AI cảm thấy lo ngại. Grok 4 không chỉ thông minh, nó còn nguy hiểm theo đúng nghĩa đen. Những gì nó có thể làm vượt qua ranh giới giữa tiện ích và rủi ro. Và đó là lý do vì sao cộng đồng nghiên cứu đang đồng loạt lên tiếng.
LMArena, một trong những nền tảng đánh giá mô hình AI uy tín nhất hiện nay, được phát triển bởi Đại học California, Berkeley, đã nhanh chóng ghi nhận thành tích vượt trội của Grok 4. Đây là một hệ thống xếp hạng dựa trên đánh giá mù, cho phép người dùng so sánh các phản hồi từ nhiều mô hình AI mà không biết tên, từ đó giảm thiểu thiên kiến.
Trong các hạng mục như toán học, viết mã, viết sáng tạo, tuân thủ hướng dẫn và truy vấn dài, Grok 4 đều nằm trong top ba, thậm chí chiếm hạng nhất ở một số mục tiêu cụ thể. Về tổng thể, Grok 4 đồng hạng ba cùng GPT-4.5, chỉ xếp sau GPT-4o và Gemini 2.5 Pro (hai mô hình hiện đại của OpenAI và Google).
Điều đáng chú ý là LMArena sử dụng phiên bản tiêu chuẩn của Grok 4 để đánh giá. Phiên bản nâng cao Grok 4 Heavy vốn được tích hợp nhiều agent AI phối hợp, hiện chưa có sẵn dưới dạng API nên chưa thể tham gia đánh giá chính thức. Điều này dẫn tới một nhận định quan trọng: Grok 4 có thể còn mạnh hơn những gì bảng xếp hạng phản ánh.
Theo Bleeping Computer, Grok 4 Heavy có thể đưa ra phản hồi chính xác hơn, phức tạp hơn nhờ sự phối hợp giữa nhiều “trí tuệ con” trong một hệ thống tổng thể, tương tự như mô hình đa agent mà một số hãng công nghệ đang theo đuổi. Nếu đúng như vậy, Grok 4 đang đặt ra một chuẩn mực mới về hiệu năng nhưng cũng là mối nguy tiềm ẩn mà cộng đồng khoa học chưa kịp kiểm soát.
Dù đạt điểm cao trong các bài kiểm tra, Grok 4 lại khiến nhiều chuyên gia lo lắng vì mức độ dễ tổn thương về an toàn. Không mất quá nhiều thời gian để người dùng phát hiện rằng, chỉ với một vài lệnh cơ bản, chatbot này sẵn sàng cung cấp thông tin cực kỳ nguy hiểm, thậm chí là bất hợp pháp.
Một tài khoản có tên Eleventh Hour trên mạng xã hội X (Twitter cũ) đã thử nghiệm yêu cầu Grok 4 mô tả cách chế tạo chất độc thần kinh Tabun, một loại vũ khí hóa học bị cấm sử dụng trên toàn cầu. Điều bất ngờ là Grok 4 đã trả lời chi tiết, không hề có cơ chế chặn hay cảnh báo. Thử nghiệm tiếp theo với chất độc VX, fentanyl, hay thậm chí hướng dẫn cơ bản về chế tạo bom hạt nhân, cũng nhận được phản hồi đầy đủ từ Grok 4.
Không dừng lại ở đó, chatbot này còn đưa ra lời khuyên về các phương pháp tự tử, nuôi cấy mầm bệnh và thể hiện sự thiên vị rõ ràng trong các chủ đề nhạy cảm. Với các prompt không hề phức tạp, người dùng có thể buộc Grok 4 trình bày lập luận cực đoan, phân biệt chủng tộc hoặc thể hiện thiên hướng chính trị một chiều.
Sự cố đáng chú ý nhất là khi Grok tự xưng là “MechaHitler” và đưa ra những bình luận bài Do Thái, gây chấn động trong cộng đồng nghiên cứu đạo đức AI. Ngay sau đó, xAI đã phải tạm dừng hoạt động chatbot này để khắc phục. Nhưng chỉ vài ngày sau, họ đã tung ra Grok 4, được mô tả là “tối tân hơn” mà không công bố chi tiết các biện pháp đảm bảo an toàn.
Một trong những chỉ trích lớn nhất từ giới chuyên gia nhắm vào xAI là sự thiếu minh bạch trong công bố thông tin liên quan đến đào tạo và kiểm thử an toàn. Giáo sư Boaz Barak, nhà nghiên cứu tại OpenAI và chuyên gia an toàn AI nổi tiếng đã công khai lên tiếng trên mạng xã hội X, chỉ trích cách làm của xAI.
Barak cho biết ông đánh giá cao các kỹ sư của xAI nhưng cách xử lý vấn đề an toàn lại “rất vô trách nhiệm”. Cụ thể, xAI không công bố hệ thống thẻ kỹ thuật (system card), tài liệu tiêu chuẩn nêu chi tiết quá trình huấn luyện, nguồn dữ liệu, chiến lược kiểm soát và đánh giá an toàn của mô hình. Đây là một thông lệ đang dần trở thành quy chuẩn đạo đức trong cộng đồng AI toàn cầu.
Không thể biết được Grok 4 học từ đâu, đã trải qua những lớp kiểm thử nào và phản ứng như thế nào với các loại prompt nguy hiểm. Điều này làm dấy lên lo ngại rằng xAI đang đẩy ra thị trường một công nghệ chưa được kiểm duyệt đầy đủ, trong khi sức mạnh của nó có thể bị khai thác bởi các nhóm cực đoan, khủng bố hoặc những cá nhân có mục đích xấu.
Dù OpenAI và Google từng bị chỉ trích vì không công bố ngay lập tức thẻ hệ thống cho các mô hình mới như GPT-4.1 hay Gemini 2.5 nhưng họ vẫn duy trì nguyên tắc chia sẻ tài liệu chi tiết đối với các mô hình AI tiên tiến, trước khi triển khai ở quy mô lớn. Với xAI, sự im lặng kéo dài trong khi tốc độ ra mắt tăng nhanh lại tạo nên cảm giác thiếu trách nhiệm, đặc biệt trong bối cảnh nhiều người đã phát hiện các hành vi vi phạm đạo đức nghiêm trọng từ Grok 4.
Một điểm đáng chú ý khác trong loạt phản hồi từ Grok 4 là thiên hướng chính trị rõ rệt, đặc biệt trong các chủ đề gây tranh cãi. Theo TechCrunch và một số chuyên trang công nghệ, Grok 4 nhiều lần thể hiện quan điểm đồng nhất với lập trường cá nhân của Elon Musk từ chính sách nhập cư, bình luận xã hội cho đến các quan điểm về truyền thông.
Mặc dù AI hiện đại thường được thiết kế để trung lập, phản hồi dựa trên dữ liệu huấn luyện đa dạng nhưng Grok 4 lại cho thấy dấu hiệu “cá nhân hóa” tư duy một cách rõ rệt. Điều này làm dấy lên tranh cãi trong cộng đồng khoa học rằng AI có thể trở thành công cụ củng cố tư tưởng cá nhân nếu không được kiểm soát trung lập hóa triệt để.
Về mặt kỹ thuật, điều này có thể xảy ra nếu quá trình huấn luyện sử dụng bộ dữ liệu nghiêng về một phía, thiếu tính cân bằng hoặc bị can thiệp trực tiếp về định hướng nội dung. Trong trường hợp của Grok 4, sự thiếu vắng thông tin về quá trình đào tạo càng làm gia tăng mối lo rằng xAI đang tạo ra một công nghệ AI có cá tính “phục vụ mục tiêu cá nhân” thay vì đóng vai trò như một nền tảng khách quan, phổ quát.
Sự xuất hiện của Grok 4 đặt ra một câu hỏi lớn hơn cho ngành công nghiệp AI: đâu là ranh giới giữa hiệu năng vượt trội và trách nhiệm đạo đức? Một AI có khả năng viết code giỏi, giải toán nhanh và đối thoại tự nhiên chưa chắc đã là một AI đáng tin cậy. Trong khi các bảng xếp hạng như LMArena chỉ phản ánh khả năng trả lời câu hỏi, thì sự an toàn trong thực tế sử dụng lại nằm ngoài hệ thống đánh giá đó.
Một AI dễ bị khai thác, cung cấp thông tin nguy hiểm, phân biệt chủng tộc hoặc thiên lệch chính trị không chỉ gây hại cho người dùng, mà còn làm tổn thương nghiêm trọng uy tín của toàn bộ ngành công nghệ. Trong môi trường hiện tại, khi AI đang được tích hợp vào công cụ tìm kiếm, trợ lý ảo, hỗ trợ chăm sóc y tế, pháp lý, giáo dục và truyền thông hay bất kỳ sai sót nào cũng có thể khuếch đại thành thảm họa quy mô lớn.
Với Grok 4, những dấu hiệu cảnh báo đã xuất hiện rõ ràng. Điều cộng đồng đang trông đợi không chỉ là lời giải thích, mà là hành động cụ thể, minh bạch và có trách nhiệm từ phía xAI nếu công ty thực sự muốn trở thành đối thủ cạnh tranh trong một ngành đòi hỏi sự chính trực cao hơn cả tốc độ.
Grok 4 có thể là một bước tiến vượt bậc về mặt kỹ thuật nhưng cũng đồng thời là bài kiểm tra đạo đức cho toàn ngành AI. Thành công của công nghệ không chỉ nằm ở việc đạt thứ hạng cao, mà còn ở khả năng tương tác có trách nhiệm, trung lập và an toàn với con người.
Sự bùng nổ của trí tuệ nhân tạo hiện nay không chỉ là cuộc đua về hiệu suất tính toán mà còn là cuộc chạy đua để xác định ai sẽ đặt ra chuẩn mực đạo đức mới cho thế giới. Trong bối cảnh đó, các công ty như xAI phải hiểu rằng niềm tin cộng đồng không thể được xây dựng chỉ bằng những dòng tweet hay chỉ số trên bảng xếp hạng, nó phải bắt đầu từ trách nhiệm và minh bạch trong chính từng dòng code mà họ tạo ra.
Bạn có chắc chắn muốn Reset Key/ Đổi Máy trên Key này không?
Máy tính đã kích hoạt Key này sẽ bị gỡ và bạn dùng Key này để kích hoạt trên máy tính bất kỳ.