OpenAI cảnh báo tình trạng “ảo giác” gia tăng ở GPT o3 và o4-mini, khả năng bịa thông tin nhiều hơn, người dùng cần kiểm tra lại thông tin.

GPT o3 và o4-mini sở hữu sức mạnh vượt trội

Ngày 17/4, chỉ hai ngày sau khi giới thiệu GPT-4.1, OpenAI tiếp tục ra mắt hai mô hình AI mới là GPT o3GPT o4-mini. Đây được xem là những phiên bản nâng cấp mạnh mẽ nhất hiện nay trong danh mục sản phẩm của OpenAI.

Trong đó, GPT o3 được mô tả là mô hình có khả năng lập luận tốt nhất từ trước đến nay của OpenAI. Nó thể hiện hiệu quả vượt trội trong các tác vụ liên quan đến lập trình, toán học và khoa học.

Còn phiên bản o4-mini tuy được thiết kế theo hướng tiết kiệm chi phí, nhưng vẫn mang lại kết quả ấn tượng trong những lĩnh vực tương tự.

Không chỉ mạnh mẽ về mặt tư duy, cả hai mô hình còn có thể truy cập và sử dụng tất cả công cụ tích hợp sẵn của ChatGPT như trình duyệt web, công cụ tạo hình ảnh và phân tích dữ liệu đa bước.

Đây là một bước tiến lớn so với các phiên bản trước, giúp AI có thể xử lý những nhiệm vụ phức tạp một cách hiệu quả và toàn diện hơn.

Người dùng toàn thế giới có thể sử dụng hai mô hình của ChatGPT từ 17/4/2025 (Ảnh: ZDnet)

AI có thể “nhìn thấy” và diễn giải hình ảnh đầu vào

Một điểm đáng chú ý khác của GPT o3 và o4-mini là khả năng hiểu và phân tích hình ảnh.

Các mô hình này có thể nhận diện nội dung từ bảng trắng, sơ đồ, bản vẽ tay hoặc thậm chí là những hình ảnh mờ, chất lượng kém. Chúng không chỉ nhìn thấy mà còn có thể điều chỉnh hình ảnh như một phần của quá trình lập luận — điều chưa từng xuất hiện ở các mô hình trước đây.

Tuy nhiên, dù được đánh giá cao về mặt công nghệ, hai mô hình mới của OpenAI lại khiến giới công nghệ lo ngại vì một vấn đề nghiêm trọng: tình trạng “ảo giác” tăng mạnh.

Cảnh báo tình trạng ChatGPT “ảo giác”: Khi AI bắt đầu bịa chuyện

Theo TechCrunch, dù được kỳ vọng là bước tiến lớn trong công nghệ AI, GPT o3 và o4-mini lại đang mắc phải một lỗi phổ biến nhưng khó kiểm soát: hiện tượng “ảo giác” (hallucination).

Đây là khi mô hình AI tự tạo ra thông tin không có thật, hoặc đưa ra kết quả sai lệch dù không có cơ sở trong dữ liệu gốc.

IBM định nghĩa hiện tượng này là tình trạng một hệ thống trí tuệ nhân tạo – đặc biệt là các mô hình ngôn ngữ lớn (LLM) – tạo ra phản hồi không chính xác do hiểu sai dữ liệu đầu vào, hoặc do không có dữ liệu phù hợp để tham chiếu.

Với người dùng, điều này có thể dẫn đến những hiểu nhầm nghiêm trọng, nhất là khi AI được sử dụng trong giáo dục, nghiên cứu hay các lĩnh vực cần độ chính xác cao.

Tỷ lệ “bịa đặt” ở GPT o3 và o4-mini cao hơn nhiều phiên bản cũ

Một báo cáo nội bộ từ OpenAI đã chỉ ra rằng GPT o3 gặp lỗi “ảo giác” trong 33% số câu hỏi thuộc bộ dữ liệu kiểm tra có tên PersonQA. Đây là một tiêu chuẩn được OpenAI xây dựng riêng nhằm đo lường khả năng ghi nhớ và xử lý kiến thức về con người.

Đáng nói hơn, tỷ lệ này gấp đôi so với các phiên bản trước như GPT o1 (16%) và o3-mini (14,8%).

Với GPT o4-mini, tình trạng còn nghiêm trọng hơn khi mô hình này “ảo giác” tới 48% thời lượng bài kiểm tra – tức gần một nửa nội dung trả lời không đáng tin cậy.

OpenAI thừa nhận chưa hiểu rõ lý do khiến AI “ảo giác” nhiều hơn trước

Trong báo cáo kỹ thuật đi kèm, OpenAI thừa nhận rằng họ vẫn chưa lý giải được nguyên nhân cụ thể khiến tình trạng “ảo giác” trở nên nghiêm trọng hơn ở các mô hình mới.

Họ cho rằng việc mở rộng quy mô và tăng cường khả năng lập luận có thể khiến mô hình đưa ra nhiều tuyên bố cụ thể hơn, từ đó làm tăng nguy cơ xuất hiện thông tin sai lệch.

“Nhiều câu trả lời của mô hình có thể đúng hơn, nhưng đồng thời cũng kéo theo nhiều phát ngôn không chính xác hơn,” OpenAI viết trong báo cáo.

Cha đẻ của ChatGPT đang tiếp tục làm rõ tại sao AI lại bị ảo giác gấp ba lần so với trước đây (Ảnh: The Verge)

AI càng thông minh, càng cần được kiểm soát

Sự ra đời của GPT o3 và o4-mini là minh chứng cho tốc độ phát triển nhanh chóng của công nghệ AI hiện đại. Tuy nhiên, đi kèm với sức mạnh là những rủi ro tiềm ẩn mà chính nhà phát triển cũng chưa kiểm soát hoàn toàn.

ChatGPT ảo giác là một vấn đề không thể xem nhẹ, nhất là khi AI ngày càng được tích hợp sâu vào đời sống, giáo dục và công việc.

Trong khi chờ đợi các bản vá và cải tiến, người dùng nên sử dụng AI một cách cẩn trọng, luôn kiểm tra lại thông tin trước khi đưa ra quyết định dựa trên các phản hồi của mô hình.

(Nguồn: ZNews)