Sam Altman, CEO OpenAI, dự đoán thế giới sắp đối mặt khủng hoảng do AI phát triển nhanh, đặc biệt là nguy cơ giả mạo giọng nói và hình ảnh.

Trí tuệ nhân tạo (AI) đang mở ra kỷ nguyên mới với tiềm năng to lớn, nhưng cũng đặt ra những thách thức nghiêm trọng. Sam Altman, CEO của OpenAI – công ty đứng sau ChatGPT, đã lên tiếng cảnh báo về một cuộc khủng hoảng toàn cầu tiềm tàng do sự phát triển không kiểm soát của AI. Phát biểu tại sự kiện của Cục Dự trữ Liên bang Mỹ (FED) ngày 22/7, ông nhấn mạnh những nguy cơ mà công nghệ này mang lại, từ giả mạo danh tính đến các mối đe dọa an ninh toàn cầu.

Khủng hoảng AI: Nguy cơ từ giả mạo giọng nói và hình ảnh

Sam Altman chỉ ra rằng công nghệ AI hiện nay có thể vượt qua hầu hết các phương thức xác thực, trừ mật khẩu. Nhiều tổ chức tài chính vẫn sử dụng giọng nói để xác minh danh tính, điều này tiềm ẩn rủi ro lớn. “AI đã đánh bại gần như mọi hình thức xác thực”, ông cảnh báo. Khả năng giả mạo giọng nói và hình ảnh của AI đã đạt mức tinh vi, khiến việc phân biệt thật giả trở nên khó khăn. Điều này đe dọa đến các giao dịch tài chính và hành động quan trọng khác, tạo cơ hội cho các hoạt động lừa đảo.

Altman cũng bày tỏ lo ngại về kịch bản siêu AI bị lạm dụng bởi các thế lực thù địch. Ông cho biết mình “mất ngủ” khi nghĩ đến việc kẻ xấu tạo ra siêu AI để tấn công lưới điện hoặc phát triển vũ khí sinh học. “Chúng ta đang chơi một trò chơi nguy hiểm”, ông nhận định. Các video và cuộc gọi giả mạo bằng AI sẽ sớm không thể phân biệt với con người thật, đặt ra thách thức lớn cho lòng tin và sự thật trên toàn cầu.

Khủng hoảng AI: Tìm kiếm giải pháp kiểm soát

Để đối phó với mối đe dọa này, Altman nhấn mạnh tầm quan trọng của các giải pháp xác thực danh tính. Ông ủng hộ The Orb, một thiết bị do Tools for Humanity phát triển, giúp xác minh người dùng là con người thật trong môi trường số. Dự án này được kỳ vọng trở thành nền tảng “chứng thực nhân dạng”, giảm thiểu rủi ro từ các công nghệ AI giả mạo. Dù OpenAI không phát triển công cụ tạo video hay giọng nói giả, Altman thừa nhận công nghệ này đang tiến bộ nhanh chóng trên toàn cầu.

Thực trạng deepfake và pháp lý tại Việt Nam

Tại Việt Nam, các chuyên gia cũng cảnh báo về trào lưu sử dụng deepfake để tạo nội dung câu view. Gần đây, nhiều người dùng mạng xã hội tạo ảnh giả “bị cảnh sát giao thông xử phạt” nhằm thu hút sự chú ý. Luật sư Đăng Ngọc Duệ, Giám đốc Công ty Luật TNHH Phụng Sự Công Lý, cho biết hành vi sử dụng deepfake có thể vi phạm pháp luật. Tùy vào mục đích và nội dung, người tạo hoặc phát tán có thể bị xử lý dân sự, hành chính, hoặc thậm chí hình sự. Đặc biệt, việc bôi nhọ lực lượng chức năng hoặc làm tổn hại danh dự cá nhân, tổ chức có thể dẫn đến hậu quả pháp lý nghiêm trọng.

Những cảnh báo của Sam Altman và thực trạng tại Việt Nam cho thấy thế giới đang đứng trước ngã rẽ quan trọng. Việc phát triển AI cần đi đôi với các biện pháp kiểm soát chặt chẽ để bảo vệ lòng tin và an ninh toàn cầu.

Theo: Vietnam net