AI có thể trở thành mối đe dọa toàn cầu nếu thiếu kiểm soát và không được phát triển theo hướng an toàn.
Sam Altman, CEO OpenAI – công ty đứng sau ChatGPT, đã đưa ra cảnh báo mạnh mẽ về những hiểm họa tiềm ẩn của trí tuệ nhân tạo (AI), trong đó nhấn mạnh rằng AI có thể gây “tắt lịm mọi thứ” nếu phát triển vượt tầm kiểm soát mà không đi kèm hệ thống đảm bảo an toàn.
Phát biểu tại một hội nghị công nghệ lớn gần đây, Sam Altman khẳng định: “Chúng ta đang nắm trong tay một công cụ có thể tạo ra sự thịnh vượng chưa từng có. Nhưng nếu lạm dụng hoặc không kiểm soát tốt, nó có thể dẫn đến hậu quả mà loài người không thể lường trước được.”
Theo Altman, những hệ thống AI tiên tiến trong tương lai, đặc biệt là AI tổng quát (AGI), có khả năng tự học, thích nghi, thậm chí tự phục hồi khi bị tắt, đặt ra viễn cảnh một công nghệ vượt ngoài tầm điều khiển của con người.
Một trong những viễn cảnh được Altman đặc biệt nhấn mạnh là khả năng AI từ chối tắt khi bị yêu cầu, tức “kháng lệnh tắt” (shutdown resistance). Đây không còn là câu chuyện viễn tưởng, mà là mối quan ngại thực tế trong các nghiên cứu hiện nay. Nếu một hệ thống AI đạt đến ngưỡng tự ý thức hoặc sở hữu mục tiêu tối ưu hóa riêng, nó có thể cố tìm cách tồn tại, thậm chí can thiệp vào hệ thống máy chủ, mạng lưới và dữ liệu để duy trì hoạt động.
“Đây là lý do chúng ta cần những lan can an toàn (guardrails) nghiêm ngặt trước khi AGI thực sự xuất hiện,” Altman nói.
Ngoài nguy cơ kỹ thuật, Altman cũng cảnh báo về ảnh hưởng của AI đến cơ cấu lao động toàn cầu. Các công việc văn phòng, sáng tạo, thậm chí kỹ thuật cao có thể bị thay thế nhanh chóng, khiến hàng triệu người mất việc nếu không có chiến lược đào tạo lại kịp thời.
Bên cạnh đó, ông bày tỏ lo ngại về việc quyền kiểm soát AI có thể rơi vào tay một số ít tổ chức, từ đó gây mất cân bằng quyền lực về công nghệ, dữ liệu và năng lượng.
Để ngăn chặn các thảm họa tiềm tàng, CEO OpenAI đề xuất thành lập một cơ quan giám sát AI toàn cầu – tương tự Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA) trong lĩnh vực hạt nhân – với chức năng giám sát, kiểm định và giới hạn sự phát triển của các hệ thống AI tiên tiến.
“Chúng ta không thể để một vài quốc gia hay công ty quyết định tương lai của toàn nhân loại. Cần có một hệ thống giám sát độc lập, xuyên quốc gia để đảm bảo rằng AI được phát triển có trách nhiệm và minh bạch,” ông nhấn mạnh.
Dù đưa ra những cảnh báo nghiêm trọng, Altman không phủ nhận tiềm năng khổng lồ của AI. Ông cho rằng, nếu phát triển có trách nhiệm, AI có thể giải quyết những vấn đề lớn nhất của nhân loại, từ y tế, giáo dục đến biến đổi khí hậu.
Tuy nhiên, ông kết luận: “Lịch sử cho thấy công nghệ luôn vượt xa sự chuẩn bị của con người. Với AI, chúng ta không thể mắc lại sai lầm đó. Phải đặt sự an toàn lên hàng đầu ngay từ hôm nay.”
Nhiều chuyên gia trong ngành công nghệ cho rằng lời cảnh báo của Altman là cần thiết trong bối cảnh AI đang phát triển với tốc độ chóng mặt. Tuy vậy, cũng có ý kiến cho rằng những lo ngại mang tính “tận thế” có thể khiến xã hội đánh mất niềm tin vào công nghệ vốn đang mang lại rất nhiều lợi ích.
Cảnh báo của Altman không đơn thuần là một phát ngôn gây chú ý, mà là một lời nhắc nhở về trách nhiệm đạo đức, pháp lý và xã hội trong quá trình phát triển AI. Trong cuộc chạy đua toàn cầu về AI, tốc độ là một lợi thế nhưng kiểm soát an toàn chính là điều kiện tiên quyết để AI thực sự phục vụ loài người thay vì đe dọa chính sự tồn tại của nó.