Các quốc gia chưa có nền tảng pháp lý và đạo đức đủ mạnh cho trí tuệ nhân tạo
Tổng Giám đốc Quỹ Tiền tệ Quốc tế (IMF) Kristalina Georgieva cảnh báo rằng, hầu hết các quốc gia trên thế giới vẫn chưa xây dựng được nền tảng pháp lý và đạo đức cần thiết để quản lý sự phát triển nhanh chóng của trí tuệ nhân tạo (AI), một công nghệ đang định hình lại nền kinh tế toàn cầu nhưng cũng tiềm ẩn rủi ro lớn đối với an sinh xã hội và ổn định chính trị.
Phát biểu tại Diễn đàn Kinh tế Quốc tế ở Marrakesh (Maroc), bà Georgieva nhấn mạnh: "AI đang phát triển với tốc độ chưa từng có, trong khi các chính phủ lại phản ứng chậm hơn nhiều. Thế giới đang thiếu những nguyên tắc chung để bảo đảm AI phục vụ con người thay vì gây ra chia rẽ hoặc bất bình đẳng mới."
Thiếu khung quản lý, rủi ro gia tăng
Theo người đứng đầu IMF, AI đang lan tỏa sâu rộng vào mọi lĩnh vực – từ tài chính, y tế, sản xuất cho đến giáo dục. Tuy nhiên, phần lớn các quốc gia vẫn chưa có luật cụ thể để kiểm soát cách thu thập dữ liệu, bảo vệ quyền riêng tư hay xác định trách nhiệm khi xảy ra sự cố liên quan đến công nghệ này.
"Không thể phủ nhận tiềm năng của AI trong việc nâng cao năng suất và cải thiện chất lượng cuộc sống. Nhưng nếu thiếu nền tảng quản trị vững chắc, hệ thống này có thể tạo ra sự bất công, thao túng thông tin và thậm chí gây rối loạn thị trường lao động," bà Georgieva nói.

Báo cáo gần đây của IMF ước tính AI có thể ảnh hưởng trực tiếp đến 60% việc làm ở các nước phát triển và hơn 40% ở các nền kinh tế đang nổi. Các vị trí có tính chất lặp lại, đặc biệt trong hành chính, dịch vụ khách hàng hay xử lý dữ liệu, đang đứng trước nguy cơ bị thay thế hàng loạt.
G7 và EU thúc đẩy các chuẩn mực chung
Trước mối lo ngày càng lớn, Liên minh châu Âu (EU) đã đi đầu trong việc xây dựng Đạo luật AI (AI Act) – bộ quy tắc toàn diện đầu tiên trên thế giới, dự kiến có hiệu lực vào đầu năm 2026. Văn bản này phân loại các ứng dụng AI theo mức độ rủi ro, từ "tối thiểu" đến "cao", yêu cầu minh bạch dữ liệu huấn luyện và cơ chế giám sát độc lập đối với các hệ thống có khả năng gây tác động lớn đến xã hội.
Tại Mỹ, chính quyền Tổng thống Joe Biden đã ban hành Sắc lệnh Hành pháp về AI (Executive Order on AI) nhằm tăng cường kiểm soát an toàn mô hình ngôn ngữ lớn và ngăn chặn việc lạm dụng công nghệ trong lĩnh vực quốc phòng, bầu cử và tài chính. Bộ Thương mại Mỹ hiện cũng đang xây dựng hệ thống đánh giá rủi ro tự động đối với các công ty phát triển AI quy mô lớn.
Nhóm G7, trong khi đó, đã khởi động sáng kiến "Hiroshima AI Process", kêu gọi các quốc gia chia sẻ dữ liệu kiểm thử và hợp tác trong giám sát các mô hình nền tảng như ChatGPT hay Claude để đảm bảo tính minh bạch và khả năng giải trình.
IMF khuyến nghị hướng tiếp cận "con người làm trung tâm"
Theo bà Georgieva, AI cần được quản lý dựa trên nguyên tắc "lấy con người làm trung tâm" (human-centered approach), nghĩa là phải đặt lợi ích xã hội, công bằng và an toàn lên hàng đầu.
Bà nhấn mạnh, thay vì chỉ tập trung vào tăng trưởng kinh tế, các quốc gia cần ưu tiên đào tạo lại lực lượng lao động, đặc biệt là trong các ngành nghề dễ bị thay thế bởi tự động hóa. IMF khuyến nghị các chính phủ sử dụng các công cụ tài khóa linh hoạt – như trợ cấp học nghề, đầu tư vào giáo dục công nghệ và hỗ trợ doanh nghiệp chuyển đổi số – để giảm thiểu tác động tiêu cực.
"Điều quan trọng là phải giúp người dân thích nghi, chứ không chỉ bảo vệ họ trước sự thay đổi," bà nói. "Nếu chúng ta không hành động ngay, khoảng cách giàu nghèo sẽ bị nới rộng bởi chính công nghệ mà chúng ta tạo ra."
Rủi ro đạo đức và niềm tin công chúng
Cùng với vấn đề việc làm, rủi ro đạo đức cũng đang trở thành mối quan ngại lớn. Sự lan rộng của deepfake, tin giả do AI tạo ra và các mô hình "tự học" không kiểm soát đã khiến nhiều chuyên gia cảnh báo về khả năng công nghệ bị lợi dụng để thao túng thông tin, đặc biệt trong bối cảnh hàng loạt cuộc bầu cử sẽ diễn ra vào năm 2026.
Tổ chức UNESCO gần đây cũng kêu gọi các quốc gia khẩn trương thông qua bộ quy tắc đạo đức toàn cầu về AI, nhằm ngăn chặn việc sử dụng công nghệ này trong các hoạt động tuyên truyền, phân biệt đối xử hoặc vi phạm quyền con người.
Báo cáo của Diễn đàn Kinh tế Thế giới (WEF) tháng 10/2025 cho thấy chỉ 38% người dân toàn cầu tin tưởng rằng AI sẽ mang lại nhiều lợi ích hơn rủi ro, giảm mạnh so với 52% vào năm ngoái. Điều này cho thấy, nếu không có cơ chế quản trị minh bạch, AI có thể đối mặt với "khủng hoảng niềm tin" trên diện rộng.
Cần sự phối hợp toàn cầu
Kết thúc bài phát biểu, bà Georgieva kêu gọi tăng cường hợp tác quốc tế trong việc xây dựng khung pháp lý thống nhất cho AI. IMF hiện đang phối hợp với Ngân hàng Thế giới (WB), OECD và Liên Hợp Quốc để hỗ trợ các nước đang phát triển thiết kế chính sách quản trị phù hợp với điều kiện nội tại.
"Không một quốc gia nào có thể quản lý AI một mình. Cũng như biến đổi khí hậu, đây là vấn đề toàn cầu đòi hỏi trách nhiệm chung và sự minh bạch," bà khẳng định.
Các chuyên gia nhận định, giai đoạn 2025–2026 sẽ là thời điểm quyết định cho việc hình thành "trật tự AI" mới trên thế giới – khi các quốc gia buộc phải cân bằng giữa đổi mới sáng tạo, an toàn công nghệ và niềm tin của xã hội./.
Bạn không thể gửi bình luận liên tục.
Xin hãy đợi 60 giây nữa.