
AI đa năng là các mô hình AI có thể áp dụng cho nhiều mục đích sử dụng khác nhau
Lý do các mô hình AI đa năng cần quản lý đặc biệt
Hàng ngàn cuộc trò chuyện của người dùng trên ChatGPT đã bị lộ trên công cụ tìm kiếm Google. Vụ việc là lời cảnh báo cho các nhà cung cấp dịch vụ trí tuệ nhân tạo (AI), cần thiết kế tính năng cảnh báo rõ ràng, minh bạch để bảo vệ dữ liệu của người dùng. Khi AI định hình lại các hoạt động kinh tế - xã hội của con người, các chuyên gia đồng ý rằng các quy tắc quản lý AI sẽ rất cần thiết.
Một giải pháp được đánh giá là sáng kiến toàn diện nhất cho đến nay đã bắt đầu có hiệu lực ngay từ đầu tháng 8. Đó là bộ quy tắc về minh bạch mô hình AI - nằm trong Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu .
Hai bức tranh do chính trí tuệ nhân tạo AI vẽ đã được nhà đấu giá Christie's bán hồi đầu tháng 3 năm nay theo hình thức trực tuyến gây xôn xao. Bức "Con gái" được đấu giá với giá hơn 44.000 USD. Còn bức "Embedding Study 1 và 2" cũng do trí tuệ nhân tạo AI vẽ và được bán với giá lên tới 94.500 USD. Các tác phẩm này có được nhờ trí tuệ nhân tạo (AI) đã tổng hợp, học hỏi từ hàng triệu bức tranh khác của các nghệ sỹ thực thụ. Điều này khiến giới nghệ sỹ lo lắng, các mô hình trí tuệ nhân tạo đang "đánh cắp thành quả" của họ mà không xin phép hay trả phí bản quyền.
Ngày 2/8 vừa qua, các quy định đầu tiên trong Đạo luật Trí tuệ nhân tạo của Liên minh châu Âu (EU) đối với các mô hình trí tuệ nhân tạo AI đa năng đã chính thức có hiệu lực. Đây là bước đi tiên phong của EU trong việc xây dựng một khung pháp lý toàn diện, hướng đến phát triển AI một cách có trách nhiệm, minh bạch và an toàn.

Vấn đề vi phạm bản quyền trên các mô hình AI đa năng rất phổ biến
Theo quy định mới của EU, các nhà cung cấp các mô hình AI đa năng như ChatGPT, Gemini, việc công bố cách thức hoạt động của mô hình, nguồn gốc dữ liệu được sử dụng để đào tạo AI và các biện pháp đảm bảo an toàn, đặc biệt đối với các mô hình tiên tiến được cho là có khả năng gây rủi ro tiềm ẩn cho công chúng.
AI đa năng là các mô hình AI có thể áp dụng cho nhiều mục đích sử dụng khác nhau như tạo văn bản, phân tích ngôn ngữ hoặc viết mã. Các AI đa năng là những mô hình có khả năng thực hiện hơn 10 mũ 23 phép tính/giây và có khả năng tạo ra ngôn ngữ. Trong khi đó, các mô hình AI tiên tiến có thể thực hiện trên 10 mũ 25 phép tính/giây và có thể gây ra rủi ro hệ thống. Vậy tại sao cần phải quản lý đặc biệt?
Một lỗi hoặc hành vi sai lệch trong AI đa năng có thể ảnh hưởng trên diện rộng vì được ứng dụng ở nhiều nơi. Ví dụ như GPT-4 bị lợi dụng để tạo deepfake, viết mã độc, sản xuất nội dung lừa đảo.
Vấn đề vi phạm bản quyền trên các mô hình AI đa năng cũng rất phổ biến, khi quá trình nạp dữ liệu đào tạo AI đã lấy từ nhiều nguồn mà không được phép.
Về nguy cơ "rủi ro hệ thống", một vài mô hình lớn chiếm lĩnh thị trường có thể tạo ra tình trạng độc quyền, gây bất bình đẳng trong tiếp cận công nghệ, thậm chí ảnh hưởng đến vấn đề thao túng thông tin.
EU áp dụng quy định đầu tiên về AI đa năng
Từ nay, các quốc gia thành viên của Liên minh châu Âu phải chỉ định cơ quan quản lý về trí tuệ nhân tạo của nước mình. Cơ quan này phải phối hợp với các đơn vị thuộc Uỷ ban châu Âu giám sát về việc thực thi luật về AI trên toàn khối. Đó là về lý thuyết, trên thực tế, vẫn có những quốc gia chưa kịp hoàn tất việc chỉ định cơ quan phụ trách về AI.
Cũng theo quy định mới có hiệu lực, các nước thành viên trong khối phải đưa ra điều luật cụ thể, thiết lập khung hình phạt trong trường hợp phát hiện các tổ chức vi phạm, với mức tiền lên đến 35 triệu EUR hoặc 7% doanh thu toàn cầu.
Ngoài ra, luật mới có hiệu lực cũng bắt đầu quy định về nghĩa vụ đối với các mô hình AI đa năng, ví dụ ChatGPT của OpenAI, Gemini của Google và Grok của xAI. Cụ thể là các nhà cung cấp dịch vụ AI phải minh bạch về dữ liệu huấn luyện mô hình của mình và phải tuân thủ bản quyền. Uỷ ban châu Âu nhận định rằng các quy tắc này sẽ giúp thúc đẩy phát triển AI một cách có trách nhiệm hơn.

Chính giới Mỹ coi Bộ Quy định này và Luật AI của EU là công cụ kiểm soát quá mức, tạo ra rào cản pháp lý ngầm, nhằm vừa hạn chế Big Tech của Mỹ
Đằng sau phản ứng của các hãng công nghệ lớn Mỹ
Việc ký tuân thủ Bộ Quy định của EU về minh bạch AI đa năng phản ánh chiến lược pháp lý và kinh doanh khác nhau giữa các hãng lớn như Google, Meta hay OpenAI. Hiện được biết một số hãng đã đồng ý, một số hãng bao gồm Meta từ chối ký.
Ở góc độ doanh nghiệp, việc ký hay từ chối tuân thủ Bộ Quy định minh bạch về AI đa năng của EU đúng là phản ánh sự khác biệt cả về chiến lược pháp lý cũng như kinh doanh. Nhóm như Google, OpenAI đồng ý tham gia là để họ có khả năng tiếp tục duy trì tiếp cận thị trường EU. Bởi các sản phẩm AI của họ như các công cụ trợ lý, cần sự ổn định pháp lý để bán hàng lâu dài. Ngược lại, Meta và xAI từ chối hoặc chỉ tham gia một phần, không đơn thuần vì họ muốn gây sức ép chính trị, mà bởi lõi chiến lược AI của họ đặt cược vào việc cá nhân hóa và đổi mới triệt để. Với họ, bảo toàn bí mật mô hình cũng như khả năng linh hoạt triển khai có ý nghĩa rất quan trọng.
Trong khi đó, chính giới Mỹ coi Bộ Quy định này và Luật AI của EU là công cụ kiểm soát quá mức, tạo ra rào cản pháp lý ngầm, nhằm vừa hạn chế Big Tech của Mỹ, vừa bảo hộ ngành AI châu Âu. Rộng hơn, họ lo ngại EU đang dùng luật để xuất khẩu tiêu chuẩn, qua đó xác lập quyền dẫn dắt luật chơi AI toàn cầu.
Phản ứng về quy định minh bạch mô hình AI đa năng
Uỷ ban châu Âu gọi đây là Bộ khung pháp lý đầu tiên trên thế giới về AI, nhằm quản lý rủi ro và khẳng định vai trò đi đầu châu Âu.
Tuy nhiên nhiều tổ chức xã hội dân sự tại châu Âu cho rằng, dù có mục tiêu là bảo vệ lợi ích chung nhưng luật này quá mềm mỏng, có nhiều kẽ hở, có thể gây nguy hại đến cả nhân quyền và pháp quyền. Ở luồng ý kiến ngược lại, nhiều doanh nghiệp lớn ở châu Âu cho rằng luật quá khắt khe và họ lo ngại quá trình phát triển của mình sẽ bị cản trở. Vì phát triển AI cần có lượng dữ liệu huấn luyện lớn, đôi khi bao gồm cả dữ liệu cá nhân và nội dung có bản quyền. Nếu tuân thủ luật mới thì các doanh nghiệp châu Âu đứng trước nguy cơ bỏ lỡ cơ hội, bị các công ty của Mỹ và Trung Quốc tiếp tục vượt xa trong lĩnh vực AI. Tháng trước, có đến 46 giám đốc điều hành của các công ty hàng đầu ở châu Âu ký vào một bức thư ngỏ chung gửi Uỷ ban châu Âu, yêu cầu tạm dừng hai năm những quy định vừa nói đến.
Mặc dù còn nhiều tranh cãi ở Mỹ và châu Âu đối với Bộ quy tắc minh bạch mô hình A.I đa năng, không thể phủ nhận vai trò nền tảng của Đạo luật AI trong việc thiết lập các tiêu chuẩn pháp lý toàn cầu trong lĩnh vực này. Bản thân các nhà cung cấp AI (hiện đa phần là các công ty công nghệ của Mỹ) nếu ký kết và tuân thủ bộ quy tắc này cũng sẽ được giảm gánh nặng thủ tục và hưởng lợi từ sự rõ ràng pháp lý. Động thái này được kỳ vọng sẽ tạo ra những mô hình AI có đạo đức, bảo vệ quyền sở hữu trí tuệ và giảm thiểu rủi ro xã hội.
Bạn không thể gửi bình luận liên tục.
Xin hãy đợi 60 giây nữa.