Các nhà đàm phán của Liên minh châu Âu ngày 8/12 đã đạt được thỏa thuận về các quy tắc liên quan đến trí tuệ nhân tạo (AI) toàn diện đầu tiên trên thế giới, mở đường cho việc giám sát pháp lý đối với công nghệ được sử dụng trong các dịch vụ AI phổ biến hiện nay.
- Mỹ dừng xuất khẩu các lô hàng chip trí tuệ nhân tạo NVIDIA tới Trung Quốc
- Hội đồng Bảo an Liên hợp quốc thảo luận lần đầu về những mối đe dọa từ trí tuệ nhân tạo
Các nhà đàm phán từ Nghị viện châu Âu và 27 quốc gia thành viên của khối đã vượt qua những khác biệt lớn để ký một thỏa thuận chính trị, là nền tảng cho “Đạo luật Trí tuệ nhân tạo”.
“Đã đạt được thỏa thuận”, Ủy viên châu Âu Thierry Breton, đăng tải trên mạng xã hội X. “Châu Âu trở thành lục địa đầu tiên đặt ra các quy tắc rõ ràng cho việc sử dụng AI”.
Kết quả này đạt được sau các cuộc đàm phán kín kéo dài trong tuần qua, với phiên họp đầu tiên kéo dài 22 giờ trước khi vòng thứ hai bắt đầu vào sáng 8/12.
EU đã sớm dẫn đầu trong cuộc đua toàn cầu nhằm xây dựng các quy tắc về AI khi công bố bản dự thảo đầu tiên của bộ quy tắc vào năm 2021. Tuy nhiên, sự bùng nổ gần đây của AI đã khiến các quan chức châu Âu phải nhanh chân hơn trong vấn đề này.
Nghị viện châu Âu vẫn sẽ cần bỏ phiếu vào đầu năm tới, dù vậy, với thỏa thuận mới đạt được thì đó chỉ là hình thức, theo nhà lập pháp người Italy Brando Benifei.
Các hệ thống AI sáng tạo như ChatGPT của OpenAI đã bùng nổ trong thời gian qua, khiến người dùng choáng váng với khả năng tạo ra văn bản, ảnh và bài hát giống con người nhưng cũng làm dấy lên lo ngại về những rủi ro mà công nghệ đang phát triển nhanh chóng gây ra cho việc làm, quyền riêng tư, bảo vệ bản quyền và thậm chí cả cuộc sống con người.
Hiện nay, Mỹ, Anh, Trung Quốc và các liên minh toàn cầu như G7 đã đưa ra các đề xuất để quản lý AI, mặc dù vẫn chưa bắt kịp châu Âu.
Đạo luật quản lý AI của châu Âu ban đầu được thiết kế để giảm thiểu mối nguy hiểm từ các chức năng AI cụ thể dựa trên mức độ rủi ro của chúng. Các nhà lập pháp đã thúc đẩy việc mở rộng việc áp dụng quy tắc sang các mô hình nền tảng, các hệ thống tiên tiến làm nền tảng cho các dịch vụ AI có mục đích chung như ChatGPT và chatbot Bard của Google.
Theo thỏa thuận, các mô hình nền tảng tiên tiến gây ra “rủi ro hệ thống” lớn sẽ được giám sát chặt chẽ hơn. Các nhà nghiên cứu đã cảnh báo rằng những mô hình nền tảng mạnh mẽ này, được xây dựng bởi một số công ty công nghệ lớn, có thể được sử dụng để tăng cường thông tin sai lệch và thao túng trực tuyến, tấn công mạng hoặc tạo ra vũ khí sinh học.