Trong bối cảnh trí tuệ nhân tạo (AI) ngày càng phát triển mạnh mẽ, các công ty công nghệ hàng đầu đang cùng hợp tác với chính phủ để xác định những nguy cơ tiềm ẩn và bàn cách tạo ra một “công tắc tắt AI” khi cần thiết. Ngày 22/5, một hội nghị thượng đỉnh quan trọng đã diễn ra tại Seoul, với sự tham gia của 16 công ty AI lớn như Anthropic, Microsoft, OpenAI cùng đại diện từ hơn 10 quốc gia và Liên minh châu Âu. Hội nghị này nhằm đưa ra những quy định về phát triển AI một cách an toàn và có trách nhiệm.
Đồng thuận chính sách ‘công tắc khẩn cấp’
Một trong những kết quả nổi bật của cuộc họp là sự đồng thuận về chính sách “công tắc khẩn cấp” đối với AI. Theo chính sách này, các công ty sẽ ngừng phát triển các mô hình AI tiên tiến nhất nếu chúng vượt qua ngưỡng rủi ro nhất định.
Tuy nhiên, hiệu quả của chính sách này vẫn còn là một dấu hỏi lớn. Thỏa thuận giữa các công ty không có giá trị pháp lý và ngưỡng rủi ro cụ thể vẫn chưa được xác định. Điều này đặt ra thách thức trong việc đảm bảo rằng các biện pháp an toàn thực sự được thực thi khi cần thiết.
Từ khoa học viễn tưởng đến thực tế
Từ lâu, các nhà văn và nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của trí tuệ nhân tạo. Họ lo ngại rằng AI có thể trở nên thông minh hơn và quay lại tấn công con người, giống như trong phim “Kẻ Hủy Diệt” (1984), nơi một người máy du hành ngược thời gian để giết một phụ nữ vì con trai bà sẽ chiến đấu chống lại hệ thống AI trong tương lai.
Những cảnh báo này đã từng là khoa học viễn tưởng nhưng ngày nay đang trở thành mối quan tâm thực tế. Việc tạo ra các biện pháp an toàn như “công tắc khẩn cấp” cho AI là cần thiết để ngăn chặn những kịch bản nguy hiểm này, đảm bảo rằng AI được phát triển và sử dụng một cách có trách nhiệm.
Cơ hội và thách thức
Trí tuệ nhân tạo (AI) mang đến những cơ hội to lớn để thay đổi nền kinh tế và giải quyết các thách thức xã hội. Tuy nhiên, những tiềm năng này chỉ có thể được khai thác tối đa nếu chúng ta xác định và quản lý được những rủi ro mà công nghệ phức tạp này có thể gây ra.
Bộ trưởng Công nghệ Anh, ông Michelle Donelan, đã nhấn mạnh sự cần thiết của việc nhận diện rủi ro để phát huy tối đa lợi ích của AI. Các công ty AI cũng thừa nhận nguy cơ này. OpenAI trong một bài đăng trên blog cho biết, “Siêu trí tuệ AGI có nguy cơ bị sử dụng sai mục đích, gây hậu quả nghiêm trọng và làm rối loạn trật tự xã hội.”
Nỗ lực xây dựng khuôn khổ pháp lý toàn cầu
Hiện nay, nỗ lực xây dựng một khuôn khổ pháp lý toàn cầu về quản lý AI vẫn còn rời rạc và thiếu sự thống nhất. Khung chính sách của Liên Hợp Quốc yêu cầu các quốc gia bảo vệ nhân quyền và ngăn ngừa rủi ro từ AI, đồng thời giám sát việc sử dụng dữ liệu cá nhân. Tuy nhiên, các chính sách này lại không có hiệu lực pháp lý, gây khó khăn trong việc thực thi và đảm bảo an toàn.
Trong khi đó, các công ty AI đã bắt đầu thành lập các tổ chức riêng nhằm thúc đẩy sự an toàn của mô hình AI tiên phong. Một trong những tổ chức đó là Frontier Model Foundation, với các thành viên sáng lập bao gồm Amazon, Meta, Anthropic, Google, Microsoft và OpenAI. Dù đã ra đời, tổ chức này vẫn chưa đưa ra bất kỳ chính sách cụ thể nào để quản lý và kiểm soát AI.
Những bước đi này cho thấy sự quan tâm và nỗ lực từ cả chính phủ và các công ty trong việc xây dựng một khuôn khổ pháp lý toàn cầu cho AI. Tuy nhiên, chặng đường phía trước vẫn còn dài và đầy thách thức, đòi hỏi sự hợp tác chặt chẽ và cam kết mạnh mẽ hơn từ tất cả các bên liên quan để đảm bảo AI phát triển một cách an toàn và có trách nhiệm.
Hướng tới tương lai
Chặng đường xây dựng quy định về an toàn AI toàn cầu sẽ tiếp tục với một hội nghị thượng đỉnh khác diễn ra đầu năm sau tại Pháp. Tại đây, các bên tham gia dự kiến sẽ đưa ra định nghĩa cụ thể về ngưỡng rủi ro đối với AI và các hành động cần thiết trong quản lý – một bước tiến so với quá trình tương đối mờ nhạt hiện nay.
Trong thời gian tới, việc các công ty công nghệ lớn và các chính phủ tiếp tục hợp tác chặt chẽ sẽ là yếu tố then chốt để đảm bảo AI phát triển một cách an toàn, có trách nhiệm và mang lại lợi ích tốt nhất cho xã hội.