Chuẩn bị tinh thần: Trí tuệ nhân tạo siêu thông minh sắp ra mắt.
MỘT bài viết trên blog Đồng tác giả là Giám đốc điều hành OpenAI Sam Altman, Chủ tịch OpenAI Greg Brockman và Nhà khoa học trưởng của OpenAI Ilya Sutskever, cảnh báo rằng sự phát triển của trí tuệ nhân tạo cần có quy định nghiêm ngặt để ngăn chặn các kịch bản thảm khốc có thể xảy ra.
“Bây giờ là thời điểm tốt để bắt đầu nghĩ về quản trị siêu trí tuệ,” Altman nói, thừa nhận rằng các hệ thống AI trong tương lai có thể vượt xa AGI về khả năng. “Với những gì chúng ta đang thấy hiện nay, có thể hình dung rằng trong thập kỷ tới, các hệ thống AI sẽ vượt qua trình độ kỹ năng chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả như một trong những tập đoàn lớn nhất hiện nay.”
Đáp lại Altman trong bài viết của anh ấy lời khai gần đây Trước Quốc hội, ba người đã vạch ra ba trụ cột mà họ tin rằng sẽ là trung tâm của kế hoạch chiến lược trong tương lai.
“điểm khởi đầu”
Đầu tiên, OpenAI tin rằng phải có sự cân bằng giữa kiểm soát và đổi mới, đồng thời đang thúc đẩy một thỏa thuận xã hội “cho phép chúng tôi duy trì sự an toàn trong khi giúp các hệ thống này tích hợp trơn tru với xã hội.”
Tiếp theo, họ ủng hộ ý tưởng về một “cơ quan quốc tế” chịu trách nhiệm kiểm tra hệ thống, thực thi kiểm toán, kiểm tra tuân thủ tiêu chuẩn bảo mật cũng như các ràng buộc về triển khai và bảo mật. So sánh nó với Cơ quan Năng lượng Nguyên tử Quốc tế, người đã đề xuất cơ quan quản lý AI toàn cầu có thể trông như thế nào.
Cuối cùng, họ nhấn mạnh sự cần thiết của “năng lực kỹ thuật” để kiểm soát và giữ cho trí tuệ siêu việt được “an toàn”. Điều đó có nghĩa là gì vẫn còn mơ hồ, ngay cả đối với OpenAI, nhưng bài đăng cảnh báo chống lại các biện pháp quản lý nghiêm ngặt, chẳng hạn như cấp phép và kiểm toán các công nghệ nằm dưới tiêu chuẩn siêu trí tuệ.
Về cơ bản, ý tưởng là sắp xếp một siêu trí tuệ phù hợp với ý định của những người huấn luyện nó, ngăn chặn một “kịch bản foom” – sự bùng nổ nhanh chóng, không thể kiểm soát của các khả năng AI ngoài tầm kiểm soát của con người.
OpenAI cũng cảnh báo rằng sự phát triển không kiểm soát của các mô hình AI có thể gây ra những tác động thảm khốc đối với các xã hội trong tương lai.Các chuyên gia khác trong lĩnh vực này đã đưa ra những lo ngại tương tự, từ cha đỡ đầu của trí tuệ nhân tạo Gửi những người sáng lập các công ty trí tuệ nhân tạo như ổn định ai và ngay cả Cựu nhân viên OpenAI Đã tham gia đào tạo GPT LLM trước đây. Lời kêu gọi khẩn cấp về cách tiếp cận chủ động đối với quản trị và quy định AI đã thu hút sự chú ý của các cơ quan quản lý trên toàn thế giới.
Thách thức của một siêu trí tuệ “an toàn”
OpenAI tin rằng một khi những vấn đề này được giải quyết, tiềm năng của AI có thể được hiện thực hóa một cách tự do hơn: “Công nghệ này có thể cải thiện xã hội của chúng ta và chúng ta chắc chắn sẽ ngạc nhiên trước sự sáng tạo của mọi người khi sử dụng những công cụ mới này”, họ nói.
Các tác giả cũng giải thích rằng lĩnh vực này hiện đang có tốc độ tăng trưởng nhanh và điều này sẽ không thay đổi. “Việc ngăn chặn nó sẽ đòi hỏi một cái gì đó giống như một chế độ giám sát toàn cầu, và thậm chí điều đó không được đảm bảo là có hiệu quả,” blog viết.
Bất chấp những thách thức này, lãnh đạo của OpenAI vẫn cam kết khám phá câu hỏi, “Làm thế nào để chúng tôi đảm bảo khả năng kỹ thuật để giữ an toàn cho siêu trí tuệ?” Thế giới hiện không có câu trả lời, nhưng chắc chắn cần một câu trả lời mà ChatGPT không thể cung cấp .