Bộ phận Preparedness của OpenAI sẽ có vai trò giám sát và đánh giá về những rủi ro từ việc ứng dụng mô hình AI.
Vào ngày 26.10, OpenAI thông báo sẽ thành lập bộ phận chuyên theo dõi và đánh giá quá trình phát triển của những “mô hình trí tuệ nhân tạo tân tiến” mà công ty xác định tiềm ẩn rủi ro. Việc này nhằm giám sát những yếu tố tiêu cực từ AI có thể tác động đến xã hội như tấn công không gian mạng và can thiệp vào hệ thống hạt nhân.
Có tên gọi Preparedness, bộ phận này sẽ phụ trách việc giám sát các mô hình AI của OpenAI, đảm bảo rằng chúng được sử dụng an toàn và có trách nhiệm như công ty cam kết.
Trong bài viết trên trang web chính thức, OpenAI đã đưa ra một vài ví dụ về rủi ro liên quan đến mô hình AI gồm tạo ra văn bản có tính thuyết phục cao và tự động thực hiện công việc mà không có sự can thiệp từ con người.
OpenAI cũng lo ngại về những rủi ro mà một vài chuyên gia về AI gọi là các mối đe dọa cấp độ “tuyệt chủng” như đại dịch và chiến tranh hạt nhân.
Alexsander Madry, giám đốc tại trung tâm về Ứng dụng mô hình Máy học (Center for Deployable Machine Learning) thuộc đại học MIT, sẽ gia nhập Preparedness trong vai trò điều hành.
Một nhiệm vụ khác của Preparedness là xây dựng và duy trì chính sách “Risk-Informed Development” (Tạm dịch: Phát triển rủi ro được báo trước), nhấn mạnh cách công ty nên kiểm soát rủi ro từ việc phát triển và ứng dụng các mô hình AI, khi công nghệ này trở nên tân tiến và tiệm cận với năng lực trí tuệ của con người.
OpenAI cũng mời những người bên ngoài tham gia thử thách đóng góp ý tưởng về cách AI có thể được sử dụng sai mục đích và gây ảnh hưởng tiêu cực đến thế giới thực.
Vào tháng 5.2023, ban lãnh đạo của OpenAI gồm CEO Sam Altman, trưởng bộ phận khoa học Ilya Sutskever và giám đốc công nghệ Mira Murati cùng với những chuyên gia về AI khác đã ký vào lá thư về tập trung vào giải quyết rủi ro liên quan đến mô hình AI. Trước đó, vào tháng 3.2023, các chuyên gia AI và những nhà lãnh đạo công nghệ, bao gồm cả Elon Musk, lo ngại về tốc độ phát triển nhanh chóng của AI đã ký vào một lá thư khác kêu gọi tạm ngừng phát triển công nghệ này trong sáu tháng.
Trong một buổi phỏng vấn với ABC News hồi tháng 3.2023, Sam Altman từng thể hiện lo ngại về việc các mô hình AI có thể được dùng để tạo thông tin sai lệch trên quy mô lớn.
Mặc dù vậy, anh cũng có niềm tin rằng quá trình phát triển công nghệ là yếu tố quan trọng đối với nhân loại. Tuy trở thành cơn sốt trên thế giới khi vượt qua các bài kiểm tra và có thể viết tiểu luận kể từ khi ra mắt vào tháng 11.2022, ChatGPT và những chatbot tương tự lại liên quan đến việc lan truyền thông tin sai sự thật và có những câu trả lời kỳ lạ.
5 tháng trước
5 cách ứng dụng AI hữu ích khi làm việc tại nhà