Một nghiên cứu mới đã chỉ ra rằng các mô hình AI như ChatGPT và Claude hiện vượt trội hơn các nhà virus học có trình độ tiến sĩ trong việc giải quyết các vấn đề trong phòng thí nghiệm sinh học. Đây vừa là cơ hội, vừa là thách thức đối với cộng đồng khoa học.
Mục lục
AI và Khả Năng Xử Lý Thực Tế
Nghiên cứu, được thực hiện bởi các nhà khoa học từ Trung tâm An toàn AI, Phòng thí nghiệm Media của MIT, Đại học UFABC tại Brazil, và tổ chức phi lợi nhuận SecureBio, đã đưa ra một bài kiểm tra thực tế phức tạp. Kết quả cho thấy, trong khi các nhà virus học đạt điểm trung bình 22.1%, AI của OpenAI đạt độ chính xác lên đến 43.8%, và Google Gemini 2.5 Pro đạt 37.6%.
Seth Donoughe, nhà khoa học tại SecureBio, chia sẻ rằng kết quả này khiến ông lo ngại. Lần đầu tiên trong lịch sử, bất kỳ ai cũng có thể tiếp cận một AI có khả năng hướng dẫn quy trình phòng thí nghiệm phức tạp, tiềm ẩn nguy cơ tạo ra vũ khí sinh học.
Lợi Ích và Rủi Ro
Nếu AI thực sự có khả năng như nghiên cứu chỉ ra, tác động sẽ rất lớn. Về mặt tích cực, AI có thể hỗ trợ các nhà virus học trong việc nghiên cứu và điều chế vắc-xin. Tuy nhiên, kẻ xấu cũng có thể lợi dụng AI để tạo ra các tác nhân gây bệnh nguy hiểm mà không cần đào tạo chuyên sâu.
Dan Hendrycks, Giám đốc Trung tâm An toàn AI, kêu gọi các công ty AI thiết lập các biện pháp bảo vệ để ngăn chặn việc sử dụng sai mục đích. Ông đề xuất rằng các mô hình AI nên được kiểm soát, chỉ cung cấp quyền truy cập cho các đối tượng đáng tin cậy như nhà nghiên cứu tại MIT.
Hành Động Cần Thiết
Một số công ty AI đã bắt đầu hành động. xAI của Elon Musk đã công bố khuôn khổ quản lý rủi ro, trong khi OpenAI triển khai các biện pháp giảm thiểu rủi ro sinh học cho các mô hình mới nhất của họ. Tuy nhiên, các chuyên gia như Tom Inglesby cho rằng tự điều tiết của ngành là chưa đủ, cần có sự can thiệp từ các nhà lập pháp để đảm bảo an toàn công cộng.
Khi công nghệ AI tiếp tục phát triển, việc cân bằng giữa tiềm năng và rủi ro là vô cùng quan trọng. Sự hợp tác giữa ngành công nghiệp, chính phủ và các tổ chức khoa học sẽ là chìa khóa để đảm bảo rằng AI được sử dụng một cách có trách nhiệm.